START Conseils - Le Paradoxe de l’IA
Par Jérôme Chifflet
Fake news, mode … usurpation sémantique. Dans tous les cas il devient de plus en plus difficile de cerner le concept de l’IA. Comment cette technologie va – t-elle remettre en cause 70 ans de processus d’aide à la décision ? Jusqu’où iront les services s’appuyant sur l’intelligence artificielle ?

L’IA est partout, vraiment ?
Difficile d’ouvrir un journal d’économie à la page innovation & Deep Tech sans voir l’acronyme IA à chaque ligne ou presque. Que se passe-t-il avec ces algorithmes ? en sont-ils vraiment d’ailleurs (… des algorithmes) ? De quoi parlons-nous ?
Qu’est-ce que l’IA ?
Dès 2018 à Vivatech, Bruno Maisonnier (le fondateur d’Aldébaran) dans sa conférence, “the leading edge of artificial intelligence” disait : « c’est très clair il n’y a aucune intelligence dans les logiciels d’apprentissage profond ou non ». C’est d’autant plus vrai si on définit l’intelligence comme la capacité d’adaptation à une situation non prévisible.
Prenons un exemple : Posez à votre smart (intelligent) phone le problème suivant : « J’ai deux œufs dans mon réfrigérateur et j’ai faim ? », vous risquez d’attendre un bon moment avant qu’il vous dise : « va te faire cuire un œuf ! » qui est vous en conviendrez la meilleure des réponses.
Cependant pas une journée ne s’écoule sans qu’une startup lance un nouveau produit à base d’IA. De même que les grands groupes, quel que soit leur secteur d’activité, annoncent que cette technologie va fortement impacter leur stratégie à long terme.
Certains diront qu’il s’agit de marketing et de communication, mais encore une fois que se cache-t-il derrière cet acronyme ?
Donnons quelques définitions.
L’intelligence artificielle dites faible (Weak AI) concerne les logiciels qui se concentrent sur une seule tâche à résoudre, aide à la navigation, jeux de GO ou jeu d’échecs. L’intelligence artificielle dites forte (Strong AI), elle, adresse des problèmes complexes qui requièrent diverses compétences, conscience, sensibilité, synthèse… de façon à prendre des décisions devant des situations non prévues.
D’un point de vue scientifique, L’IA est nait dans les années 50 avec le premier algorithme d’apprentissage le Perceptron1. Puis nous devrons attendre les années 90 avec les premiers résultats de Deep Blue qui battra Kasparov aux échecs en 1997. La troisième période dont l’essor est dû principalement à la puissance des calculateurs et à leur capacité de stockage commence en 2011 avec IBM Watson et les performances d’Alpha GO. Ils donneront à l’IA faible ses premiers succès.
Une nouvelle étape dans l’aide à la décision
Ce qui est intéressant avec le phénomène de l’IA c’est le parallèle que nous pouvons faire avec d’autres algorithmes d’aide à la décision. Dans les années 50 on observe la première révolution dans le monde de l’aide à la décision, la naissance d’une nouvelle discipline : la recherche Opérationnelle. Grace au Simplex (George Dantzig) on pouvait résoudre tout problème d’optimisation mis sous forme linéaire (Min <c.x> ; st to Ax=b) autant dire une grande majorité des problèmes d’optimisation, à cette époque, on a cru qu’aucun problème ne résisterai à cet algorithme. Il faudra cependant attendre 30 ans le code MPLX d’IBM et le logiciel Cplex d’Ilog2 en 1987 pour résoudre ces problèmes.
Comme toute nouvelle avancée scientifique, après le Hype (mode) apparaissent les frustrations et les problèmes cachés. Pour notre simplex elles prendront deux formes, la structure des données (non-convexité, problèmes discrets) et la théorie de la complexité3 non connue à cette époque qui lie le temps de calcul et la taille des données du problème.
Le problème de la non-convexité des fonctions à optimiser fut partiellement résolu par des méthodes utilisant le recuit simulé4 issues de la mécanique statistique qui donnaient une bonne approximation de la solution optimale. On doit cette méthode à un chercheur d’IBM S. Kirkpatrick. Aujourd’hui pour résoudre de tels problèmes Fujitsu propose le Digital annealer5qui utilise la mécanique quantique et l’IA.
Il n’y a pas de paradoxe de l’IA, nous sommes juste aux prémices d’une nouvelle aire dans l’aide à la décision. Nous retrouvons les mêmes espoirs et les mêmes frustrations que la recherche opérationnelle dans les années 50. Mais nous avons appris deux choses : quelle que soit la solution choisie la nature, la structure et la taille des données sont des éléments cruciaux. L’aspect combinatoire et la non-convexité des problèmes restent des difficultés majeures, ce que nous savons depuis Laszlo Lovász.
Combien de temps cela va-t-il prendre pour que nous acceptions ces nouveaux services ?
Beaucoup d’étapes restent à franchir avant une adoption totale de cette nouvelle technologie et nous pourrions être surpris de la vitesse des développements de l’IA faible. Mais au-delà des aspects éthiques, légaux et réglementaires nous devrons également gérer les impacts sociétaux de ces nouveaux outils. Donc nous pouvons nous attendre a passer les prochaines décades à résoudre ces impacts.
Je ne peux évoquer cette hypothèse sans citer le livre de Carlotta Perez “Technological revolution and financial capital” qui explique que les cinq dernières révolutions technologiques ont mis entre 45 et 50 ans avant d’être adoptées par le grand public.
Il a fallu plus de 50 ans à la recherche opérationnelle entre les premiers travaux de De la Vallée Poussin et le code Cplex de Pierre Haren. On peut donc penser pour l’IA forte nous ayons quelques décades devant nous avant son adoption totale.
Cette nouvelle révolution industrielle suivra-t-elle cette même loi ?
A propos de Jérôme Chifflet
Titulaire d'un doctorat en mathématiques, Jérôme Chifflet a été successivement chercheur, entrepreneur, manager et possède une vaste expérience en recherche, comprenant plus de 20 ans à divers postes allant de directeur de laboratoire de recherche pour Orange à Directeur délégué de la Recherche pour le Groupe. Il est également membre de plusieurs comités d'investissement (IGEU, Investissements PACA, Sophia Business Angels,) et d'incubateurs (Incubateurs PACA –EST; Telecom Paris Tech). Il occupe actuellement le poste de responsable des disciplines scientifiques et techniques pour Orange Labs Research.