AI 101: Introduction à l'IA

IA: mythe fécond et méthodologie

June 1, 2021

Thomas Baudel

Directeur de Recherche chez IBM France Lab & Vice-Président de l'Association Francophone d'Interaction Humain-Machine

L’informatique est une création de mathématiciens. Depuis le mécanisme d’Anticythère [1], la machine à calculer de Pascal [2], celle de Babbage et Lovelace [3], l’Homme a cherché des mécanismes pour automatiser les aspects fastidieux du raisonnement déductif. Enfin, avec les travaux de Turing, Zuse [4] et Von Neumann, on est parvenu à réaliser les premiers calculateurs universels, c’est-à-dire capables, en principe, de reproduire tout raisonnement déductif. Cela a soulevé d’immenses fantasmes : la faculté de raisonner n’est-elle pas ce qui distingue notre humanité au sein de la nature ? Et si les mythes du Golem ou de Frankenstein pouvaient se réaliser, l’Homme parvenant à créer son propre clone ?



Le mécanisme d’Anticythère, premier calculateur analogique connu. (CC BY 2.5, Wikipedia)


En marge du développement de l’informatique, dès les années 50, s’est donc développé un mythe l’accompagnant, dont la finalité n’est pas utilitariste, résoudre des problèmes du monde réel ou simplifier des tâches concrètes, mais plutôt la réalisation de ce fantasme démiurge : créer une machine capable d’interagir, avec le monde ou d’autres humains, de façon indistinguable d’un humain. Nous appelons ce mythe l’intelligence artificielle.


La plupart des travaux initiaux, jusque dans les années 80, sont fondés sur les approches déductives (dites symboliques) et ont montré de sérieuses limites. Les systèmes experts s’avèrent difficiles à construire et encore plus à maîtriser, les approches structurelles pour la reconnaissance des formes (texte, images, voix…) n’ont que des applications rudimentaires. Parallèlement, en psychologie expérimentale, avec Gibson (cognition située, affordances) [5], Gardner (intelligences multiples) [6] ou Damasio (nous décidons, littéralement, avec nos tripes) [7], ou encore en économie comportementale, avec Kahneman [8], cette vision de l’humain ‘entité douée de raison’ est déconstruite : l’humain, dans son environnement, n’est pas un ordinateur, déductif et mû par une fonction d’utilité attendue éventuellement explicitable.


En fin de compte, si l’ambition initiale de reproduction de l’activité humaine experte a échoué, les technologies issues de ces travaux ont bien trouvé leurs champs d’application. Aujourd’hui, les grandes entreprises utilisent le ‘management de la décision’ [9] pour organiser et maîtriser les flux d’information dans l’entreprise. En effet, l’entreprise est un système complexe, qui a besoin de transparence, de processus formels pour que les humains puissent collaborer, et qui peut se restructurer au besoin. En ce sens, rendre ses règles de fonctionnement et ses processus explicites s’avère précieux pour la modéliser, la comprendre et la faire fonctionner. Les technologies de reproduction du raisonnement déductif s’y avèrent particulièrement adaptées. Elles représentent aujourd’hui des marchés se chiffrant en milliards de dollars, avec des gains de productivité à la hauteur, et donc contribuent à la maîtrise de la complexité de nos sociétés, de manière discrète, mais indispensable.


La réémergence du mythe de l’intelligence artificielle, à partir des années 80, part sur une autre base : si l’humain est plus qu’un « mécanisme raisonnant », il nous faut reproduire plus de ses caractéristiques pour s’approcher de son comportement. Des approches inductives, telles que les réseaux de neurones, nous permettent de reproduire des mécanismes de la perception [10], et de réaliser avec beaucoup plus de succès des tâches qui nous échappaient, telle la reconnaissance d’images, de la parole ou encore traiter le langage naturel avec des outils plus conformes à nos besoins. Il faudra 30 ans pour que cette vision débouche sur les applications majeures que nous observons actuellement : traduction automatique, interprétation d’images, conduite autonome, et, de façon moins spectaculaire mais beaucoup plus prévalente, l’aide à la décision, dans toutes les branches et tous les domaines socio-économiques.


Est-ce que ce que nous produisons avec ces nouvelles méthodes « perceptuelles » est conforme à ce que nous en attendions : la production d’un analogue de nos capacités humaines ? Cela se discute. Nous avons des trains et même des usines autonomes depuis 30 ans, utilisant des technologies qui ne se revendiquent pas de l’IA, alors que le déploiement de la voiture autonome piétine. Ce n’est pas faute de progrès techniques, mais plutôt parce que l’insertion d’un véhicule autonome dans le trafic humain fonctionne assez mal : les machines ne « lisent » pas comme nous leur environnement, ne communiquent pas sur les mêmes modalités, bref, ne s’ « entendent » pas avec les humains (1). De même, nous avons montré dans un entretien précédent certaines limites de la traduction automatique [11], qui ne se posent pas dans le domaine technique, mais dans la prise en compte plus large de l’environnement dans lequel se place un texte. Les préoccupations émergentes sur l’ « éthique de l’IA » ne traduisent pas autre chose : fondamentalement, même s’il devient possible de reproduire des fonctions humaines, nous ne pouvons pas capturer dans un monde numérique ce qui fait l’essence de l’humain : être là, une entité consciente, délimitée dans le temps et dans l’espace. Par contraste, un agent informatique n’est ni attaché à une position spatiale particulière, ni délimité dans le temps. Il s’agit d’une différence ontologique fondamentale, irréconciliable (2). C’est dans le fond, comme le disait Edsger Dijkstra [12], que la question de savoir si un ordinateur peut penser n’a pas plus de sens que celle de savoir si un sous-marin peut nager.



Ne jetons pas pour autant le bébé avec l’eau du bain. Tout comme pour la première génération de produits de l’IA, les effets de la nouvelle génération sont bien présents, et transforment nos vies, AI For Tomorrow en témoigne largement. Alors, si l’objectif affiché de l’IA ne tient que du mythe, comment appréhender ce domaine scientifiquement ? On est bien en peine de trouver une définition propre de l’IA, stable dans le temps et épistémologiquement fondée. Que ce soit dans le rapport Villani « ce n’est pas chose facile » (p. 9) [13], le récent projet de directive sur l’IA de la commission Européenne [14], qui se contente de poser un catalogue à la Prévert de technologies, ou encore Wikipedia qui botte en touche : (« AI is intelligence demonstrated by machines », puis, à la définition de « intelligence » : « Intelligence has been defined in many ways… »), force est de constater que l’on ne trouve rien qui puisse satisfaire un esprit quelque peu scientifique.


Aussi, au vu du succès de ce domaine, il me paraît utile d’en proposer tout de même une définition, quand bien même elle sera perçue comme iconoclaste : l’IA n’est pas un champ d’étude d’un domaine particulier, c’est une méthodologie scientifique d’exploration de l’univers numérique. D’Aristote à Popper, les scientifiques se sont attachés à définir les méthodes qu’ils utilisent : déduction pour les mathématiciens, induction pour les sciences de la nature… Les sciences humaines ont recours à d’autres méthodes pour explorer leurs champs d’étude : enquêtes et sondages, observation in situ, simulation… Plus récemment encore, des domaines scientifiques très appliqués, comme la pédagogie ou l’aménagement urbain, utilisent la « recherche-action » [15], méthode consistant à produire un artefact original, et observer comment un public se l’approprie. Dans ce contexte, et au vu de ses succès, nous souhaitons définir l’intelligence artificielle comme une méthodologie d’exploration et de compréhension de l’univers numérique, procédant par mimétisme de l’univers physique dans l’univers numérique. Il s’agit de prendre des phénomènes naturels tels que nous les comprenons : la raison, la perception, mais aussi l’évolution (les algorithmes génétiques) ou la physique (recuit simulé, verres de spin… pour produire des algorithmes combinatoires convergents), et les reproduire dans un environnement informatique. Cette mimesis n’est pas destinée à comprendre le phénomène naturel en question, mais à produire un artefact numérique utile en soi. C’est ainsi que l’on se permet, pour les améliorer, de prendre quelques libertés avec ces phénomènes naturels reproduits, introduisant par exemple du Lamarckisme dans les méthodes évolutionnaires, ou encore les réseaux de neurones actuels qui, stratifiés en couches, ont peu de rapports avec la topologie réelle de nos systèmes nerveux.


Photo by mahdis mousavi on Unsplash


La vie explore le monde physique, fait d’atomes, depuis quelques milliards d’années. L’humanité, probablement depuis l’invention de l’écriture, soit quelques milliers d’années, explore le monde platonicien des idées, fait de concepts, immatériels, communicables, mais non tangibles. Depuis quelques décennies, nous explorons un nouveau monde, que Floridi appelle l’infosphère [16]. Ce monde est fait de bits, immatériels, mais tangibles. Pour comprendre les mécanismes, les possibilités, mais aussi les limites de ce monde, il nous faut des repères où nous accrocher, et d’où aussi construire. En partant de ce que nous maitrisons du monde physique, procéder par mimétisme semble une bonne idée, si l’on en juge l’engouement actuel pour ce mythe fécond qu’est l’intelligence artificielle.

Niveau de lecture

Aidez-nous à déterminer le niveau de lecture:

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.

Lire des articles similaires: