“AI is stealing your job” : retour sur un mythe et point de situation Part I - Pedro Gomes Lopes

Mis à jour : avr. 30

Pedro Gomes Lopes est content manager chez AI for Tomorrow et consultant senior chez Wavestone.


Depuis sa naissance dans les années 50, l’intelligence artificielle (IA) a sans cesse été accompagnée par une mythologie abondante. Le « mythe de la substitution »[1] en est un exemple. Dans la même ligné des défenseurs de la singularité technologique[2], ce mythe met en scène des machines capables de dépasser les capacités humaines. Cette capacité mènerait inéluctablement au remplacement massif de l’humain par l’IA dans de nombreuses activités, dont le travail.


Pendant sa courte durée de le vie, l’IA a vécu 3 périodes principales d’euphorie. Débutant par les années 50/60, passant par les années 80 et depuis 2012 jusqu’à nos jours. A chaque fois, ce vieux mythe tend à réapparaitre lorsque les progrès dans la discipline deviennent plus importants. « C’est normal » me diriez-vous. En ajoutant « l’IA est partout mais reste méconnue du grand public, on ne sait pas ce que c'est, on ne l’apprend pas à l’école ». D’un autre côté, on entend parler de l’IA à chaque coin de rue. Les médias en parlent plus que jamais. Les films de science-fiction sont nombreux et alimentent la mythologie. La communication et la publicité des acteurs économiques intéressés par la progression de l’IA présentent la technologie comme la panacée. Leurs représentants comment Elon Musk[3] ou Ray Kurzwail[4] prévoient que l’IA (forte ou générale) nous dépassera respectivement dans 4 ans et entre 2029 et 2045.


Comment ce mythe s’est construit ? Qu’en est-il aujourd’hui ? Est-ce que nos emplois sont menacés ? Sont-ils déjà occupés par des IA qui font mieux (ou moins cher) que nous, les travailleurs humains ?


Pour aller au-delà de la futurologie et des mythes, j’essayerai modestement de me soumettre à un exercice d’empirisme permettant de clarifier le lien entre IA et travail.


Les différentes phases de l’IA et les différentes visions du futur du travail


Tout d’abord arrêtons-nous un moment sur l’idée d’intelligence artificielle. Depuis sa création ce concept a été défini de plusieurs manières et le terme même d’IA fait débat et est souvent remis en question. Je pense subitement au livre « L'intelligence artificielle n'existe pas » de Luc Julia, où il nous explique que tout est une histoire de malentendus. En effet, en 1956, lors de la conférence de Dartmouth, John McCarthy a convaincu ses collègues d'employer l'expression " intelligence artificielle " pour décrire une discipline qui n'avait rien à voir avec l'intelligence. Ce séminaire scientifique est considéré comme l'acte de naissance de l'intelligence artificielle en tant que domaine de recherche autonome.

Pour McCarty, Minsky, Shannon, Simon et autres chercheurs du « Dartmouth Sumer Research Project on Artificial Intelligence », l’IA était initialement destinée à simuler chacune des facultés de l’intelligence – humaine, animale, végétale, sociale ou phylogénétique – en utilisant des machines[5]. L’hypothèse était que n’importe quelle fonction cognitive (apprentissage, mémorisation, calcul, …) pourrait être être décrite avec une précision telle qu’il serait possible qu’un programme informatique la reproduise. Jusqu’ici personne n’a été capable de la réfuter.

Depuis ses débuts, l’IA a vécu plusieurs phases. Les années 50 et 60 sont couronnées de succès[6] et y règne un climat d’euphorie parmi les chercheurs. Les investissements publics affluent vers la recherche (ARPA puis DARPA), ce qui conduit à de plus en plus de projets. Avec la réussite vient l’optimisme et plusieurs chercheurs se lancent dans des exercices de futurologie.

En 1965, H. Simon affirme que « des machines seront capables, d'ici vingt ans, de faire tout travail que l'homme peut faire ». En 1968, Arthur C. Clarke et Stanley Kubrick imaginent que dès l'année 2001, une machine aura une intelligence comparable, voire excédant les capacités des êtres humains[7]. En 1970, Marvin Minsky affirme pendant une interview à Life Magazine qu’une machine avec une intelligence générale proche de l’humain pourraient être développé en l’espace de 3 à 8 ans. En 1976, James Albus[8] écrivait « les machines automatiques vont tôt ou tard passer d’assistants à des concurrents du travail humain. Possiblement elles deviendront même suffisamment efficaces pour travailler sans l’aide de l’humain ».


Photo de Pavel Danilyuk provenant de Pexels


Toutefois au début des années 1970, les résultats des programmes d’IA sont limités, les chercheurs font face à des problèmes qu’ils ne sont pas en mesure de dépasser. L’état de grâce du champs de recherche faiblit et les années 1973/1974 marquent un coup d’arrêt dans la percée de l’IA. La tâche se révèle plus difficile qu’imaginée par les chercheurs, les déceptions arrivent, les critiques pleuvent et les financements diminuent drastiquement. Nous sommes au premier hiver de l’IA.

Les années 80 marquent une reprise dans le domaine avec l’arrivée des systèmes experts et l’IA fait finalement sont entrée dans le monde des entreprises. Ces systèmes sont constitués d’un ensemble de règles visant à formaliser dans un programme informatique la connaissance d’un expert métier sous forme d’énoncés « if-then ». A titre d’exemple le système expert MYCIN servait à identifier les bactéries causant des infections graves et à proposer les antibiotiques et la posologie adaptée au poids corporel du patient. Le système présentait des résultats acceptables par les experts mais n’a jamais été utilisé pour des raisons éthiques et des difficultés d’utilisation. Un exemple plus connu pour montrer la supériorité de ce type de programmes est Deep Blue[9], programme joueur d’échecs d’IBM, qui en 1997 a battu le champion mondial Gary Kasparov. Ces programmes réalisent en effet plusieurs types de tâches avec une performance au moins égales à celle des humains et relancent le vieux débat sur le remplacement de l’humain par la technologie. Toutefois, la reprise est de courte durée et dès la fin des années 80 débute une nouvelle hibernation de l’IA jusqu’aux années 2000. La fascination de la communauté économique pour l'intelligence artificielle a gonflé puis chuté en suivant le schéma classique d'une bulle économique[10].




Extrait de l’article de 1984 *Artificial Intelligence : Myths and Realities [11]


Dans le cadre du travail, l’IA est utilisée depuis les années 80 au sein des systèmes-experts. Depuis une dizaine d’années elle s’insère progressivement dans nos vies de tous les jours et devient de plus en plus omniprésente. Ce regain d’intérêt est en particulier lié au développement de l’apprentissage automatique (machine learning) qui est devenu le paradigme dominant dans ce champ. Il profite de l’afflux important de données lié à la digitalisation du monde, à l’augmentation de la puissance de calcul des ordinateurs et aux développements scientifiques dans le domaine. Contrairement aux systèmes experts (IA symbolique), dans le champ du machine learning (IA connexionniste), les modèles apprennent grâce aux données qui leur sont fournies en entrée et sans avoir été programmés avec des règles strictes.

Le machine learning donne lieu à de nombreux cas d’usages et produits. Il « donne vie » à des assistants vocaux (tels que Siri, Alexa, etc), des systèmes de reconnaissance vocale, de texte ou d’images. Il assiste les pharmacologues médicaux dans la recherche de nouveaux médicaments[12]. Un robot atterrit et parcourt la planète Mars à l’aide de techniques d’IA[13]. Il permet de développer des voitures autonomes et des robots autonomes capables d’automatiser des entrepôts entiers[14]. Il est derrière les systèmes de recommandation[15] que l’on retrouve sur les réseaux sociaux ou autres plateforme tels que Netflix. Tous ces cas d’usage ouvrent à nouveau une voie royale à l’imaginaire collectif sur les possibilités et les risques de l’IA dans le monde du travail.


Le chômage technologique [16]


Selon Gregory Worrol[17], le phénomène du chômage technologique aurait existé depuis au moins l’invention de la roue. Avançant un peu dans l’Histoire, entre 1811 et 1822, le luddisme a opposé violement tondeurs et tricoteurs aux manufacturiers qui favorisaient l’emploi des machines dans le travail de la laine et du coton en Angleterre. Aujourd’hui, et après les deux périodes précédentes d’euphorie autour de l’IA, des voix s’élèvent à nouveau pour nous alerter sur les dangers que représente l’IA sur l’emploi.

Pour ne donner que quelques exemples, en 2013, l’étude de Frey et Osborne, maintenant devenu une référence, estime que 47% des métiers aux Etats-Unis courent le risque d’être automatisés par l’intermédiaire de robots et d’algorithmes apprenants (machine learning). Selon les mêmes auteurs, alors que jusqu’ici l’automatisation était réservée à des tâches routinières et standardisées, les algorithmes d’IA peuvent maintenant aussi remplacer un large panel de métiers jusqu’ici réservés aux cadres. Dans un autre registre, en 2015, un groupe de figures publiques et d’éminents chercheurs tels que Elon Musk et Stephen Hawking, ont signé une lettre ouverte pour alerter le public sur la capacité de l’IA à dépasser l’intelligence humaine et ainsi devenir une menace pour l’humanité. Cette menace passerait inéluctablement par un chômage de masse. Toutefois, très peu d’arguments scientifiques ou de preuves empiriques sont mis sur la table.

Il est intéressant d’observer que des ingénieurs ou des scientifiques, spécialistes d’une technologie aussi efficace pour prévoir le futur, soient autant dans la foi et les croyances et aussi peu dans la science.

Au mois de mai, dans la deuxième partie de l’article, je vous parlerai du présent et j’exposerai les transformations réelles que le champs de l’IA a apporté au monde du travail après 75 ans d’existence.


Lire sur Medium.


Pedro Gomes Lopes,

Content Manager chez AI For Tomorrow

Consultant senior chez Wavestone


Références:

[1] Carr, N. (2017). Remplacer l’humain : Critique de l’automatisation de la société. Ed. L’Echappée

[2] Ganascia, J.G. (2017), Le Mythe de la Singularité. Faut-il craindre l'intelligence artificielle ? Ed. Points

[3] https://www.independent.co.uk/life-style/gadgets-and-tech/news/elon-musk-artificial-intelligence-ai-singularity-a9640196.html

[4] https://www.neozone.org/innovation/intelligence-artificielle-un-cadre-de-google-predit-que-2045-sonnera-le-glas-pour-lhumanite/

[5] Ganascia, J.G. (2018), https://en.unesco.org/courier/2018-3/artificial-intelligence-between-myth-and-reality

[6] ELIZA et General Problem Solver Program sont des programmes informatiques ayant contribué à faire progresser le champ

[7]https://fr.wikipedia.org/wiki/Histoire_de_l'intelligence_artificielle#Mais_où_est_HAL_9000_?

[8] James S. Albus (1976), Peoples' Capitalism: The Economics of the Robot Revolution. Ed : New World Books

[9] https://fr.wikipedia.org/wiki/Matchs_Deep_Blue_contre_Kasparov

[10] https://fr.wikipedia.org/wiki/Histoire_de_l'intelligence_artificielle#La_fin_des_investissements

[11] Hugo D’Alarcao (1984). Artificial Intelligence : Myths and Realities. Bridgewater State College

[12] https://www.aifortomorrow.co/post/facebook-s-intéresse-à-la-pharmacologie

[13] https://www.aifortomorrow.co//post/ia-et-découverte-spatiale-osez-des-choses-puissantes

[14] https://www.bfmtv.com/economie/consommation/amazon-inaugure-son-premier-entrepot-robotise-en-france_AV-201910230300.html

[15] https://www.phonandroid.com/netflix-comment-algorithme-de-recommandation-vous-manipule.html

[16] https://www.livescience.com/49419-artificial-intelligence-dangers-letter.html

[17] Worrol, G. (1996). Unemployment and Structural Unemployment Debates. Ed : Praeger