L’IA va se banaliser, devenir « normale » et devra être mieux encadrée - Dominique Turc

Dominique Turcq, auteur de Le Travail A L’ère Post Digitale, Dunod, est expert pour AI For Tomorrow et enseignant à Sciences Po, ex partner McKinsey, et ex SVP Stratégie groupe Manpower.


La réduction des coûts de prévision et d’estimation, d’évaluation, va entrer dans les mœurs managériales et économiques, depuis le diagnostic médical jusqu’à l’enregistrement des notes de frais basé sur des photos ou encore jusqu’aux multiples utilisations de la reconnaissance faciale.



L’IA va suivre le même chemin que le digital, elle va se banaliser dans nos vies, devenir normale.


L’IA est déjà banalisée dans la reconnaissance vocale que nous propose notre smartphone, la reconnaissance faciale de nos logiciels de photos, la reconnaissance des plaques d’immatriculation des véhicules à l’entrée des parkings. Notre smartphone se trompe souvent en traduisant notre voix en texte, c’est l’une des manifestations à la fois de la qualité de l’IA et de son caractère prédictif approximatif.

L’IA est entrée dans l’idéologie techniciste c’est-à-dire dans l’illusion qu’elle peut être regardée comme solution ultime à de nombreux problèmes. Pourtant il faut s’interroger sur les limites de sa pertinence, sur ses biais. Et surtout il faut s’interroger sur les conséquences potentielles de ses applications. Si une IA me permet de prouver à mon assureur que je conduis mieux ou que je prends mieux soin de ma santé, est-ce vraiment un progrès ou est-ce un clou de plus enfoncé dans le cercueil de la solidarité alors que cette dernière est à l’origine même de l’assurance.

Si, en faisant une traduction du Hongrois, langue qui n’a pas de genre pour les pronoms, vers une autre langue, par exemple en traduisant : « O szep. O olvas. O okos. O foz » par « Elle est belle. Il lit. Il est intelligent. Elle cuisine », vous trouvez la traduction sexiste par ses clichés, faut-il blâmer l’IA ou la base de textes hongrois dans lesquels elle pioche et où ces verbes sont de fait associés à un genre plutôt qu’à un autre ? Accepter tels quels les résultats est une hérésie intellectuelle, une faute éthique.

L’IA va se devenir une commodité quotidienne, c’est-à-dire qu’elle va être un « produit » facilement achetable sur étagère pour tout développeur d’applications. Par exemple nul n’aura besoin de développer une IA de reconnaissance faciale ou vocale ou de traduction, il lui suffira de piocher dans une bibliothèque, déjà largement existante, de modules faisant ce qu’il souhaite faire. C’est efficace et efficient dans une logique industrielle. Mais cela présente deux dangers majeurs, l’un économique, est que les programmeurs en apprentissage machine peuvent se faire du souci pour l’avenir de leur métier, l’autre, social et éthique, est que de moins en moins de personnes comprendront comment fonctionne l’algorithme et se feront de fait abuser par lui et ses biais à travers le choix de systèmes qui ne seront pour eux que des boites noires comme on l’a vu ci-dessus avec le Hongrois.

L’IA fait l’objet de nombreuses réserves, qu’il s’agisse, au niveau le plus élevé, d’une méfiance quant à l’usage qu’elle fait des données et des biais qui sont donc attachés à ses propositions, ou, au niveau plus terre à terre, d’une lassitude, voire d’un rejet quant à son omniprésence dans les relations commerciales avec une entreprise par l’entremise de chatbots. Si les entreprises souhaiteraient, pour les deux tiers, généraliser leur usage, les consommateurs ne les apprécient pas… aux deux tiers.

Il est clair que dans certains domaines l’IA sera un facteur de proximité et de réassurance (diagnostic médical), dans d’autres elle sera un facteur de frustrations (relation client). L’avantage compétitif sera donc inverse. Dans un cas l’utilisation d’une IA sera utile, dans l’autre ce sera la valorisation de contacts humains. Sous cet angle gérer le poids relatif de l’IA dans le business modèle et les différents moments et modèles d’interactions que celui-ci demande devient un avantage compétitif.



La dernière lubie autour de l’IA : lui imaginer des capacités de conversation et de sens commun.


La conversation est la version moderne du test de Turing. A un niveau encore très simple l’IA en est capable.

Le sens commun est plus complexe. Certains pensent que l’IA, par « expérience » pourrait acquérir le sens commun. C’est grâce à ce dernier que chacun de nous circule dans le monde, est en interactions adaptative avec d’autres dans un complexe sociétal mouvant et surprenant. Cela nous paraît naturel mais est en fait le résultat de nos multiples expériences. Vous ne comprendriez pas qu’un restaurateur dans une salle où une seule table est occupée, vous donne la table juste à côté. Vous ne regardez pas chaque personne que vous croisez droit dans les yeux. Ces éléments composent notre sens commun. Ils sont aussi la base de notre vie sociale. Nos conversations phatiques et nos attitudes gestuelles conventionnelles ne sont pas neutres, elles envoient des quantités de messages sur nous et sont une forme très avancée d’échanges.

Une conversation est beaucoup plus qu’un échange de phrases, d’ailleurs plus ou moins bien construites, c’est un échange de signaux verbaux et non verbaux, de conventions de langage pleines de références propres aux locuteurs.

Une IA pourra probablement avoir des conversations techniques, voire participer à des débats ou à des jeux radiophoniques ou télévisuel comme cela est déjà le cas, mais elle ne pourra guère remplacer un contact humain des plus simples comme une conversation entre une mère et la nounou de ses enfants, un patient et son médecin, entre deux collaborateurs mêlant dans une conversation des éléments du business et les commentaires sur le match de foot de dimanche prochain.



Des principes pour contrôler l’IA.


De nombreux organismes s’interrogent sur la pertinence de l’IA dans la société. L’OCDE est l’un d'eux et son aspect international et interculturel a permis d’élaborer des principes relativement universels pour le contrôle de l’IA[1].



La recommandation de l’OCDE identifie cinq principes complémentaires fondés sur des valeurs pour une gestion responsable d'une IA digne de confiance :

  • L'IA devrait bénéficier aux personnes et à la planète en favorisant une croissance inclusive, le développement durable et le bien-être.

  • Les systèmes d'IA devraient être conçus d'une manière qui respecte l'état de droit, les droits de l'homme, les valeurs démocratiques et la diversité, et ils devraient inclure des garanties appropriées - par exemple, permettre une intervention humaine si nécessaire - pour assurer une société juste et équitable.

  • Il devrait y avoir une transparence et une divulgation responsable autour des systèmes d'IA pour garantir que les gens comprennent les résultats basés sur l'IA et peuvent les contester.

  • Les systèmes d'IA doivent fonctionner de manière robuste, sécurisée et sûre tout au long de leur cycle de vie et les risques potentiels doivent être continuellement évalués et gérés.

  • Les organisations et les individus qui développent, déploient ou exploitent des systèmes d'IA devraient être tenus responsables de leur bon fonctionnement conformément aux principes ci-dessus.

Ce que l’on peut tirer principalement de ces observations est que l’IA ne prendra toute sa valeur que si l’humain est intégré à sa conception, son fonctionnement, l’interprétation de ses suggestions.

L’IA peut nous rapprocher ou nous éloigner les uns des autres selon ce que l’on en fait, selon les responsabilités que l’on accepte de prendre et qu’on refuse de lui déléguer.

Ce que l’IA fera à la proximité humaine dépend de nous. On peut y voir le pire mais aussi le meilleur. L’essentiel est de savoir « penser » comme disait Hannah Arendt et d’être responsable de ses actes.



Lire sur Medium


Dominique Turcq


Expert AI For Tomorrow,


Enseignant à Sciences Po, ex partner McKinsey



Références

[1] Plus de liens et de détails sur https://www.oecd.org/going-digital/ai/principles/