"L'informatisation révèle les biais implicites de notre société: nous ne pouvons plus les ignorer"

« Les biais implicites qui structurent nos sociétés sont exposés par l'informatisation: nous ne pouvons plus nous permettre de les ignorer » Entretien avec Thomas Baudel



Les algorithmes interviennent de plus en plus dans la prise de décision, que cela soit dans le milieu professionnel ou personnel: algorithmes de screening en recrutement, algorithmes d’affectation comme Parcoursup, algorithmes assistant la prise de décision d’investissement…

Néanmoins, ces algorithmes présentent des limites, des biais qui les rendent absolument dépendants d’une interprétation humaine.

Prenons l’exemple suivant:



Les pronoms ne sont pas genrés en hongrois. Lorsqu’il lui est demandé de traduire ces pronoms non genrés, l’algorithme de traduction suit un stéréotype indécent. Cet exemple montre les limites des algorithmes de machine learning - littéralement "machine apprenante". Là où l’erreur, l’incohérence, saute aux yeux de l’humain, elle est indécelable pour l’algorithme. Le modèle de l’algorithme est en effet entraîné sur un jeu de données pouvant présenter des biais, comme le montre l’exemple ci-dessus.

Cet exemple questionne le rapport du numérique à l’éthique: comment concevoir des robots éthiques? Quelles règles créer pour s’en assurer?

Thomas Baudel, directeur de recherche chez IBM et enseignant à l’Université Paris-Saclay répond à nos questions sur la thématique de l’éthique du numérique.



EN QUOI LES SUJETS SOULEVES PAR LES TECHNOLOGIES DEVELOPEES AUJOURD'HUI PERMETTENT DE FAIRE AVANCER L'ETHIQUE ?

D’une part, les avancées technologiques permettent de soulever des problèmes existant du point de vue de l’éthique. Les problèmes de l’éthique du numérique et de l’éthique de l’IA nous révèlent des dilemmes qui existaient avant mais que nous n’avions pas les moyens d’aborder. Les masses de données que nous avons maintenant à disposition, et qui sont la ressource de nos algorithmes, nous révèlent l’existence de biais et on ne peut plus se permettre de les ignorer. L’exemple de l’algorithme de traduction offrant en sortie des phrases sexistes est très éloquent parce qu’il révèle l’existence d’un biais sexiste systémique. L’informatisation de la société nous oblige à traiter ces problèmes éthiques explicitement et c’est quelque chose de positif.


D’autre part, la technologie permet d’apporter des solutions à des problématiques éthiques que l’on se pose. Par rapport à l’éthique, on pense souvent que la solution à un problème d’éthique repose sur l’éducation, la morale ou la loi ; mais il y a beaucoup de solutions à des dilemmes éthiques qui ont une réponse technologique. Je cite souvent l’exemple du cadenas sur une cabane en bord de plage : il ne protège pas grand-chose en soi, on pourrait facilement le forcer, mais il permet de résoudre certains problèmes de vie privée et de respect de la propriété d’autrui par des moyens technologiques : il indique que la porte est fermée pour une raison.

Dans les systèmes informatiques, beaucoup de questions de respect de la vie privée et de sécurité se résolvent par de la cryptographie, et non seulement par des contraintes sur les humains ayant accès aux données sensibles. Ainsi, les solutions technologiques permettent de répondre à des problématiques éthiques.



L'HUMAIN EST-IL INTERCHANGEABLE AVEC LA MACHINE ?

L’exemple de la traduction sexiste montre que le traducteur humain ne fait pas qu’optimiser la traduction de chaque phrase: il est capable d'introduire un contexte qui lui fait prendre des choix de traduction que la machine n’aurait pas pu prendre. Dans le cas qui se présente, l'algorithme croit utile d'introduire un genre supposé de la personne pour chaque phrase. Ce n'est pas un choix stupide dans l'absolu, cela optimise une fidélité de style qui sera appréciée pour un contexte non genré. Mais lorsque l'on découvre le texte dans sa globalité, un effet émerge: le sexisme du propos, qui n'existait pas dans le texte original. Aussi un traducteur humain va choisir de réduire la fidélité ou d'alourdir le style, pour éviter ce sens offensif émergeant du texte. Il introduira "Il ou elle..", remplacera les points par des virgules pour ne pas reprendre les pronoms... Tout cela dégrade la traduction littérale, mais on conviendra que c'est ici nécessaire.


Selon Jason Burton [1], la décision algorithmique est par essence une décision prise en situation de risque : le processus de décision est bien construit et stable, et les inconnues proviennent des variables qui entrent dans ce processus de décision. L'humain, en revanche, n'agit pas en situation de risque mais en situation d'incertitude : il peut à tout moment se poser la question de la pertinence du processus de décision utilisé au vu des circonstances. Ce que l’humain a et que, par construction, la machine n’a pas est la capacité de remettre en question le processus de prise de décision en fonction des circonstances. L’intervention de l’humain est nécessaire pour contextualiser et ainsi corriger les sorties incohérentes de l’algorithme, comme nous le voyons dans l’exemple de la traduction sexiste. L’algorithme, lui, apporte entre autres une puissance de calcul beaucoup plus importante que ce que l’humain est capable de produire seul mais est incapable de se rendre compte de l’incohérence des informations qu’il peut produire. C’est donc ainsi qu’il faut réfléchir et construire l’interaction humain-machine : comme une association de deux entités complémentaires qui permettent de proposer des résultats pertinents et moralement supportables.



POURQUOI INTRODUIT-ON DES CURSUS D'ENSIEGNEMENT DE L'ETHIQUE, COMME LE VOTRE, DANS LES CYCLES SCIENTIFIQUES ?

Faire carrière dans la recherche ou dans l’industrie implique de développer des produits en espérant changer le monde, mais il y a des effets inattendus. La façon dont les questions se présentent ne correspond pas à la manière qu’a un ingénieur de travailler. Là où l’ingénieur est formé à raisonner par la déduction et en utilisant des expériences aboutissant à des conclusions vérifiant son modèle, il y a parfois des questions surprenantes qui se présentent à lui, pour lesquelles ses méthodes de travail ne conviennent pas.

Par exemple, la contradiction entre la nécessité de liberté d’expression sur les réseaux sociaux et l’injonction à interdire les paroles injurieuses ainsi que les "fake news" démontre la possibilité d’une cohabitation de deux vérités qui s’opposent. Pour résoudre ce type de problème, il faut utiliser la dialectique hégélienne (qui repose sur la démarche thèse-antithèse-synthèse) et qui est fondamentalement différente de ce que l’on apprend dans les cursus scientifiques. L’enseignement de l’éthique permet ainsi aux ingénieurs qui vont changer le monde d’être introduits à d’autres manières de penser et de résoudre les problèmes qui se présentent à eux.



Lire sur Medium.


Thomas Baudel,

Expert pour AI For Tomorrow

Directeur de recherche chez IBM, et enseignant à l’Université Paris-Saclay en éthique du numérique

Propos recueillis par Victoire Cousergue



Références :

  • [1] : https://thedecisionlab.com/insights/society/towards-augmented-decision-making-12/ et https://thedecisionlab.com/insights/society/augmented-decision-making-big-data/