La Garantie Humaine de l’IA en santé : vecteur de régulation éthique positive !

David Gruson, fondateur d’ETHIK-IA nous livre sa vision sur la place que doivent avoir les notions d’éthique au cœur d’un projet mêlant intelligence artificielle et santé.

Le principe d’une Garantie Humaine de l’IA est désormais reconnu comme une clé de régulation éthique positive de l’intelligence artificielle dans le domaine de la santé. La double obligation d’une information du patient sur l’IA et d’une supervision humaine des algorithmes en santé – déjà adoptée à l’unanimité par l’Assemblée en première lecture – a été adoptée par l’Assemblée nationale et le Sénat dans le cadre de la révision bioéthique. Il s’agit d’une nouvelle reconnaissance pour la Garantie Humaine de l’IA, en passe, par ailleurs, d’être également validée par la Haute Autorité de Santé et l’OMS.

Nous avions proposé avec Ethik IA, voici deux ans et demi, l’introduction d’un principe de garantie humaine de l’intelligence artificielle en santé. Cette proposition avait pu être reprise dans le cadre du rapport de Cédric VILLANI sur l’intelligence artificielle et, plus spécifiquement, dans le cadre de l’avis 129 et du rapport dédié émis par le Comité consultatif national d’éthique dans le cadre du processus de préparation de la révision bioéthique. Le passage du projet de loi bioéthique au Sénat représente une nouvelle étape forte de reconnaissance et de concrétisation de ce principe général de régulation positive de l’IA en santé.



S’ouvrir résolument à l’innovation et essayer d’en réguler les enjeux éthiques au fil de son application : c’est le sens du principe d’une « Garantie Humaine » de l’intelligence artificielle en santé. En retenant ce principe, la France fait le choix d’une approche enfin plus ouverte de l’innovation, dans un cadre législatif et réglementaire qui est déjà, il est vrai, le plus protecteur au monde.


Le concept de « garantie humaine » peut paraître abstrait mais il est, en réalité, très opérationnel. Dans le cas de l’IA, l’idée est d’appliquer les principes de régulation de l’intelligence artificielle en amont et en aval de l’algorithme lui-même en établissant des points de supervision humaine. Non pas à chaque étape, sinon l’innovation serait bloquée. Mais sur des points critiques identifiés dans un dialogue partagé entre les professionnels, les patients et les concepteurs d’innovation. Ce principe général ne veut pas dire, cependant, que le contrôle technique de l’algorithme lui-même ne sera pas assuré. En effet, si l’IA est intégrée à un dispositif médical ou, plus largement, à un produit de santé (ce qui correspond aujourd’hui, en pratique, à l’essentiel des cas), elle sera soumise aux contrôles précis prévus dans le cadre des mécanismes de mise sur le marché des produits de santé.


La supervision peut s’exercer avec le déploiement de « collèges de garantie humaine » associant médecins, professionnels paramédicaux et représentants des usagers. Leur vocation serait d’assurer a posteriori une révision de dossiers médicaux pour porter un regard humain sur les options thérapeutiques conseillées ou prises par l’algorithme. L’objectif consiste à s’assurer « au fil de l’eau » que l’algorithme reste sur un développement de Machine Learning à la fois efficace médicalement et responsable éthiquement. Les dossiers à auditer pourraient être définis à partir d’événements indésirables constatés, de critères prédéterminés ou d’une sélection aléatoire. Un premier cas pilote de collège de garantie humaine est en phase de déploiement sous l’égide de l’Union française pour la santé bucco-dentaire (UFSBD) : il mettra en œuvre, dans le cadre d’un programme article 51 LFSS, une supervision pour un programme d’IA applicable aux soins dentaires pour 48 EHPAD et mis en œuvre par la start-up française Dental Monitoring. Cette méthodologie est, en outre, mobilisée dans le cadre des travaux de DRIM France IA, démarche majeure de rassemblement des acteurs de la radiologie française pour le développement responsable de l’IA dans cette discipline.


De manière concrète, cette supervision pourrait aussi s’exercer en amont du traitement par le recours à une télémédecine de garantie humaine de l’algorithme (mobilisation d’un second avis spécialisé en cas de doute par le médecin de première ligne ou le patient sur la solution proposée par l’algorithme). Cet usage de la télémédecine entre tout à fait dans les cas de recours de télé-expertise définis dans le cadre juridique posé en 2009-2010. Depuis l’avenant n°6 à la convention médicale de 2018, cette télé-expertise peut, de plus, faire l’objet d’une valorisation économique.


Ce principe de Garantie Humaine avait été très clairement repris dans l’exposé des motifs et l’étude d’impact du projet de loi bioéthique. Il était ensuite intégré à l’article 11 du texte adopté à l’unanimité en première lecture à l’Assemblée nationale. On retrouve dans cette première version du texte les éléments essentiels proposés ab initio :

  • Information du patient sur le recours à l’IA au premier alinéa ;

  • Principe de garantie humaine lui-même au deuxième alinéa.


Néanmoins, la rédaction retenue pour la déclinaison opérationnelle de ce principe pouvait être considérée comme inutilement complexe. Le passage du projet de loi bioéthique au Sénat a permis une heureuse clarification rédactionnelle. L’information du patient sur le recours à l’IA est très clairement réaffirmée après le passage au Sénat. Deux utiles exceptions à cette information sont aménagées : « l’urgence » et « l’impossibilité » d’informer. Ces dérogations devront, on le comprend aisément, être concrètement définies en pratique.


Le principe général d’une garantie humaine de l’intelligence est, quant à lui, désormais décliné de manière pragmatique en trois leviers opérationnels :

  • Une norme de garantie humaine dans l’alimentation opérationnelle de l’algorithme pour un patient déterminé : « la saisie d'informations relatives au patient dans le traitement algorithmique se fait sous le contrôle du professionnel de santé qui a recourt audit traitement » ;

  • Une garantie humaine dans la décision elle-même : « aucune décision médicale ne peut être prise sur le seul fondement d'un traitement algorithmique » ;

  • Une garantie humaine sous forme de pilotage qualité de l’algorithme en vie réelle. Ce pilotage qualité inclut les concepteurs et les utilisateurs de l’algorithme : « Les concepteurs d'un traitement algorithmique mentionné au premier alinéa s'assurent de la transparence du fonctionnement de l'outil pour ses utilisateurs ».


Un décret en Conseil d’Etat est, par ailleurs, désormais prévu pour la mise en œuvre de l’article 11. Il est à relever que le principe de garantie humaine reçoit, dans le même moment, des concrétisations dans deux autres cadres très significatifs :

  • D’une part, la garantie humaine devrait, ainsi qu’Isabelle ADENOT, membre du collège de la Haute Autorité de Santé l’a annoncé dans le cadre d’un colloque dédié au principe par la Chaire Santé de Sciences Po le 14 janvier dernier, être intégrée à la grille d’auto-évaluation des dispositifs médicaux intégrant de l’IA préalablement à leur admission au remboursement ;

  • D’autre part, le principe de garantie humaine fait actuellement l’objet de discussions et prolongements dans le cadre de la task-force dédiée par l’OMS à la régulation de l’IA en santé en vue de l’émission d’une recommandation dans le courant du premier semestre 2020.


Consolidation et précision du cadre législatif, conditionnement de l’admission au remboursement et reconnaissance internationale : le principe de garantie humaine de l’intelligence artificielle en santé connaît une phase de renforcement et de concrétisation rapides. Ce principe de Garantie Humaine de l’IA et les conditions de sa mise en œuvre font, par ailleurs, l’objet d’un travail approfondi dans le cadre des chantiers éthiques initiés par le Conseil du numérique en Santé, au titre de la Feuille de Route portée par Dominique PON et Laura LETOURNEAU.


Les innovateurs en IA et les utilisateurs d’algorithmes médicaux ont désormais à engager le travail opérationnel de préparation en vue de leur mise en conformité à ces nouvelles exigences de régulation positive. La mise en œuvre de ce principe de Garantie Humaine constitue un vecteur de régulation éthique essentiel dans un contexte de mobilisation de l’IA face au COVID19 et aux risques épidémiques. Le déploiement d’un Collège de Garantie Humaine pourrait réguler en temps réel une application de data tracking constitue, en effet, une condition essentielle pour un suivi éthique en continu.


Lire l'article sur notre Medium


David Gruson,

Professeur à la Chaire de Santé Sciences-Po Paris et fondateur d'Ethik-IA,

Référent Ethique & Santé / IA


Découvrir notre newsletter

Vous affirmez avoir pris connaissance de notre Politique de Vie Privée et pouvez vous désinscrire à tout moment nous nous contactant à aifortomorrow@gmail.com 

AI FOR TOMORROW

Suivez-nous aussi sur les réseaux sociaux !

  • LinkedIn Social Icône
  • Facebook Social Icône
  • Twitter Icône sociale
  • medium
  • Youtube

S'inscrire à l'Innovation Challenge

Nous contacter