L’IA au service de la communication avec les patients atteints de Locked-In Syndrome

Benjamin D’hont est Mentor pour AI for Tomorrow, explorateur de la santé numérique et responsable du marketing stratégique chez Voluntis



Le syndrome d’enfermement induit une rupture forte de la communication avec autrui


Les situations de handicaps touchent plus d’un milliard de personnes de par le monde. Parmi celles-ci, les paralysies sont particulièrement délétères pour la qualité de vie des patients. Le LIS (pour Locked-In Syndrome, ou syndrome d’enfermement), en est une des typologies le plus sévères. Décrit en 1844 par Alexandre Dumas comme « un cadavre avec des yeux vivants », le LIS correspond à un état neurobiologique dans lequel un patient est éveillé et totalement conscient mais il ne peut ni bouger, ni parler en raison d’une paralysie quasi-complète.


Cette incapacité à communiquer avec leur entourage malgré leur fonction cognitive efficiente, les « enferme » donnant son nom à ce syndrome. Le LIS peut être causé par un Accident Vasculaire Cérébral (AVC). Il peut également être associé à d’autres causes comme le syndrome de Guillain-Barré, certains cancers ayant des manifestations cérébrales ou encore la Sclérose Latérale Amyotrophique (SLA, ou Maladie de Charcot). La prévalence du LIS est estimée à environ 1 pour 100 000[1] soit une population estimée en France de 500–700 patients auxquels s’ajoutent ceux souffrant des troubles cités précédemment. En considérant les stades avancés, une publication de 2008 estime la population souffrant de ce syndrome à environ 10 000 patients en France[2].


Au-delà de la prise en charge symptomatique, la communication avec les patients est un enjeu majeur car ceux-ci n’ont fonctionnellement accès qu’à l’ouverture des yeux, les clignements de paupières et les mouvements oculaires verticaux. La plupart des méthodes d’apprentissage de la communication sont fatigantes et lentes. Aussi, des technologies dites d’assistance sont continuellement développées et améliorées pour permettre aux patients atteints de LIS de maintenir un niveau d’interaction avec autrui. Parmi ces technologies, les interfaces cerveau-machine (BCI, pour Brain-Computer Interfaces) pourraient permettre d’apporter de nouveaux espoirs en transformant l’activité neuronale en information qui, une fois décodée, reconstitue le message d’origine. Les principales métriques d’intérêt pour déterminer l’utilité d’une BCI dans la restauration de la communication sont sa précision (ie. le pourcentage de caractère correctement reconnu par rapport au message initial) et sa vélocité (ie. le nombre de caractères par minute analysés).



Photo de Life Of Pix provenant de Pexels


Le machine learning optimise le décodage de l’activité cérébrale liée à l’écriture


En mars 2021, une équipe pluridisciplinaire portée par des chercheurs de l’université de Stanford, du Providence VA Medical Center et du Carney Institue for Brain Sciences a publié dans Nature les résultats d’une nouvelle forme de BCI basée sur une représentation neuronale de l’écriture[3]. L’ensemble du développement s’appuie sur la contribution d’un patient, dénommé « T5 » atteint d’une lésion médullaire à la suite d’un accident survenu en 2007.

Dans un premier temps, l’équipe a cherché à déterminer dans quelle mesure il est possible de reconstruire par apprentissage machine un caractère que T5 s’imagine écrire sur une feuille de papier avec un stylo. En s’appuyant sur des instructions à l’écran, T5 a donc écrit mentalement les 26 lettres de l’alphabet et quelques caractères de ponctuation utiles pour le décodage pendant que des électrodes mesurèrent son activité cérébrale. Une analyse en composantes principales a permis d’identifier quelles dimensions présentaient le plus de variance d’un caractère à l’autre, après ajustement temporel afin d’éliminer la variabilité associée à chaque session. Afin d’isoler chaque caractère et d’en identifier la nature, l’équipe a ensuite cherché à corréler cette variance avec les changements de vitesse de l’extrémité du stylo que T5 s’est mentalement représenté. Ce paramètre (expliquant environ 30% de la variance observée) permet de récupérer la « trace mentale » du caractère imaginé par T5 et de pouvoir dans un dernier temps le classifier au moyen d’un algorithme kNN (k plus proche voisin). La classification a été réalisée avec une précision de 94.1%, montrant l’utilité de la représentation neuronale de l’écriture dans le cortex moteur pour alimenter une BCI.




Figure 1 — Représentation neuronale du processus d’écriture. a. Guidé par un prompteur, T5 imagine écrire les caractères de l’alphabet un par un. b. L’analyse en composante principale est présentée pour 3 caractères (d, e, m). c. Les résultats de l’ACP sont normalisés selon la variable temps. d. La trajectoire du stylo est décodée pour les 31 caractères**. e**. L’algorithme de classification permet de représenter des classes de caractères. (Adapté de Willet et al., 2021)


Après avoir validé la classification des caractères mentalement représentés par T5 au moyen de l’analyse de vélocité, l’équipe s’est attaquée à la seconde partie du problème : décoder des phrases en temps réel afin de pouvoir permettre à un patient en situation de handicap moteur lourd de pouvoir communiquer plus facilement. Pour cela, l’équipe a entrainé un réseau neuronal récurrent (RNN) à mesurer la ressemblance entre une trace mentale d’un caractère et le caractère lui-même, et d’en déduire une probabilité d’identité. Les données d’entrainement furent issues d’un effort mental important de T5 totalisant près de 600 phrases et plus de 30 000 caractères. L’algorithme a été testé pendant 5 jours durant lesquels T5 était exposé à 4 séries de nouvelles phrases. Guidé par un prompteur, T5 a pu mentalement écrire les phrases, caractère après caractère pendant que l’algorithme décodait la trace mentale de l’exercice. La vitesse d’écriture a atteint 90 caractères par minute pour une erreur moyenne de décodage de 5,4%. En utilisant un correcteur automatique hors ligne, ce taux d’erreur diminua à 0,89% à l’échelle du caractère et 3,4% à l’échelle du mot entier. La publication souligne que la plupart des assistants vocaux ont un taux d’erreur dans la reconnaissance des mots entre 4% et 5%. Aussi, sur le plan de la performance technique, l’algorithme apparaît comme utilisable en routine sur la base de ces résultats.


Enfin, l’équipe a également mobilisé T5 pour utiliser la BCI en répondant librement à des questions ouvertes. Dans cet environnement moins contrôlé que le précédent, les performances restent au-delà des standards actuels à savoir une vélocité de 73,8 mots par minute et un taux d’erreur par caractère de 2,25% (en utilisant un modèle langagier en complément de l’algorithme).


Des perspectives optimistes pour les patients atteints de LIS


La communication avec les patients en situation de handicap sévère est un défi. En l’absence de technologie d’assistance, elle se base sur des codes oculaires permettant de répondre à des questions fermées. L’enjeu est alors de parvenir à ouvrir les discussions par exemple grâce à des méthodes d’ordonnancement ou de clavier virtuels. Les interfaces cerveau-machine représentent l’approche la plus efficace pour fournir des moyens de communication directs et spontanés. Toutefois, les solutions actuelles présentent leurs limites tant en matière de vélocité (la plupart des solutions ne dépassant pas 60 caractères/minute[4]) ou d’usabilité (certains nécessitant la projection permanente d’un stimulus visuel). Le Machine Learning permet de dépasser certaines de ces limites et de proposer un nouveau standard de 90 caractères par minute environ tout en maintenant un taux d’erreur tout à fait acceptable et comparable aux assistants vocaux actuels.

Ce projet est au stade de preuve de concept et nécessite des efforts de recherche approfondis. Toutefois, l’évolution des modèles de BCI au moyen d’Intelligence Artificielle permet d’imaginer des protocoles de communication grandement facilités avec les patients en situation de handicap lourds. Couplés au développement d’électrodes de plus haute densité et longévité, nous pourrons espérer apporter une solution durable et acceptable en matière de qualité de vie pour les patients atteints du syndrome d’enfermement.


Lire sur Medium

Benjamin D’hont,

Mentor AI For Tomorrow,

Responsable du marketing stratégique chez Voluntis


Références

[1] Pels et al., Estimated Prevalence of the Target Population for Brain-Computer Interface Neurotechnology in the Netherlands, Neurorehabil Neural Repair. 2017 Jul;31(7):677–685.

[2] Claudine Botte-Lecocq, François Cabestaing. Les interfaces cerveau-machine pour la palliation du

handicap moteur sévère. Handicap’2008, Jun 2008, Paris, France. pp.180–189. hal-00804940

[3] Willett, F.R., Avansino, D.T., Hochberg, L.R. et al. High-performance brain-to-text communication via handwriting. Nature 593, 249–254 (2021). https://doi.org/10.1038/s41586-021-03506-2

[4] Pandarinath C, Nuyujukian P, Blabe CH, Sorice BL, Saab J, Willett FR, Hochberg LR, Shenoy KV, Henderson JM. High performance communication by people with paralysis using an intracortical brain-computer interface. Elife. 2017 Feb 21;6:e18554. doi: 10.7554/eLife.18554. PMID: 28220753; PMCID: PMC5319839.