mardi 29 août 2023

La « parole » retrouvée grâce à des implants cérébraux

Par   Publié le 27 août 2023

Deux nouvelles études, conduites par des chercheurs américains, illustrent les progrès dans la transcription de signaux neuronaux en phrases pour aider des patients dont les fonctions d’élocution sont altérées.

Equipée de neuroprothèses et face à son avatar, Ann, souffrant d’une paralysie des muscles des cordes vocales, participe à l’étude sur le langage de l’équipe d’Edward Chang (université de Californie), à El Cerrito (Etats-Unis), en mai 2023. 

Le neurochirurgien Jaimie Henderson (université Stanford) a le sentiment d’avoir « bouclé la boucle ». Quand il avait 5 ans, un grave accident de voiture a quasiment privé son père de la parole, rendant incompréhensibles les histoires drôles qu’il tentait de lui raconter. L’enfant qu’il était s’interrogeait sur la façon de rétablir la communication avec son père. Le chercheur publie aujourd’hui des résultats montrant que des patients paralysés peuvent recouvrer en partie leurs capacités d’élocution. Cela grâce à un implant cérébral captant des signaux neuronaux qu’une intelligence artificielle (IA) traduit presque instantanément en phrases affichées sur un écran d’ordinateur, à une cadence et avec une précision inédites.

Les travaux de son équipe ont été publiés le 23 août dans la revue Nature, en parallèle de ceux d’un autre groupe dirigé par Edward Chang (université de Californie, San Francisco), qui a raffiné un procédé comparable en faisant prononcer les phrases reconstituées par un avatar virtuel expressif. Les deux études témoignent des récents progrès dans la mise au point de neuroprothèses capables d’extraire du cerveau la parole qui y reste enfermée en raison de paralysies consécutives à des accidents vasculaires ou à des maladies neurodégénératives.

Pat Bennett, une ancienne directrice des ressources humaines, aujourd’hui âgée de 68 ans, a ainsi appris, en 2012, qu’elle était atteinte d’une sclérose latérale amyotrophique (SLA, ou maladie de Charcot), affectant les neurones contrôlant les mouvements. Dans son cas, les muscles des lèvres, de la langue, du larynx et des mâchoires ont d’abord été atteints, réduisant progressivement ses facultés d’élocution. En 2021, elle a pris connaissance de travaux de Jaimie Henderson et de son équipe ayant permis à une personne paralysée de produire, grâce à une interface cerveau-ordinateur, 18 mots à la minute sur un écran, en imaginant écrire les lettres à la main. Elle s’est aussitôt portée volontaire pour un essai clinique.

« On se rapproche de quelque chose d’utilisable »

La patiente enrôlée dans l’essai dirigé par Edward Chang, dont seul le prénom – Ann – a été dévoilé, présente un profil différent : la paralysie qui affecte les muscles de son système vocal résulte d’un AVC survenu il y a dix-huit ans – elle est aujourd’hui âgée de 47 ans. Là aussi, un autre patient l’avait précédée, parvenant, selon une étude publiée en 2021 dans le New England Journal of Medicine, à produire 18 mots à la minute avec une précision de 75 %, sur un vocabulaire de 50 mots.

Deux ans après, les progrès de l’interface ont permis à Ann d’atteindre un rythme de 78 mots à la minute à partir d’un lexique de 1 024 mots, avec un taux d’erreur similaire à celui de son devancier, mais qui tombait à 8 % lorsque le lexique testé était réduit à une centaine de mots. Quant à Pat Bennett, le système pouvait transcrire 62 mots à la minute, avec un taux d’erreur de 23,8 % sur un vocabulaire de 125 000 mots (mais de 9 % avec un vocabulaire réduit à 50 mots).

« Ce qui est impressionnant, c’est la vitesse de décodage : on se rapproche de quelque chose d’utilisable », commente Anne-Lise Giraud (Institut de l’audition, Centre de l’Institut Pasteur), qui espère pouvoir prochainement enrôler des patients en France dans ce type d’essais cliniques. La vitesse d’élocution normale se situe autour de 150 mots par minute.

Comment cela a-t-il été possible ? Le système requiert tout d’abord d’implanter dans le cerveau des électrodes pour capter l’activité des neurones lorsque les patientes tentaient d’articuler des phrases d’entraînement qui leur étaient soumises. Pour Ann, l’équipe d’Edward Chang a utilisé un rectangle comportant 253 électrodes placées à la surface d’une zone du cortex (la partie la plus externe du cerveau) dont les chercheurs avaient déjà découvert l’importance dans la production de la parole. Une prise fixée sur son crâne relie ce réseau d’électrodes aux ordinateurs chargés d’analyser ces signaux et d’apprendre, grâce à un système d’intelligence artificielle, à les retranscrire en reconnaissant non pas directement les mots, mais 39 phonèmes permettant de les composer. L’IA avait aussi pour rôle de transcrire certains mouvements faciaux liés à la parole pour animer un avatar virtuel capable d’exprimer la joie, la tristesse ou la surprise. Celui-ci avait été doté de la voix d’Ann, reproduite à partir d’une vidéo prise lors de son mariage.

Long entraînement nécessaire

Pour Pat Bennett, le système s’en tient pour l’heure à une transcription affichée en texte des phrases qu’elle tente de vocaliser. Il puise les signaux cérébraux grâce à des électrodes implantées plus profondément dans le cerveau, dans deux zones distinctes, pouvant capter l’activité de groupes plus localisés de neurones. Ce type d’électrodes a cependant l’inconvénient d’entraîner l’apparition de tissus cicatriciels qui en limitent la durée d’utilisation. Là aussi, des algorithmes d’IA tentent de reconnaître les signaux associés à la production de phonèmes, pour remonter aux mots et aux phrases, en s’appuyant sur un modèle de langage capable de faire des prédictions sur leur enchaînement et de s’autocorriger.

L’ensemble ne peut fonctionner qu’après un très long entraînement. Pat Bennett a ainsi effectué 25 séances de quatre heures chacune au cours desquelles elle tentait de répéter des phrases choisies aléatoirement dans un répertoire de conversations téléphoniques. « Il faudra tester le système pour voir si l’entraînement d’un patient pourra bénéficier à un autre », a indiqué Frank Willett, premier auteur de l’étude de l’équipe de Stanford, lors d’une visioconférence de presse, mardi 22 août. Sean Metzger, de l’équipe concurrente, a constaté que le décodeur restait fiable même après un arrêt d’utilisation de plusieurs jours, ce qui est « prometteur » quant à la possibilité d’alléger la charge d’entraînement au long cours.

« La parole ne communique pas seulement des mots, mais aussi qui nous sommes, rappelle Edward Chang. Notre expression parlée fait aussi partie de notre identité. » C’est pourquoi son équipe compte affiner les capacités de l’avatar, qui permet au patient d’afficher ses émotions lorsqu’il écoute son interlocuteur, mais tente aussi de s’approcher de la prosodie naturelle du locuteur.

« Il faudra plus de patients pour mieux comprendre quelles sont les limites de ces techniques, et jusqu’où elles peuvent nous conduire », estime Edward Chang qui, comme Jaimie Henderson, n’envisage pas une commercialisation à court terme. Depuis les pionniers des années 2000, seulement une cinquantaine de patients souffrant de divers types de paralysies ont reçu des implants cérébraux destinés à améliorer leurs capacités de communication.

S’affranchir des fils électriques, un enjeu

Ces deux nouvelles études s’inscrivent dans une période d’effervescence des interfaces cerveau-ordinateur suscitée par les progrès de l’IA et des initiatives telles que la promotion par Elon Musk de son implant cérébral Neuralink, qui vient d’obtenir le feu vert des autorités américaines pour être testé l’autorisation sur des sujets humains.

La capacité donnée par l’IA d’apprendre à lire et retranscrire les pensées humaines en s’affranchissant des implants cérébraux a aussi été mise en avant dans une étude spectaculaire publiée en mai dans Nature Neuroscience. Une équipe de l’université du Texas, à Austin, y décrit comment, après entraînement sur des données d’imagerie fonctionnelle recueillies tandis que des sujets écoutaient de (longues) histoires, l’IA a pu ensuite reproduire de façon relativement fidèle le sens général de phrases qu’ils prononçaient dans leur for intérieur ou qu’ils écoutaient, voire de vidéos qu’ils observaient.

Dans un article récent qu’elle cosigne dans Cell Reports Medicine mettant en perspective ces différentes avancées, Anne-Lise Giraud souligne que cette dernière approche de décodage des pensées requiert la participation active de la personne, ce qui éloigne le spectre d’un piratage mental. Pour une application médicale, la technologie de l’IRM n’est pas réaliste, car il est impossible de miniaturiser un appareil d’imagerie fonctionnelle. Une alternative consistant à tenter d’interpréter l’activité cérébrale grâce à des électrodes non invasives, posées au contact du crâne à la surface du scalp, n’offrirait pas un flux d’information suffisamment dense pour décoder la parole.

Si des signaux captés à la surface du crâne pourraient être interprétés par IA pour des commandes simples, Edward Chang estime que les implants intracérébraux sont incontournables si l’on souhaite « atteindre le niveau de performance nécessaire » pour rendre la parole aux patients paralysés. L’un des enjeux est de s’affranchir des fils électriques attachés au crâne des patients, source d’inconfort et de risques d’infection. « Il est impératif que ces interfaces cerveau-machine restent fonctionnelles des années, voire des décennies », insiste Anne-Lise Giraud.


Aucun commentaire:

Enregistrer un commentaire