Un dispositif à base d’intelligence artificielle traduit les signaux du cerveau humain en texte avec une précision allant jusqu’à 97 %
L‘idée de communiquer par le biais d’une interface cerveau-machine est passée de la science-fiction à la démonstration du concept en moins de deux décennies. Une nouvelle étude publiée cette semaine (lien plus bas) prétend avoir franchi une nouvelle étape en utilisant l’intelligence artificielle pour interpréter l’activité cérébrale pendant que des individus écoutent une phrase d’un texte.
Pour le coauteur de l’étude, Joseph Makin de l’université de Californie, à San Francisco (Etats-Unis) :
Nous n’en sommes pas encore là, mais nous pensons que cela pourrait être la base d’une prothèse de la parole.
Chacune des quatre personnes participant à l’étude a des antécédents de crises d’épilepsie et s’est déjà fait implanter des électrodes dans le cerveau pour surveiller cette activité. Les chercheurs ont utilisé ces sondes pour surveiller l’activité cérébrale pendant que 50 phrases prédéterminées étaient lues à haute voix, fournissant des données à décoder au réseau neuronal. Les phrases, en anglais, étaient très variées en termes de contexte et de construction, comme, “Tina Turner is a pop singer,” (Tina Turner est une chanteuse pop), “the woman is holding a broom,” (la femme tient un balai) et “a little bird is watching the commotion » ‘(un petit oiseau assiste à l’agitation).
Les enregistrements de l’activité cérébrale et le son des phrases parlées ont été introduits dans un algorithme, qui a appris à reconnaître comment les parties du discours étaient formées. Les premiers résultats furent très imprécis, par exemple, l’interprétation de l’activité cérébrale à partir de la phrase « elle portait une chaude salopette de laine molletonnée » comme « l’oasis était un mirage » (“she wore warm fleecy woolen overalls” –> “the oasis was a mirage.”). Comme le programme l’a appris au fil du temps, il a pu faire des traductions avec des erreurs limitées, comme l’interprétation de l’activité cérébrale en réponse à l’audition « l’échelle a été utilisée pour sauver le chat et l’homme » comme « quelle échelle sera utilisée pour sauver le chat et l’homme ».
Toujours selon Makin :
Si vous essayez de sortir des 50 phrases utilisées, le décodage devient bien pire.
Le programme peut-être décrit comme un apprentissage du décodage de mots individuels, et pas seulement des phrases complètes, ce qui permet de décoder plus précisément les discours dans des phrases nouvelles. Le programme a également augmenté sa précision lors du passage d’un participant à l’autre, démontrant ainsi la plasticité de l’apprentissage de plusieurs personnes.
Si la capacité d’interpréter des phrases limitées est un progrès, elle est encore loin de maîtriser l’anglais dans son ensemble, admettent les chercheurs.
Même si nous aimerions que le décodeur apprenne et exploite les régularités de la langue, il reste à montrer combien de données seraient nécessaires pour passer à une forme plus générale d’anglais.
Une des utilisations possibles de cette technologie serait de communiquer avec une personne atteinte du syndrome d’enfermement, une personne capable d’entendre et de comprendre son environnement sans aucun moyen de communication, mais ce programme repose toujours sur l’activité cérébrale provenant de l’audition d’un mot parlé, et non de simples pensées.
Néanmoins que le fait qu’une machine soit capable d’interpréter la parole aussi bien après moins d’une heure avec chaque participant, et non pas plusieurs heures comme cela a été constaté dans des études précédentes, constitue une avancée significative.
L’étude publiée dans Nature Neuroscience : Machine translation of cortical activity to text with an encoder–decoder framework.