Communiquer en langue des signes... en étant tétraplégique ?!

 

Aussi, dans cet œil noir du vieux Noirtier, surmonté d’un sourcil noir, tandis que toute la chevelure, qu’il portait longue et pendante sur les épaules, était blanche ; dans cet œil, comme cela arrive pour tout organe de l’homme exercé aux dépens des autres organes, s’étaient concentrées toute l’activité, toute l’adresse, toute la force, toute l’intelligence répandues autrefois dans ce corps et dans cet esprit. Certes, le geste du bras, le son de la voix, l’attitude du corps manquaient, mais cet œil puissant suppléait à tout : il commandait avec les yeux ; il remerciait avec les yeux ; c’était un cadavre avec des yeux vivants, et rien n’était plus effrayant parfois que ce visage de marbre au haut duquel s’allumait une colère ou luisait une joie. Trois personnes seulement savaient comprendre ce langage du pauvre paralytique : c’étaient Villefort, Valentine et le vieux domestique dont nous avons déjà parlé. Mais comme Villefort ne voyait que rarement son père, et, pour ainsi dire, quand il ne pouvait faire autrement ; comme, lorsqu’il le voyait, il ne cherchait pas à lui plaire en le comprenant, tout le bonheur du vieillard reposait en sa petite-fille, et Valentine était parvenue, à force de dévouement, d’amour et de patience, à comprendre du regard toutes les pensées de Noirtier. À ce langage muet ou inintelligible pour tout autre, elle répondait avec toute sa voix, toute sa physionomie, toute son âme, de sorte qu’il s’établissait des dialogues animés entre cette jeune fille et cette prétendue argile, à peu près redevenue poussière, et qui cependant était encore un homme d’un savoir immense, d’une pénétration inouïe et d’une volonté aussi puissante que peut l’être l’âme enfermée dans une matière par laquelle elle a perdu le pouvoir de se faire obéir.

Valentine avait donc résolu cet étrange problème de comprendre la pensée du vieillard, pour lui faire comprendre sa pensée à elle ; et, grâce à cette étude, il était bien rare que, pour les choses ordinaires de la vie, elle ne tombât point avec précision sur le désir de cette âme vivante, ou sur le besoin de ce cadavre à moitié insensible.


Dans le Comte de Monte Christo, Alexandre Dumas décrit un personnage bien singulier, Monsieur Noirtier de Villefort, qui bien qu’il semble parfaitement conscient, et doté d’une grande intelligence, est entièrement paralysé, des pieds à la tête. Ce bref passage n’est pas si anecdotique, car il représente l’une des premières traces de ce qui sera désigné en 1966 le locked in syndrom, le syndrome d’enfermement.

Il s’agit d’une condition terrible dans laquelle une personne se retrouve entièrement paralysée ou presque, ne conservant que la faculté de cligner des paupières et de diriger son regard. Ces personnes, à l’instar de Noirtier, conservent toute leur intelligence, mais sont dans l’incapacité de communiquer avec leurs proches. Heureusement, le vieil homme pouvait compter sur sa petite fille pour décoder les subtils signaux qu’il pouvait lui envoyer. Il pouvait aussi communiquer en sélectionnant un mot dans une liste que lui récitaient ses proches, à l’aide d’un battement de paupière.

Le locked in syndrom est une affection très rare, qui touche environs 500 personnes en France. Elle est le plus souvent due à un accident vasculaire du tronc cérébral, une structure nerveuse située à la base de notre cerveau, à travers laquelle passent l’ensemble des voies motrices (ou presque) qui transmettent l’ordre cérébral d’un mouvement aux muscles correspondants. Le tronc cérébral est aussi impliqué dans le fonctionnement de notre organisme, et en particulier de plusieurs grandes fonctions vitales comme la respiration. Dans le locked in syndrom, un AVC entraîne la destruction sélective des voies motrices, entraînant une paralysie totale du corps. Seuls échappent les muscles des paupières et ceux permettant les mouvements oculaires, car ces voies motrices émergent légèrement plus tôt et ne sont donc pas touchées.

Plusieurs personnalités ont souffert du locked in syndrom, et ont pu raconter leur histoire dans de magnifiques livres. C’est le cas de Jean-Dominique Bauby, le rédacteur en chef du magazine Elle, en 1995. Après plusieurs semaines de coma, il s’était réveillé au fond d’un lit d’hôpital, à l’hôpital maritime de Berck en Vendée. Il avait alors, dès les premiers mois d’enfermement, décidé d’écrire un livre pour raconter son histoire. Une décision courageuse quand on ne peut communiquer qu’à travers le regard et le battement des paupières ! C’est ainsi que tous les matins, il élaborait mentalement plusieurs paragraphes avant de les dicter à une collaboratrice qui lui rendait régulièrement visite. Cette dernière, à l’instar de Valentine, récitait patiemment l’alphabet devant Bauby qui, d’un clignement de paupière, sélectionnait le caractère souhaité. Un travail particulièrement long et fastidieux ! Quelques mois plus tard, Le scaphandre et le papillon fut publié et il devint un best-steller.

Un autre auteur locked in, Philippe Vigand, a écrit plusieurs ouvrages grâce à une technologie appelée eye tracking, qui permet de détecter où se pose notre regard sur un écran d’ordinateur. Ainsi, rien qu’en regardant un clavier virtuel, il pouvait sélectionner les lettres souhaitées. Cependant, en pratique, l’eye tracking n’est ni rapide ni pratique à utiliser : dans une cohorte de patients locked in italienne, 36% ne l’utilisaient pas ou très rarement du fait de leur fatigabilité ou de difficultés à diriger leur regard -dans la forme classique du locked in, seule la verticalité du regard est conservée, les patients ne peuvent pas diriger leur regard horizontalement, ce qui limite bien sûr énormément l’utilisation de l’eye-tracking.

Jean-Dominique Bauby (A) et Philippe Vigand (B) ont tous deux écrit des livres lumineux tout en étant locked in, dans lesquels ils détaillent leur quotidien. Philippe Vigand a pu bénéficier de la technologie d'eye tracking (C) pour l'écriture de ses ouvrages. On voit en C la retranscription du parcours du regard, lorsqu'on demande à des individus d'observer l'image en haut à gauche. On peut remarquer que ce "parcours" diffère en fonction de la consigne donnée. 

De nos jours, de nouvelles technologies sont développées pour accroître encore plus la communication chez les patients locked in. Les plus prometteuses reposent sur ce que l’on appelle des interfaces cerveau-machine, qui permettent de relier directement le cerveau à l’ordinateur et de s’affranchir de l’aide d’un proche ou d’un partenaire. Elles permettent une plus grande facilité d’emploi au quotidien, ce qui est absolument nécessaire pour aider les patients locked in sur le long terme.

Ces interfaces cerveau-machine nécessitent une mesure précise de l’activité cérébrale. L’approche la plus commune et la plus répandue repose sur l’électro-encéphalogramme, ou EEG, qui permet de mesurer l’activité électrique des neurones du cortex grâce à de nombreuses petites électrodes posées sur le cuir chevelu, comme un bonnet. Cette technique à l’avantage de ne pas être invasive, mais elle est relativement peu précise car chaque électrode mesure la somme de plusieurs centaines de millions de neurones situés juste en dessous, et dont le signal est atténué par l’épaisseur de la boite crânienne.

L'électro-encéphalogramme est une technique de mesure de l'activité cérébrale peu invasive, mais fastidieuse à mettre en place. Comme on peut le voir sur ces deux photos, elle nécessite le portage d'une sorte de bonnet parsemé d'électrodes, chacune d'entre elle étant induite d'un gel conducteur. Ce "bonnet" doit être correctement placé, rester en place, et quand on a terminé, on a les cheveux bien sales ! En arrière-fond, on peut observer le tracé qu'on obtient lors d'une séance. Chaque ligne correspond aux variations de champs électrique mesuré au niveau d'une électrode.

L’une des plus anciennes utilisations de l’EEG comme interface cerveau-machine repose sur un curieux phénomène appelé « P300 », qui correspond à une grande perturbation positive (donc "P") de l’EEG environs 300ms (d’où le nom) après la perception d’un stimulus d’un intérêt particulier, sur lequel se dirige l’attention. Ce phénomène, décrit depuis plus de 60 ans, a été utilisé pour la première fois dans le cadre d’une interface cerveau-machine en 1988. Des chercheurs avaient alors conçus une matrice de 6x6 reprenant les lettres de l’alphabet et d’autres caractères utiles. Le patient devait focaliser son attention sur le caractère souhaité, puis les colonnes et les lignes s’allumaient successivement. Ainsi, une P300 était déclenchée 2 fois, l’une quand la lettre souhaitée s’allumait en même temps que sa colonne, puis de sa ligne. En croisant les données, on sélectionnait le caractère que le patient fixait du regard. Cette interface a pu être améliorée par la suite en modifiant les matrices notamment. Elle se révèle plutôt efficace, mais reste assez peu utilisée en pratique. Elle nécessite un appareillage lourd (ce n’est pas simple d’avoir un électro-encéphalogramme à la maison !) et un certain entraînement qui rend son utilisation complexe. L’EEG est compliqué à installer sur le crâne, et il est nécessaire de poser l’appareil le matin pour le retirer le soir.

De plus, comme nous l’évoquions plus haut, l’EEG reste une mesure grossière de l’activité électrique. Si sa résolution temporelle est excellente, sa résolution spatiale reste assez mauvaise : l’EEG, c’est regarder un film sans ses lunettes, on voit un peu flou.

Schéma de "l'interface P300".
Cette interface cerveau-machine se présente comme une matrice dans laquelle sont indiqués plusieurs caractères. Le patient fixe le caractère souhaité, par exemple ici le "N", puis les colonnes et les lignes s'éclairent successivement, l'une après l'autre, si bien que la case "N" s'allume deux fois. On mesure pendant ce temps là l'activité électrique du cerveau du patient grâce à un EEG. On peut ainsi observer 2 fois la formation d'une onde P300, provoquée par l'accès à la conscience d'une information saillante (ici l'allumage de la lettre "N" sélectionnée). En croisant ces 2 signaux, on peut en déduire la lettre désignée.

Pour gagner en efficacité, en praticité et en précision, il faut envisager d’autres moyens de mesurer l’activité neuronale, et en particulier des techniques dites invasives, qui nécessitent l’implantation chirurgicale d’électrodes à l’intérieur même de la boîte crânienne. Ainsi, on peut par exemple placer des réseaux d’électrodes à la surface du cerveau, juste contre le cortex, au plus près des neurones. Il s’agit d’une sorte d’EEG implantable, qu’on appelle Electro-cortico-graphie –ou ECoG. Cette technique présente de nombreux avantages par rapport à l’EEG : elle capte le signal au plus près, avant qu’il soit « flouté » par la boîte crânienne, et ne nécessite pas de maintenance importante étant donné qu’il est implanté à demeure sous le crâne du patient. Il est relié à un petit boitier, le plus souvent implanté sous la peau au niveau du thorax, qui permet de transmettre le signal reçu à un ordinateur extérieur –pas besoin de vaccin pour être connecté en Wifi.

Plusieurs études ont testé cette interface cerveau-machine pour communiquer. Plusieurs équipes ont tenté de reproduire le montage P300 avec succès. Le signal étant de meilleure qualité, le nombre d’électrodes nécessaires était beaucoup plus faible. Un tel dispositif permettait aux patients de sélectionner environs 17 caractères/minute, ce qui est une performance honorable en particulier par rapport à la dizaine de caractères/minute pour l’EEG -avec le paradigme P300.

L'EEG est une technique de mesure de l'activité cérébrale peu invasive mais peu précise. Pour gagner en précision (spatiale), on peut avoir recours à des techniques dites invasives, qui nécessitent une intervention chirurgicale plus ou moins complexe. Ces techniques, comme indiquées sur ce schéma, peuvent être l'implantation de microélectrodes dans le cerveau, ou de "plaque d'EEG" sous la voûte crânienne, tout contre le cortex : c'est l'ECoG. Nous n'aborderons pas ici les techniques d'enregistrement endovasculaires, très prometteuses, qui nécessite un placement des électrodes dans les vaisseaux sanguins.

Recycler le cortex

Avec les techniques d’EEG, plusieurs équipes avaient tenté de « recycler » le cortex moteur des patients locked in, toujours fonctionnels (rappelons que ce sont les voies nerveuses qui sont touchées, mais pas le cortex) afin de diriger une souris sur un écran. Les patients doivent par exemple imaginer un mouvement avec le bras gauche pour diriger la souris à gauche, etc. Mais les résultats sont mitigés. La technique nécessite un entraînement important et elle est difficile à utiliser au quotidien, car elle demande un effort cognitif significatif –son utilisation est loin d’être intuitive !

Nous l’avons vu plus haut, l’implantation des électrodes juste sous le crâne, contre le cerveau, permet une détection bien plus précise des activations neuronales, au niveau de l’ensemble du cortex et donc au niveau du cortex moteur. Grâce à cela, une équipe de chercheurs néerlandais a développé une interface cerveau-machine permettant aux patients de parler… en langue des signes.

Le concept est simple : la langue des signes permet de représenter chaque lettre grâce à des mouvements spécifiques des doigts. En décodant précisément l’activité cérébrale motrice, il était donc peut-être possible de détecter ces activations très localisées et de réaliser une cartographie « alphabétique » du cortex moteur.

Le cortex moteur est une région cérébrale centrale spécialisée dans l'élaboration et la transmission des informations motrices aux muscles correspondants (A). L'organisation de ce bout de cortex est très particulière : comme l'illustre l'homonculus de Penfield (B, du nom du neurochirurgien qui l'a décrit), l'ensemble du corps est représenté le long du cortex moteur, chaque région étant spécialisée dans un membre, et à plus petite échelle d'un muscle bien défini. Il est donc possible, en positionnant avec précision nos électrodes, d'enregistrer spécifiquement l'activité des neurones moteurs spécialisés dans les mouvements des doigts par exemple. Ces mêmes neurones sont fortement activés lors que l'individu doit parler en langue des signes (C).

L’étude en question porte sur 2 patients épileptiques chez qui ont avait du implanter un dispositif d'EcoG. En effet, lorsque l’épilepsie est localisée, sévère et résistante aux traitements médicamenteux, on peut proposer dans certains cas une opération chirurgicale dont le but est de retirer le bout de cerveau responsable de l’épilepsie, qu’on appelle le foyer. Avant l’opération, il est nécessaire d’implanter dans le cerveau de ses patients des électrodes pour localiser précisément ce foyer. Les scientifiques peuvent alors profiter de cette procédure pour réaliser, avec l’accord du patient bien sûr, des expériences.

Ainsi, les chercheurs néerlandais ont demandé à ces deux patients dans un premier temps de signer 4 lettres sélectionnées dans l’alphabet de langue des signes pour leur contraste important. L’activité cérébrale était enregistrée en même temps, pour apprendre à l’ordinateur la correspondance entre le signe et l’activité corticale. Dans un second temps, les patients effectuaient le signe de leur choix et le logiciel était chargé de deviner la lettre correspondante.

Le premier participant fut particulièrement performant –ou, devrais-je dire, l’ordinateur aidé du participant 1 fut particulièrement performant ! Il arriva à sélectionner la bonne lettre dans 97% des cas ! Cependant, les signaux correspondants aux différents lettres sont incroyablement similaires : par exemple, il n’y a que 2.5% de différence entre le « Y » et le « V », expliquant certaines erreurs. Il est très difficile de discerner ces deux lettres à partir d’un signal électrique faible et bruité. Le 2ème participant fut moins bon, en n’atteignant une précision de 74% seulement. Cela s’explique en partie par sa grande difficulté à signer le « D » correctement. Il semble aussi que la position des électrodes jouent un rôle significatif dans les performances.

L’étude en question porte sur des patients mobiles, sans la moindre ombre de paralysie. Des personnes bien différentes des patients locked in. Mais de nombreuses études montrent que l’activité cérébrale motrice correspondant à un mouvement réellement effectué est très similaire à celle d’un mouvement simplement imaginé. On peut donc supposer qu’un tel dispositif pourrait fonctionner chez des patients locked in.

Cette étude suggère qu’un patient locked in pourrait paradoxalement utiliser la langue des signes pour communiquer ! Cependant, il faut se garder d’extrapoler trop brutalement –comme je viens de le faire. Cette étude est passionnante mais elle est limitée sur le plan méthodologique. Tout d’abord, elle ne porte que sur 2 patients, épileptiques et surtout en pleine possession de leur motricité. L’exécution des mouvements a été importante pour « apprendre » à l’ordinateur la signature neuronale des lettres signées. Si on sait que l’activité neuronale est semblable quand on exécute un mouvement et quand on ne fait que l’imaginer, cela reste une limitation importante avant de pouvoir extrapoler aux patients locked in.

Cependant, cette étude est prometteuse car elle fait reposer la modalité de contrôle de l’interface sur un système de langage naturel, qui demandera sans doute moins d’efforts cognitifs en comparaison aux techniques citées plus haut.

Mais certains chercheurs sont allés encore plus loin.

Pourquoi se cantonner au cortex moteur et à la langue des signes, alors qu’on peut tenter de décoder le langage parlé directement au niveau des aires cérébrales engagées ?

Plusieurs équipes ont tenté le pari, avec plus ou moins de succès. L’interface se base sur un concept similaire à la signature corticale de la langue des signes. Sauf qu’on tente plutôt ici de trouver la signature de phonèmes, sortes de briques sonores élémentaires du langage parlé. Ce qui est beaucoup plus complexe qu’un mouvement combiné des doigts.

Par exemple, des chercheurs de l’université de Chicago ont essayé de développer ce type d’interface cerveau machine, qu’ils ont décrit dans une étude publiée en 2014. Dans ces travaux, 4 sujets implantés dans le cadre d’une chirurgie d’une épilepsie résistante se sont prêtés au jeu. Les électrodes étaient placés au niveau du cortex moteur relié aux muscles du larynx et du pharynx, c’est-à-dire ceux impliqués dans la production d’un langage articulé. Le but des chercheurs étaient de « voir » à travers leur cortex ces 4 personnes articuler différents phonèmes !

Les performances de leur interface cerveau-machine sont prometteuses, avec une précision de 36% pour la classification de l’ensemble des phonèmes en langue anglaise. Mais l’intérêt de cette étude repose aussi sur l’analyse des erreurs de l’algorithme. En effet, lorsque ce dernier décodait mal le signal neuronal, le phonème sélectionné était certes incorrect, mais dans près de 50% des cas il s’agissait d’un phonème très proche et dont la prononciation était très similaire. Cette donnée est importante car il s’agit d’une aide précieuse pour l’étape suivante, la reconstruction de mots à partir de ces phonèmes !

Les performances de l’interface étaient aussi limitées par la détection de chaque phonème sur le tracé de l’ECoG. En effet, il est complexe de délimiter précisément dans le temps le signal correspondant à un phonème particulier. Et un décalage, aussi minime soit-il, change complètement le décodage que l’on peut en faire ! Il se passe un phénomène similaire avec la synthèse des protéines dans nos cellules, qui nécessite un codage précis de chaque acide-aminé qui la compose. Ce codage repose sur des triplets de nucléotides (A, U, G, C) dont les différentes combinaisons sont spécifiquement associées à un acide-aminé. Une mutation de l’ADN peut supprimer un nucléotide, et ainsi décaler l’ensemble du cadre de lecture. Cela abouti le plus souvent à une protéine tronquée et non fonctionnelle, qui peut avoir de lourdes répercussions sur le fonctionnement de la cellule touchée. De telles erreurs peuvent se produire pour notre interface et aboutir à des erreurs de décodage, d’autant plus que le signal neuronal est encore une fois très similaire entre les différents phonèmes.

On parle ici de classification de phonèmes, ces briques élémentaires du langage. On est donc encore loin de construire des mots et plus encore des phrases. C’est pourtant ce qu’ont tenté de faire des chercheurs californiens, qui ont publiés leurs résultats extraordinaires dans la prestigieuse revue Nature en 2019.

Leur approche est beaucoup plus complexe que l’étude dont nous venons de parler. Si les sujets de leur étude étaient là encore des patients épileptiques en attente de leur opération, et chez qui des électrodes étaient placées en regard du cortex moteur relié aux muscles vocaux, leur méthode de décodage était bien plus élaborée. Ils ont procédés en deux temps : tout d’abord, les signaux neuronaux moteurs étaient traités au niveau d’un premier réseau de neurones artificiels dont le but était de modéliser, en 3D, les mouvements des voies aériennes et du tractus vocal. Dans un second temps, un deuxième réseau de neurones déduisait de ces mouvements les sons et les phonèmes produits. A l'instar des études précédentes, une phase d'apprentissage était nécessaire au début de l'expérience, au cours de laquelle l'ordinateur comparait les phonèmes produits par les réseaux de neurones et ceux réellement prononcés par le patient. Il s’agit non seulement d’une approche de deep learning ambitieuse, dans laquelle les deux réseaux de neurones apprennent l’un de l’autre, mais d’une simulation du langage parlé au plus près du fonctionnement normal du corps humain ! C’est donc un modèle d’interface cerveau-machine très intuitif et probablement assez simple à utiliser.

Montage de l'interface cerveau-machine utilisé dans l'étude de Nature.
Cette interface utilise les signaux neuronaux enregistrés par un ECoG au niveau du cortex moteur dédié au tractus vocal. Un premier réseau de neurone (1) modélise les contractions musculaires et les modifications de morphologie de ce tractus (B), puis un deuxième réseau de neurones (2) en déduit les phonèmes correspondants (C).

Cette méthodologie est assez intuitive au premier abord : en effet, le signal capté par l’ECoG ne représente pas stricto sensu un phonème, mais bien des mouvements musculaires qui permettent dans un second temps la production du phonème. Cependant, l’articulation est un phénomène très complexe qui implique plus de 100 muscles différents, dont les corrélations contraction-phonème ne sont pas exclusives. Il s’agit donc de signaux très complexes à décoder !

Pour autant, les performances de cette interface cerveau-machine étaient excellente, permettant la reconstruction de mots et même de phrases entières ! Dans leur expérience, ils demandaient aux patients implantés de répéter des dizaines de phrases. La superposition de l’enregistrement audio et du résultat du double réseau neurones permettait à ce dernier de se perfectionner progressivement. Dans un second temps, ils firent écouter à d’autres individus les phrases synthétisées par l’ordinateur. Les chercheurs leur demandaient de retranscrire ce qu’ils pensaient entendre. Pour cela, notons qu’ils étaient aidés et qu’ils avaient à leur disposition une liste de mots dans laquelle ils devaient piocher. Leurs performances furent tout à fait honorables, de 21% de transcription exacte lorsqu’on proposait une liste de 50 mots possibles, jusqu’à 43% d’exactitude avec une liste restreinte de 25 mots ! Rappelons qu’on parle ici de phrases entières, et donc d’un signal neuronal extrêmement complexe à décoder !

Ces performances remarquables étaient similaires entre des phrases connues de l’interface, donc a priori plus simples à décoder, et des phrases nouvelles sur lesquelles l’interface n’avait pas été entraînée ! Il s’agit donc d’un outil robuste capable de généraliser ses apprentissages à des situations (ici des mots/phrases) nouvelles.

Mais à l’instar des études que nous avons cité plus tôt, ces expériences portent sur des sujets non paralysés, et en particulier capables de parler à haute et intelligible voix. Et nous l’avons vu, l’enregistrement audio était capital dans l’apprentissage des réseaux de neurones ! Autant dire que cela limite fortement une application quelconque pour des patients locked in

C’est dans cette optique que ces chercheurs demandèrent ensuite aux sujets implantés non pas de prononcer les phrases à haute voix, mais de simplement mimer leur articulation. L’interface, bien qu’elle ait plus de mal, arrivait à nouveau à décoder le signal neuronal, et synthétiser les bons mots. De plus, les signaux neuronaux émanant des différents participants de l’étude étant très similaires, on peut envisager qu’un entraînement de l’interface puisse se faire sur une personne valide, avant d’être utilisée par un patient locked in une fois devenue performante. Mais il ne s’agit là que de suppositions.

Les travaux sur les interfaces cerveau-machine dans la communication verbale sont donc prometteuses -comme d’ailleurs dans le domaine de la robotique. Mais l’immense majorité portent sur des personnes non paralysées, et il est difficile d’extrapoler et de prédire leur utilité pour des patients locked in. Ces nouvelles technologies répondent cependant à plusieurs inconvénients des interfaces disponibles actuellement, et en particulier la lourdeur de leur utilisation quotidienne. Mais elles ne viennent pas sans des problématiques qui leur sont propres, comme le risque inhérent à toute chirurgie et le coût important de ces dispositifs.

Nous avons ici surtout évoqué les problématiques liées à l’enregistrement et au décodage de l’activité neuronale. Mais il faut aussi être conscient que de nouvelles questions se posent dans le traitement de telles quantités de données, aussi complexes. Une communication en temps réel nécessite que ce traitement soit très rapide, ce qui est, on l’imagine bien, très difficile à mettre en place.

Les interfaces cerveau-machine sont un terrain de recherche extrêmement fertile actuellement. Il s’agit d’un domaine passionnant qui permet de réunir des chercheurs de domaines très différents, chacun apportant leur expertise pour aboutir à une interface la plus performante possible.

SOURCES :

- Vansteensel MJ, Jarosiewicz B. Brain-computer interfaces for communication. Handb Clin Neurol. 2020;168:67-85. doi: 10.1016/B978-0-444-63934-9.00007-X. PMID: 32164869.

- Laureys S, Pellas F, Van Eeckhout P, Ghorbel S, Schnakers C, Perrin F, Berré J, Faymonville ME, Pantke KH, Damas F, Lamy M, Moonen G, Goldman S. The locked-in syndrome : what is it like to be conscious but paralyzed and voiceless? Prog Brain Res. 2005;150:495-511. doi: 10.1016/S0079-6123(05)50034-7. PMID: 16186044.

- Annen J, Laureys S, Gosseries O. Brain-computer interfaces for consciousness assessment and communication in severely brain-injured patients. Handb Clin Neurol. 2020;168:137-152. doi: 10.1016/B978-0-444-63934-9.00011-1. PMID: 32164848.

- Mugler EM, Patton JL, Flint RD, Wright ZA, Schuele SU, Rosenow J, Shih JJ, Krusienski DJ, Slutzky MW. Direct classification of all American English phonemes using signals from functional speech motor cortex. J Neural Eng. 2014 Jun;11(3):035015. doi: 10.1088/1741-2560/11/3/035015. Epub 2014 May 19. PMID: 24836588; PMCID: PMC4097188.

- Anumanchipalli GK, Chartier J, Chang EF. Speech synthesis from neural decoding of spoken sentences. Nature. 2019 Apr;568(7753):493-498. doi: 10.1038/s41586-019-1119-1. Epub 2019 Apr 24. PMID: 31019317.

- Akbari H, Khalighinejad B, Herrero JL, Mehta AD, Mesgarani N. Towards reconstructing intelligible speech from the human auditory cortex. Sci Rep. 2019 Jan 29;9(1):874. doi: 10.1038/s41598-018-37359-z. PMID: 30696881; PMCID: PMC6351601.

CREDITS PHOTOS :

- Image par Clker-Free-Vector-Images de Pixabay 

- Main Esquisse Dessin - Image gratuite sur Pixabay

- Main Doigt Estropié Avec Des - Photo gratuite sur Pixabay

- Par Paul Gavarni Поль Гаварни (рисунок Дантеса после побега) /Тони Джоханно (обложка журнала) — Bibliothèque nationale de France, Domaine public, https://commons.wikimedia.org/w/index.php?curid=17539493

- Image par Gerd Altmann de Pixabay 

- By ElinorHunt - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=69676318

- By Blausen Medical Communications, Inc. - see ticket for details, CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=26986798

- By OpenStax - https://cnx.org/contents/FPtK1zmh@8.25:fEI3C8Ot@10/Preface, CC BY 4.0, https://commons.wikimedia.org/w/index.php?curid=30147954

- By Kevin Dufendach - Own work, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=28204161

- By BruceBlaus. When using this image in external sources it can be cited as:Blausen.com staff (2014). "Medical gallery of Blausen Medical 2014". WikiJournal of Medicine 1 (2). DOI:10.15347/wjm/2014.010. ISSN 2002-4436. - Own work, CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=28086431

- By Lucs-kho at English Wikipedia - Transferred from en.wikipedia to Commons by Wildtierreservat using CommonsHelper., Public Domain, https://commons.wikimedia.org/w/index.php?curid=14798911

- fnac.com

- By Lucs-kho at English Wikipedia - Transferred from en.wikipedia to Commons., Public Domain, https://commons.wikimedia.org/w/index.php?curid=9755480

- Image par mohamed Hassan de Pixabay 

- Par Balougador — [1], CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=3231052

- By Amcclanahan - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=112445468

- Image par ulrichw de Pixabay 

- By Andrii Cherninskyi - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=44035074

- By Taken from NIH publication 97-4257, https://www.nidcd.nih.gov/health/aphasia (https://www.nidcd.nih.gov/sites/default/files/Documents/health/voice/Aphasia6-1-16.pdf), Public Domain, https://commons.wikimedia.org/w/index.php?curid=352704

- Image par Alessandra Alê de Pixabay 

- By Badseed  This W3C-unspecified vector image was created with Inkscape . - Own work, data: see below, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=3539944

- By No machine-readable author provided. Ishwar~commonswiki assumed (based on copyright claims). - No machine-readable source provided. Own work assumed (based on copyright claims)., CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=1405439

- Par Dake, Mysid — Vectorized by Mysid in CorelDraw on an image by Dake., CC BY 1.0, https://commons.wikimedia.org/w/index.php?curid=1412126

- Par Balchimar — Travail personnel, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=18864649

- By Cowplopmorris at en.wikipedia, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=10521829

- Par Thuglas sur Wikipédia anglais — Transféré de en.wikipedia à Commons par Sreejithk2000 utilisant CommonsHelper., Domaine public, https://commons.wikimedia.org/w/index.php?curid=10827060

- By File:1421 Sensory Homunculus.jpg: OpenStax Collegederivative work: Popadius - This file was derived from: 1421 Sensory Homunculus.jpg:, CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=88916983

- By Psiĥedelisto - Own work, Public Domain, https://commons.wikimedia.org/w/index.php?curid=53652991

- By BruceBlaus. When using this image in external sources it can be cited as:Blausen.com staff (2014). "Medical gallery of Blausen Medical 2014". WikiJournal of Medicine 1 (2). DOI:10.15347/wjm/2014.010. ISSN 2002-4436. - Own work, CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=31574255

- Image par Gordon Johnson de Pixabay