Communiquer en langue des signes... en étant tétraplégique ?!
Aussi, dans
cet œil noir du vieux Noirtier, surmonté d’un sourcil noir, tandis que toute la
chevelure, qu’il portait longue et pendante sur les épaules, était blanche ;
dans cet œil, comme cela arrive pour tout organe de l’homme exercé aux dépens
des autres organes, s’étaient concentrées toute l’activité, toute l’adresse,
toute la force, toute l’intelligence répandues autrefois dans ce corps et dans
cet esprit. Certes, le geste du bras, le son de la voix, l’attitude du corps
manquaient, mais cet œil puissant suppléait à tout : il commandait avec les
yeux ; il remerciait avec les yeux ; c’était un cadavre avec des yeux vivants,
et rien n’était plus effrayant parfois que ce visage de marbre au haut duquel
s’allumait une colère ou luisait une joie. Trois personnes seulement savaient
comprendre ce langage du pauvre paralytique : c’étaient Villefort, Valentine et
le vieux domestique dont nous avons déjà parlé. Mais comme Villefort ne voyait
que rarement son père, et, pour ainsi dire, quand il ne pouvait faire autrement
; comme, lorsqu’il le voyait, il ne cherchait pas à lui plaire en le
comprenant, tout le bonheur du vieillard reposait en sa petite-fille, et
Valentine était parvenue, à force de dévouement, d’amour et de patience, à
comprendre du regard toutes les pensées de Noirtier. À ce langage muet ou
inintelligible pour tout autre, elle répondait avec toute sa voix, toute sa
physionomie, toute son âme, de sorte qu’il s’établissait des dialogues animés
entre cette jeune fille et cette prétendue argile, à peu près redevenue
poussière, et qui cependant était encore un homme d’un savoir immense, d’une
pénétration inouïe et d’une volonté aussi puissante que peut l’être l’âme
enfermée dans une matière par laquelle elle a perdu le pouvoir de se faire
obéir.
Valentine
avait donc résolu cet étrange problème de comprendre la pensée du vieillard,
pour lui faire comprendre sa pensée à elle ; et, grâce à cette étude, il était
bien rare que, pour les choses ordinaires de la vie, elle ne tombât point avec
précision sur le désir de cette âme vivante, ou sur le besoin de ce cadavre à
moitié insensible.
Dans le Comte de Monte Christo,
Alexandre Dumas décrit un personnage bien singulier, Monsieur Noirtier de
Villefort, qui bien qu’il semble parfaitement conscient, et doté d’une grande
intelligence, est entièrement paralysé, des pieds à la tête. Ce bref passage
n’est pas si anecdotique, car il représente l’une des premières traces de ce
qui sera désigné en 1966 le locked in syndrom, le syndrome d’enfermement.
Il s’agit d’une condition
terrible dans laquelle une personne se retrouve entièrement paralysée ou
presque, ne conservant que la faculté de cligner des paupières et de diriger
son regard. Ces personnes, à l’instar de Noirtier, conservent toute leur
intelligence, mais sont dans l’incapacité de communiquer avec leurs proches.
Heureusement, le vieil homme pouvait compter sur sa petite fille pour décoder
les subtils signaux qu’il pouvait lui envoyer. Il pouvait aussi communiquer en
sélectionnant un mot dans une liste que lui récitaient ses proches, à l’aide
d’un battement de paupière.
Le locked in syndrom est une
affection très rare, qui touche environs 500 personnes en France. Elle est le
plus souvent due à un accident vasculaire du tronc cérébral, une structure
nerveuse située à la base de notre cerveau, à travers laquelle passent
l’ensemble des voies motrices (ou presque) qui transmettent l’ordre cérébral
d’un mouvement aux muscles correspondants. Le tronc cérébral est aussi impliqué
dans le fonctionnement de notre organisme, et en particulier de plusieurs
grandes fonctions vitales comme la respiration. Dans le locked in syndrom, un
AVC entraîne la destruction sélective des voies motrices, entraînant une
paralysie totale du corps. Seuls échappent les muscles des paupières et ceux permettant
les mouvements oculaires, car ces voies motrices émergent légèrement plus tôt
et ne sont donc pas touchées.
Plusieurs personnalités ont
souffert du locked in syndrom, et ont pu raconter leur histoire dans de
magnifiques livres. C’est le cas de Jean-Dominique Bauby, le rédacteur en chef
du magazine Elle, en 1995. Après plusieurs semaines de coma, il s’était
réveillé au fond d’un lit d’hôpital, à l’hôpital maritime de Berck en Vendée.
Il avait alors, dès les premiers mois d’enfermement, décidé d’écrire un livre
pour raconter son histoire. Une décision courageuse quand on ne peut
communiquer qu’à travers le regard et le battement des paupières ! C’est
ainsi que tous les matins, il élaborait mentalement plusieurs paragraphes avant
de les dicter à une collaboratrice qui lui rendait régulièrement visite. Cette
dernière, à l’instar de Valentine, récitait patiemment l’alphabet devant Bauby
qui, d’un clignement de paupière, sélectionnait le caractère souhaité. Un
travail particulièrement long et fastidieux ! Quelques mois plus tard, Le
scaphandre et le papillon fut publié et il devint un best-steller.
Un autre auteur locked in,
Philippe Vigand, a écrit plusieurs ouvrages grâce à une technologie appelée eye
tracking, qui permet de détecter où se pose notre regard sur un écran
d’ordinateur. Ainsi, rien qu’en regardant un clavier virtuel, il pouvait
sélectionner les lettres souhaitées. Cependant, en pratique, l’eye tracking
n’est ni rapide ni pratique à utiliser : dans une cohorte de patients
locked in italienne, 36% ne l’utilisaient pas ou très rarement du fait de leur
fatigabilité ou de difficultés à diriger leur regard -dans la forme classique
du locked in, seule la verticalité du regard est conservée, les patients ne
peuvent pas diriger leur regard horizontalement, ce qui limite bien sûr
énormément l’utilisation de l’eye-tracking.
De nos jours, de nouvelles
technologies sont développées pour accroître encore plus la communication chez
les patients locked in. Les plus prometteuses reposent sur ce que l’on appelle
des interfaces cerveau-machine, qui permettent de relier directement le cerveau
à l’ordinateur et de s’affranchir de l’aide d’un proche ou d’un
partenaire. Elles permettent une plus grande facilité d’emploi au quotidien, ce
qui est absolument nécessaire pour aider les patients locked in sur le long
terme.
Ces interfaces cerveau-machine
nécessitent une mesure précise de l’activité cérébrale. L’approche la plus
commune et la plus répandue repose sur l’électro-encéphalogramme, ou EEG, qui
permet de mesurer l’activité électrique des neurones du cortex grâce à de
nombreuses petites électrodes posées sur le cuir chevelu, comme un bonnet.
Cette technique à l’avantage de ne pas être invasive, mais elle est
relativement peu précise car chaque électrode mesure la somme de plusieurs
centaines de millions de neurones situés juste en dessous, et dont le signal
est atténué par l’épaisseur de la boite crânienne.
L’une des plus anciennes
utilisations de l’EEG comme interface cerveau-machine repose sur un curieux
phénomène appelé « P300 », qui correspond à une grande perturbation positive (donc "P") de l’EEG environs
300ms (d’où le nom) après la perception d’un stimulus d’un intérêt particulier,
sur lequel se dirige l’attention. Ce phénomène, décrit depuis plus de 60 ans, a
été utilisé pour la première fois dans le cadre d’une interface cerveau-machine
en 1988. Des chercheurs avaient alors conçus une matrice de 6x6 reprenant les
lettres de l’alphabet et d’autres caractères utiles. Le patient devait
focaliser son attention sur le caractère souhaité, puis les colonnes et les
lignes s’allumaient successivement. Ainsi, une P300 était déclenchée 2 fois,
l’une quand la lettre souhaitée s’allumait en même temps que sa colonne, puis
de sa ligne. En croisant les données, on sélectionnait le caractère que le
patient fixait du regard. Cette interface a pu être améliorée par la suite en
modifiant les matrices notamment. Elle se révèle plutôt efficace, mais reste
assez peu utilisée en pratique. Elle nécessite un appareillage lourd (ce n’est
pas simple d’avoir un électro-encéphalogramme à la maison !) et un certain
entraînement qui rend son utilisation complexe. L’EEG est compliqué à installer
sur le crâne, et il est nécessaire de poser l’appareil le matin pour le retirer
le soir.
De plus, comme nous l’évoquions
plus haut, l’EEG reste une mesure grossière de l’activité électrique. Si sa
résolution temporelle est excellente, sa résolution spatiale reste assez
mauvaise : l’EEG, c’est regarder un film sans ses lunettes, on voit un peu
flou.
Pour gagner en efficacité, en
praticité et en précision, il faut envisager d’autres moyens de mesurer
l’activité neuronale, et en particulier des techniques dites invasives, qui nécessitent
l’implantation chirurgicale d’électrodes à l’intérieur même de la boîte
crânienne. Ainsi, on peut par exemple placer des réseaux d’électrodes à la
surface du cerveau, juste contre le cortex, au plus près des neurones. Il
s’agit d’une sorte d’EEG implantable, qu’on appelle Electro-cortico-graphie –ou
ECoG. Cette technique présente de nombreux avantages par rapport à l’EEG :
elle capte le signal au plus près, avant qu’il soit « flouté » par la
boîte crânienne, et ne nécessite pas de maintenance importante étant donné
qu’il est implanté à demeure sous le crâne du patient. Il est relié à un petit
boitier, le plus souvent implanté sous la peau au niveau du thorax, qui permet
de transmettre le signal reçu à un ordinateur extérieur –pas besoin de vaccin pour
être connecté en Wifi.
Plusieurs études ont testé cette
interface cerveau-machine pour communiquer. Plusieurs équipes ont tenté de
reproduire le montage P300 avec succès. Le signal étant de meilleure
qualité, le nombre d’électrodes nécessaires était beaucoup plus faible. Un tel
dispositif permettait aux patients de sélectionner environs 17
caractères/minute, ce qui est une performance honorable en particulier par
rapport à la dizaine de caractères/minute pour l’EEG -avec le paradigme P300.
Recycler le cortex
Avec les techniques d’EEG,
plusieurs équipes avaient tenté de « recycler » le cortex moteur des
patients locked in, toujours fonctionnels (rappelons que ce sont les voies
nerveuses qui sont touchées, mais pas le cortex) afin de diriger une souris sur
un écran. Les patients doivent par exemple imaginer un mouvement
avec le bras gauche pour diriger la souris à gauche, etc. Mais les résultats
sont mitigés. La technique nécessite un entraînement important et elle est
difficile à utiliser au quotidien, car elle demande un effort cognitif
significatif –son utilisation est loin d’être intuitive !
Nous l’avons vu plus haut,
l’implantation des électrodes juste sous le crâne, contre le cerveau, permet
une détection bien plus précise des activations neuronales, au niveau de
l’ensemble du cortex et donc au niveau du cortex moteur. Grâce à cela, une
équipe de chercheurs néerlandais a développé une interface cerveau-machine
permettant aux patients de parler… en langue des signes.
Le concept est simple : la
langue des signes permet de représenter chaque lettre grâce à des mouvements
spécifiques des doigts. En décodant précisément l’activité cérébrale motrice,
il était donc peut-être possible de détecter ces activations très localisées et
de réaliser une cartographie « alphabétique » du cortex moteur.
L’étude en question porte sur 2
patients épileptiques chez qui ont avait du implanter un dispositif d'EcoG. En effet,
lorsque l’épilepsie est localisée, sévère et résistante aux traitements
médicamenteux, on peut proposer dans certains cas une opération chirurgicale
dont le but est de retirer le bout de cerveau responsable de l’épilepsie, qu’on
appelle le foyer. Avant l’opération, il est nécessaire d’implanter dans le
cerveau de ses patients des électrodes pour localiser précisément ce foyer. Les
scientifiques peuvent alors profiter de cette procédure pour réaliser, avec
l’accord du patient bien sûr, des expériences.
Ainsi, les chercheurs néerlandais
ont demandé à ces deux patients dans un premier temps de signer 4 lettres
sélectionnées dans l’alphabet de langue des signes pour leur contraste important.
L’activité cérébrale était enregistrée en même temps, pour apprendre à
l’ordinateur la correspondance entre le signe et l’activité corticale. Dans un
second temps, les patients effectuaient le signe de leur choix et le logiciel
était chargé de deviner la lettre correspondante.
Le premier participant fut
particulièrement performant –ou, devrais-je dire, l’ordinateur aidé du
participant 1 fut particulièrement performant ! Il arriva à sélectionner
la bonne lettre dans 97% des cas ! Cependant, les signaux correspondants
aux différents lettres sont incroyablement similaires : par exemple, il
n’y a que 2.5% de différence entre le « Y » et le « V »,
expliquant certaines erreurs. Il est très difficile de discerner ces deux
lettres à partir d’un signal électrique faible et bruité. Le 2ème
participant fut moins bon, en n’atteignant une précision de 74% seulement. Cela
s’explique en partie par sa grande difficulté à signer le « D »
correctement. Il semble aussi que la position des électrodes jouent un rôle significatif dans les performances.
L’étude en question porte sur des
patients mobiles, sans la moindre ombre de paralysie. Des personnes bien
différentes des patients locked in. Mais de nombreuses études montrent que
l’activité cérébrale motrice correspondant à un mouvement réellement effectué
est très similaire à celle d’un mouvement simplement imaginé. On peut donc
supposer qu’un tel dispositif pourrait fonctionner chez des patients locked in.
Cette étude suggère qu’un patient
locked in pourrait paradoxalement utiliser la langue des signes pour
communiquer ! Cependant, il faut se garder d’extrapoler trop brutalement
–comme je viens de le faire. Cette étude est passionnante mais elle est limitée
sur le plan méthodologique. Tout d’abord, elle ne porte que sur 2 patients,
épileptiques et surtout en pleine possession de leur motricité. L’exécution des
mouvements a été importante pour « apprendre » à l’ordinateur la
signature neuronale des lettres signées. Si on sait que l’activité neuronale
est semblable quand on exécute un mouvement et quand on ne fait que l’imaginer,
cela reste une limitation importante avant de pouvoir extrapoler aux patients locked
in.
Cependant, cette étude est
prometteuse car elle fait reposer la modalité de contrôle de l’interface sur un
système de langage naturel, qui demandera sans doute moins d’efforts cognitifs en
comparaison aux techniques citées plus haut.
Mais certains chercheurs sont
allés encore plus loin.
Pourquoi se cantonner au cortex
moteur et à la langue des signes, alors qu’on peut tenter de décoder le langage parlé directement au niveau des aires cérébrales engagées ?
Plusieurs équipes ont tenté le
pari, avec plus ou moins de succès. L’interface se base sur un concept
similaire à la signature corticale de la langue des signes. Sauf qu’on tente
plutôt ici de trouver la signature de phonèmes, sortes de briques sonores
élémentaires du langage parlé. Ce qui est beaucoup plus complexe qu’un
mouvement combiné des doigts.
Par exemple, des chercheurs de
l’université de Chicago ont essayé de développer ce type d’interface cerveau
machine, qu’ils ont décrit dans une étude publiée en 2014. Dans ces travaux, 4
sujets implantés dans le cadre d’une chirurgie d’une épilepsie résistante se
sont prêtés au jeu. Les électrodes étaient placés au niveau du cortex moteur
relié aux muscles du larynx et du pharynx, c’est-à-dire ceux impliqués dans la
production d’un langage articulé. Le but des chercheurs étaient de
« voir » à travers leur cortex ces 4 personnes articuler différents
phonèmes !
Les performances de leur
interface cerveau-machine sont prometteuses, avec une précision de 36% pour la
classification de l’ensemble des phonèmes en langue anglaise. Mais l’intérêt de
cette étude repose aussi sur l’analyse des erreurs de l’algorithme. En effet,
lorsque ce dernier décodait mal le signal neuronal, le phonème sélectionné
était certes incorrect, mais dans près de 50% des cas il s’agissait d’un
phonème très proche et dont la prononciation était très similaire. Cette donnée
est importante car il s’agit d’une aide précieuse pour l’étape suivante, la
reconstruction de mots à partir de ces phonèmes !
Les performances de l’interface
étaient aussi limitées par la détection de chaque phonème sur le tracé de
l’ECoG. En effet, il est complexe de délimiter précisément dans le temps le
signal correspondant à un phonème particulier. Et un décalage, aussi minime
soit-il, change complètement le décodage que l’on peut en faire ! Il se
passe un phénomène similaire avec la synthèse des protéines dans nos cellules,
qui nécessite un codage précis de chaque acide-aminé qui la compose. Ce codage
repose sur des triplets de nucléotides (A, U, G, C) dont les différentes
combinaisons sont spécifiquement associées à un acide-aminé. Une mutation de
l’ADN peut supprimer un nucléotide, et ainsi décaler l’ensemble du cadre de
lecture. Cela abouti le plus souvent à une protéine tronquée et non
fonctionnelle, qui peut avoir de lourdes répercussions sur le fonctionnement de
la cellule touchée. De telles erreurs peuvent se produire pour notre interface
et aboutir à des erreurs de décodage, d’autant plus que le signal neuronal est encore une fois très similaire entre les différents phonèmes.
On parle ici de classification de
phonèmes, ces briques élémentaires du langage. On est donc encore loin de construire des mots et plus encore des phrases. C’est pourtant ce qu’ont tenté de faire
des chercheurs californiens, qui ont publiés leurs résultats extraordinaires
dans la prestigieuse revue Nature en 2019.
Leur approche est beaucoup plus
complexe que l’étude dont nous venons de parler. Si les sujets de leur étude
étaient là encore des patients épileptiques en attente de leur opération, et
chez qui des électrodes étaient placées en regard du cortex moteur
relié aux muscles vocaux, leur méthode de décodage était bien plus
élaborée. Ils ont procédés en deux temps : tout d’abord, les signaux
neuronaux moteurs étaient traités au niveau d’un premier réseau de neurones
artificiels dont le but était de modéliser, en 3D, les mouvements des voies
aériennes et du tractus vocal. Dans un second temps, un deuxième réseau de
neurones déduisait de ces mouvements les sons et les phonèmes produits. A l'instar des études précédentes, une phase d'apprentissage était nécessaire au début de l'expérience, au cours de laquelle l'ordinateur comparait les phonèmes produits par les réseaux de neurones et ceux réellement prononcés par le patient. Il
s’agit non seulement d’une approche de deep learning ambitieuse, dans laquelle
les deux réseaux de neurones apprennent l’un de l’autre, mais d’une simulation
du langage parlé au plus près du fonctionnement normal du corps humain !
C’est donc un modèle d’interface cerveau-machine très intuitif et probablement
assez simple à utiliser.
Cette méthodologie est assez
intuitive au premier abord : en effet, le signal capté par l’ECoG ne
représente pas stricto sensu un phonème, mais bien des mouvements musculaires
qui permettent dans un second temps la production du phonème. Cependant,
l’articulation est un phénomène très complexe qui implique plus de 100 muscles
différents, dont les corrélations contraction-phonème ne sont pas exclusives.
Il s’agit donc de signaux très complexes à décoder !
Pour autant, les performances de
cette interface cerveau-machine étaient excellente, permettant la
reconstruction de mots et même de phrases entières ! Dans leur expérience,
ils demandaient aux patients implantés de répéter des dizaines de phrases. La
superposition de l’enregistrement audio et du résultat du double réseau
neurones permettait à ce dernier de se perfectionner progressivement. Dans un
second temps, ils firent écouter à d’autres individus les phrases synthétisées
par l’ordinateur. Les chercheurs leur demandaient de retranscrire ce qu’ils
pensaient entendre. Pour cela, notons qu’ils étaient aidés et qu’ils
avaient à leur disposition une liste de mots dans laquelle ils devaient
piocher. Leurs performances furent tout à fait honorables, de 21% de
transcription exacte lorsqu’on proposait une liste de 50 mots possibles,
jusqu’à 43% d’exactitude avec une liste restreinte de 25 mots ! Rappelons qu’on parle
ici de phrases entières, et donc d’un signal neuronal extrêmement complexe à
décoder !
Ces performances remarquables
étaient similaires entre des phrases connues de l’interface, donc a priori plus
simples à décoder, et des phrases nouvelles sur lesquelles l’interface n’avait
pas été entraînée ! Il s’agit donc d’un outil robuste capable de
généraliser ses apprentissages à des situations (ici des mots/phrases)
nouvelles.
Mais à l’instar des études que
nous avons cité plus tôt, ces expériences portent sur des sujets non
paralysés, et en particulier capables de parler à haute et intelligible
voix. Et nous l’avons vu, l’enregistrement audio était capital dans
l’apprentissage des réseaux de neurones ! Autant dire que cela limite
fortement une application quelconque pour des patients locked in…
C’est dans cette optique que ces
chercheurs demandèrent ensuite aux sujets implantés non pas de prononcer les
phrases à haute voix, mais de simplement mimer leur articulation. L’interface,
bien qu’elle ait plus de mal, arrivait à nouveau à décoder le signal neuronal,
et synthétiser les bons mots. De plus, les signaux neuronaux émanant des
différents participants de l’étude étant très similaires, on peut envisager
qu’un entraînement de l’interface puisse se faire sur une personne valide,
avant d’être utilisée par un patient locked in une fois devenue performante.
Mais il ne s’agit là que de suppositions.
Les travaux sur les interfaces
cerveau-machine dans la communication verbale sont donc prometteuses -comme
d’ailleurs dans le domaine de la robotique. Mais l’immense majorité portent sur
des personnes non paralysées, et il est difficile d’extrapoler et de prédire
leur utilité pour des patients locked in. Ces nouvelles technologies répondent
cependant à plusieurs inconvénients des interfaces disponibles actuellement, et
en particulier la lourdeur de leur utilisation quotidienne. Mais elles ne
viennent pas sans des problématiques qui leur sont propres, comme le risque
inhérent à toute chirurgie et le coût important de ces dispositifs.
Nous avons ici surtout évoqué les
problématiques liées à l’enregistrement et au décodage de l’activité neuronale.
Mais il faut aussi être conscient que de nouvelles questions se posent dans le
traitement de telles quantités de données, aussi complexes. Une communication
en temps réel nécessite que ce traitement soit très rapide, ce qui est, on
l’imagine bien, très difficile à mettre en place.
Les interfaces cerveau-machine
sont un terrain de recherche extrêmement fertile actuellement. Il s’agit d’un
domaine passionnant qui permet de réunir des chercheurs de domaines très
différents, chacun apportant leur expertise pour aboutir à une interface la
plus performante possible.
SOURCES :
- Vansteensel
MJ, Jarosiewicz B. Brain-computer interfaces for communication. Handb Clin
Neurol. 2020;168:67-85. doi: 10.1016/B978-0-444-63934-9.00007-X. PMID:
32164869.
- Laureys S, Pellas F,
Van Eeckhout P, Ghorbel S, Schnakers C, Perrin F, Berré J, Faymonville ME,
Pantke KH, Damas F, Lamy M, Moonen G, Goldman S. The locked-in syndrome : what
is it like to be conscious but paralyzed and voiceless? Prog Brain Res.
2005;150:495-511. doi: 10.1016/S0079-6123(05)50034-7. PMID: 16186044.
- Annen J, Laureys S,
Gosseries O. Brain-computer interfaces for consciousness assessment and
communication in severely brain-injured patients. Handb Clin Neurol.
2020;168:137-152. doi: 10.1016/B978-0-444-63934-9.00011-1. PMID: 32164848.
- Mugler EM, Patton JL,
Flint RD, Wright ZA, Schuele SU, Rosenow J, Shih JJ, Krusienski DJ, Slutzky MW.
Direct classification of all American English phonemes using signals from
functional speech motor cortex. J Neural Eng. 2014 Jun;11(3):035015. doi:
10.1088/1741-2560/11/3/035015. Epub 2014 May 19. PMID: 24836588; PMCID:
PMC4097188.
- Anumanchipalli GK,
Chartier J, Chang EF. Speech synthesis from neural decoding of spoken
sentences. Nature. 2019 Apr;568(7753):493-498. doi: 10.1038/s41586-019-1119-1.
Epub 2019 Apr 24. PMID: 31019317.
- Akbari H,
Khalighinejad B, Herrero JL, Mehta AD, Mesgarani N. Towards reconstructing
intelligible speech from the human auditory cortex. Sci Rep. 2019 Jan
29;9(1):874. doi: 10.1038/s41598-018-37359-z. PMID: 30696881; PMCID:
PMC6351601.
CREDITS
PHOTOS :
- Image par Clker-Free-Vector-Images de Pixabay
- Main
Esquisse Dessin - Image gratuite sur Pixabay
- Main Doigt
Estropié Avec Des - Photo gratuite sur Pixabay
- Par Paul Gavarni Поль Гаварни (рисунок Дантеса после побега)
/Тони Джоханно (обложка журнала) — Bibliothèque nationale de France, Domaine
public, https://commons.wikimedia.org/w/index.php?curid=17539493
- Image par Gerd Altmann de Pixabay
- By ElinorHunt - Own
work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=69676318
- By Blausen Medical
Communications, Inc. - see ticket for details, CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=26986798
- By OpenStax -
https://cnx.org/contents/FPtK1zmh@8.25:fEI3C8Ot@10/Preface, CC BY 4.0, https://commons.wikimedia.org/w/index.php?curid=30147954
- By Kevin Dufendach -
Own work, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=28204161
- By BruceBlaus. When
using this image in external sources it can be cited as:Blausen.com staff
(2014). "Medical gallery of Blausen Medical 2014".
WikiJournal of Medicine 1 (2). DOI:10.15347/wjm/2014.010. ISSN 2002-4436. - Own
work, CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=28086431
- By Lucs-kho at
English Wikipedia - Transferred from en.wikipedia to Commons by
Wildtierreservat using CommonsHelper., Public Domain, https://commons.wikimedia.org/w/index.php?curid=14798911
- fnac.com
- By Lucs-kho at
English Wikipedia - Transferred from en.wikipedia to Commons., Public Domain, https://commons.wikimedia.org/w/index.php?curid=9755480
- Image par mohamed Hassan de Pixabay
- Par
Balougador — [1], CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=3231052
- By
Amcclanahan - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=112445468
- Image par ulrichw de Pixabay
- By Andrii Cherninskyi - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=44035074
- By
Taken from NIH publication 97-4257, https://www.nidcd.nih.gov/health/aphasia
(https://www.nidcd.nih.gov/sites/default/files/Documents/health/voice/Aphasia6-1-16.pdf),
Public Domain, https://commons.wikimedia.org/w/index.php?curid=352704
- Image par Alessandra Alê de Pixabay
- By Badseed This
W3C-unspecified vector image was created with Inkscape . - Own work, data: see
below, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=3539944
- By No
machine-readable author provided. Ishwar~commonswiki assumed (based on
copyright claims). - No machine-readable source provided. Own work assumed
(based on copyright claims)., CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=1405439
- Par
Dake, Mysid — Vectorized by Mysid in CorelDraw on an image by Dake., CC BY 1.0,
https://commons.wikimedia.org/w/index.php?curid=1412126
- Par Balchimar — Travail personnel, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=18864649
- By
Cowplopmorris at en.wikipedia, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=10521829
- Par Thuglas sur Wikipédia anglais — Transféré de en.wikipedia à
Commons par Sreejithk2000 utilisant CommonsHelper., Domaine public, https://commons.wikimedia.org/w/index.php?curid=10827060
- By
File:1421 Sensory Homunculus.jpg: OpenStax Collegederivative work: Popadius -
This file was derived from: 1421 Sensory Homunculus.jpg:, CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=88916983
- By
Psiĥedelisto - Own work, Public Domain, https://commons.wikimedia.org/w/index.php?curid=53652991
- By
BruceBlaus. When using this image in external sources it can be cited
as:Blausen.com staff (2014). "Medical gallery of Blausen Medical
2014". WikiJournal of Medicine 1 (2). DOI:10.15347/wjm/2014.010. ISSN
2002-4436. - Own work, CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=31574255
- Image par Gordon Johnson de Pixabay