PERCEVOIR L’ÉMOTION AVANT SA SOURCE !
Les émotions sont des concepts très complexes,
philosophiques avant d’être scientifiques. Elles furent longtemps dédaignées
par les neuroscientifiques. En effet, comment concevoir étudier des phénomènes
aussi subjectifs, aussi personnels, aussi intimes ? Une démonstration
objective, scientifique ne peut tenir sur ces fondements. C’était avant qu’un
scientifique de génie, Antonio Damasio, un siècle après que Darwin l’ai
suggéré, ne les intègre dans le champ des neurosciences.
L’émotion n’est en effet pas un phénomène purement
subjectif. Certains éléments, certains processus physiologiques (comme
l’accélération du pouls, la transpiration…) et neurocognitifs sont communs à
l’ensemble des Hommes sur la planète. Un sourire est reconnu, du fin fond de la
forêt amazonienne jusqu’au cœur de l’Europe comme un signe de joie. Il faut
donc distinguer dans ce grand processus émotionnel l’émotion en elle-même,
processus neurophysiologique, et le ressenti émotionnel, propre à chacun,
subjectif. Seul le premier est accessible aux expérimentations.
En 2010, une équipe de l’hôpital de la Pitié-Salpêtrière, à
Paris, s’est intéressée à la perception des émotions, à partir de photos de
visages humains… et de robots. En effet, les mimiques sont un moyen particulièrement puissant pour permettre à des Hommes de communiquer des émotions entre eux. Cette étude est riche d’enseignements à propos de
la perception et du traitement des mimiques faciales émotionnelles par notre cerveau.
L’immense majorité des études sur les mimiques, depuis 40 ans,
se portent sur des stimuli émotionnels courants, qui proviennent de notre vie
de tous les jours, que ce soit des photos de visages ou des smileys. L’originalité
de l’étude des chercheurs dont on parle aujourd’hui, c’est qu’elle porte aussi sur
des robots dits « non-humanoïdes », des robots qui ne ressemblent pas
à des Hommes.
La perception des émotions par le biais des mimiques a été étudiée quasiment exclusivement dans un « contexte facial », l’étude parisienne tente de sortir de cette conception pour l’étudier à travers d’autres objets. Est-on capable de capter une émotion qui ne provient pas d'un visage humain ? Un simple objet est-il pourvoyeur d'une émotion ?
La perception des émotions par le biais des mimiques a été étudiée quasiment exclusivement dans un « contexte facial », l’étude parisienne tente de sortir de cette conception pour l’étudier à travers d’autres objets. Est-on capable de capter une émotion qui ne provient pas d'un visage humain ? Un simple objet est-il pourvoyeur d'une émotion ?
Photos utilisées lors de l'expérience : visage humain et robot non-humanoïde. Les annotations (AU : Action Unit) correspondent au codage du système FACS. |
Pour tenter de répondre à ces questions, ils ont présentés à 15 volontaires 4 types de
photos : les photos pouvaient représenter des humains ou des robots, et
pouvaient être soit neutres, soit joyeuses. Et ils se sont intéressés à 3
paramètres différents : en premier, ils ont cherché à mesurer le temps
nécessaire aux volontaires pour reconnaître les stimuli émotionnels -joyeux-
par rapport aux stimuli neutres. Ils se sont ensuite penchés sur 2 paramètres
neurologiques observables sur l’électroencéphalogramme (le fameux EEG, qui mesure l'activité électrique du cerveau) qu’ils
enregistraient pendant que les volontaires devaient reconnaître les émotions
présentées : l’onde P1 et l’onde N170.
L’onde P1 correspond à une activité du cortex visuel
occipital sur l'EEG, environs 100ms après avoir vu une image –qu’importe la nature de
cette image. On sait qu’elle peut être modulée pas les émotions. Cette
modulation proviendrait de l’amygdale ou du cortex préfrontal, et aurait pour
but d'attirer l’attention vers les stimuli émotionnels. C’est ce qui explique qu’il est
relativement simple de détecter un visage joyeux au milieu de visages
tristes.
Vous n'avez (normalement) pas trop de problème pour détecter où se trouve le smiley joyeux ! |
L’onde N170 signe la reconnaissance d’un visage par le
cerveau. Comme son nom l’indique, on l’observe 170ms après la présentation d’un
visage.
Mais avant d’aller plus loin, une question se pose : comment
peut-on être sûr que nos robots non-humanoïdes sont bien pourvoyeurs
d’émotions ? Pour que l’expérience marche, il faut que nos sujets arrivent
à percevoir une émotion à partir de ces robots !
Pour cela, les images de robots ont été construit à partir d’un système, le
FACS (pour Facial Action Coding System), qui permet de coder toutes les
mimiques faciales humaines en fonction des contractions des muscles de la face.
Il détermine précisément quels muscles s’activent, et leur degrés de
contraction, pour chaque mimique faciale. Les chercheurs ont ensuite vérifié que les
mimiques robotiques étaient bien reconnues par les humains : 98% des
personnes interrogées arrivaient à identifier l’émotion.
Quasiment tout le monde est donc capable de détecter les émotions présentes sur les visages de robot.
Quasiment tout le monde est donc capable de détecter les émotions présentes sur les visages de robot.
Mais revenons à nos 3 paramètres.
Les chercheurs ont tout d'abord constaté que les participants identifiait beaucoup plus vite le visage joyeux que le visage neutre. C’est une donnée qui était déjà connue, qui est expliqué par la modulation de l’attention dont on parle plus haut.
Les chercheurs ont tout d'abord constaté que les participants identifiait beaucoup plus vite le visage joyeux que le visage neutre. C’est une donnée qui était déjà connue, qui est expliqué par la modulation de l’attention dont on parle plus haut.
Comme on pouvait s’y attendre, l’onde P1 est modulée pour la perception des visages : elle est plus ample pour les visages joyeux que pour les
visages neutres. De plus, la même chose est observée chez les robots : le
cerveau capte bien une émotion à partir de ceux-ci !
Jusque-là, rien de surprenant, les données concordent :
les individus sont capables de décrire l’émotion véhiculée par un robot
non-humanoïde, et en effet, leur cerveau traite bien les robots comme des
stimuli émotionnels.
Mais une question subsiste : les robots, bien que je
vous répète depuis le début qu’ils sont « non-humanoïdes », sont ils
perçus comme des visages ? Leur forme s’y rapproche, le doute est permis.
C’est pour cela que les chercheurs se sont intéressés à
l’onde N170. Et ils ont observé que cette onde était beaucoup moins ample pour
les robots. En bref, ces derniers ne sont pas traités et détectés par le
cerveau comme des visages –même s’ils y ressemblent. Ils sont pris pour ce
qu’ils sont : des objets.
L'onde N170 est modifiée : elle est moins ample lorsque c'est un robot qui est perçu (courbe en pointillés). Ils ne sont donc pas perçus comme des visages. |
Dès lors, 2 conclusions s’imposent. Deux conclusions
étonnantes :
- D’une part le cerveau peut percevoir des émotions portées
non seulement par des visages, mais aussi par tout un ensemble d’objets. La
mimique faciale (qui porte une émotion) n’est pas le seul apanage du visage, elle peut être incarnée par
n’importe quoi !
A l’origine, chez nos ancêtres préhistoriques, on pense que les mimiques étaient indissociables des visages : elles étaient nécessaires à la survie de l’espèce. Ainsi, lorsqu’un congénère avait peur parce qu'il voyait une bête sauvage dans notre dos, il fallait être capable de le décoder sur son visage si on voulait fuir à temps pour ne pas être bouffé ! Puis, au cours de notre évolution, les émotions faciales se seraient progressivement désincarnées des visages pour devenir des signaux à part entière, qui désormais peuvent s’incarner dans un grand nombre d’objets.
A l’origine, chez nos ancêtres préhistoriques, on pense que les mimiques étaient indissociables des visages : elles étaient nécessaires à la survie de l’espèce. Ainsi, lorsqu’un congénère avait peur parce qu'il voyait une bête sauvage dans notre dos, il fallait être capable de le décoder sur son visage si on voulait fuir à temps pour ne pas être bouffé ! Puis, au cours de notre évolution, les émotions faciales se seraient progressivement désincarnées des visages pour devenir des signaux à part entière, qui désormais peuvent s’incarner dans un grand nombre d’objets.
Toutes ces images ne sont pas reconnues/traitées comme des visages par votre cerveau. Et pourtant, vous arrivez à discerner sans problème de la joie, de la douleur ou de la surprise !
Autrement dit, nous percevons l'émotion avant même de savoir
d'où elle provient !
SOURCES :
- http://www.cairn.info/ (photos tirées de
l’article, reprises sur ce site)- Dubal, S., Foucher, A., Jouvent, R., & Nadel, J. (2010). Human brain spots emotion in non humanoid robots. Social cognitive and affective neuroscience, nsq019.