🔲 Un robot peut-il vous consoler ?

Faites-vous preuve d’empathie ?

Est-ce que vous vous plaignez parfois du fait que vos proches ne se montrent pas suffisamment empathiques Ă  votre Ă©gard ?

Révisé 10 juillet 2020

Un robot peut-il vous consoler ? par Sylvie Gendreau

Un robot peut-il vous consoler ? par Sylvie Gendreau

Que dire maintenant des robots à qui, par téléphone, vous expliquez votre situation et qui peinent à comprendre une requête pourtant toute simple et qui finalement vous renvoient bêtement à un autre service. Vous vous dites sans doute que la technologie est encore très loin du robot efficace et emphatique capable de décoder une situation et de répondre rapidement à votre demande.

Mais qu'est-ce que l'empathie au juste ?
L'empathie est un concept difficile Ă  cerner !

Leslie Jamison* dans son livre The Empathy Exams se livre à un exercice révélateur en précisant tout d’abord tout ce que l’empathie n’est pas :

  • L’empathie n’a rien de mĂ©canique.

  • L’empathie n’est pas un simple rĂ©seau de connexions synaptiques.

  • L’empathie ne se rĂ©sume pas Ă  l’emploi des mots justes.

  • Il ne s’agit pas non plus d’une rĂ©ponse proportionnĂ©e Ă  la souffrance que l’on constate chez l’autre.

Finalement, elle conclut en affirmant que l’empathie c’est porter notre attention vers l’autre en tentant alors de dépasser notre repli, en tentant d’élargir nos horizons.

Ă€ la lumière de ce que Leslie Jamison vient d’énoncer, comment rĂ©agir face aux efforts de « modĂ©lisation » de l’empathie. Devant un concept aussi fuyant, comment ĂŞtre en mesure de le modĂ©liser ?

Un robot peut-il vous consoler ? par Sylvie Gendreau

Un robot peut-il vous consoler ? par Sylvie Gendreau

Si la tâche risque d’être ardue, elle répond toutefois à une nécessité. Les robots sont appelés à jouer un rôle prépondérant dans toute une panoplie d’activités humaines. Ils sont appelés à entrer directement en contact avec les humains et à communiquer avec eux. L’empathie computationnelle consiste à étudier les différentes approches par lesquelles des agents artificiels peuvent simuler et susciter l’empathie dans leurs interactions avec les humains.

Idéalement, un agent artificiel emphatique devrait être en mesure de se mettre à la place de son interlocuteur, de ressentir ses émotions, et de réagir de manière appropriée.

Des chercheurs ont passé en revue les différentes stratégies de développement d’agents emphatiques. Eux aussi se sont heurtés à la tâche difficile de définir ce qu’est exactement l’empathie.

Puisqu’il n’existe pas de définition unique, ils ont plutôt identifié trois catégories de définitions :

  1. Une réponse affective aux états émotionnels d’autrui.

  2. La compréhension cognitive des états émotionnels d’autrui.

  3. Une combinaison d’une réponse affective et d’une compréhension cognitive.

Ils ont ensuite opté pour la définition générale suivante : l’empathie est un processus psychologique par lequel un individu, dans un situation donnée, ressent des émotions compatibles (et pas nécessairement semblables) à celles vécues par un tiers.

Décrite ainsi, la situation qui donne lieu à la réaction emphatique est constituée des éléments suivants :

  • L’individu ou l’agent : celui ou celle qui rĂ©agissent Ă©motionnellement Ă  l’état affectif d’autrui.

  • La cible : l’autre qui exprime son Ă©tat Ă©motionnel.

  • L’évĂ©nement dĂ©clencheur dont est tĂ©moin, directement ou indirectement, l’observateur.

  • La situation ou le contexte dans lequel l’évĂ©nement se dĂ©roule.

  • Les facteurs de mĂ©diation tels que l’humeur de l’observateur ou de la cible, la prĂ©sence ou l’absence d’autres agents, les antĂ©rioritĂ©s, etc.

Prenons comme exemple FearNot!, un logiciel d’apprentissage qui explore l’empathie des jeunes enfants dans des situations d’intimidation et de harcèlement. Le jeu de rôle intègre des personnages 3D dans des scènes virtuelles qui reproduisent des situations d’intimidation. L’enfant fait l’apprentissage d’attitudes appropriées face à de telles situations, car il se sent en sécurité face à l’écran.

FearNot! fonctionne comme suit. Une scène se dĂ©roule Ă  l’écran. Les personnages (3D) sont dotĂ©s d’autonomie et ils gĂ©nèrent automatiquement des Ă©vĂ©nements. Ă€ l’écran, l’enfant (le joueur) est tĂ©moin d’actes d’intimidation. Il interagit avec la victime (verbalement, par le biais d’algorithmes de reconnaissance du langage) et la conseille sur ce qu’elle devrait faire. FearNot! est un exemple parmi d’autres de systèmes artificiels d’empathie.

Les chercheurs qui ont effectuĂ© le survol des approches actuelles d’empathie computationnelle reconnaissent que les nombreuses questions qui demeurent en suspens sont particulièrement difficiles. Qu’en est-il, par exemple, du contexte ?

Il s’agit d’une donnée très importante pour comprendre l’attitude emphatique à adopter. Pour modéliser correctement le contexte, un dispositif complexe de capteurs de données diverses devrait être mis en place pour recueillir, mémoriser et modéliser l’information requise ; des données qui par leurs natures (données physiologiques, métaboliques, cérébrales) complexifient considérablement la saisie.

Les agents emphatiques devraient aussi être dotés d’un degré élevé d’autonomie pour pouvoir faire face à une gamme de situations. Évaluer les agents est crucial pour améliorer leur performance.

Mais quoi mesurer au juste, et comment ? Enfin, comment réaliser la transition vers une empathie plus naturelle ? Une empathie qui ne serait pas strictement fondée sur un ensemble de règles préprogrammées visant à reproduire artificiellement des expressions émotionnelles humaines ?

La dernière question qui vient d’être soulevée, celle de l’empathie naturelle, constitue en quelque sorte le Saint-Graal de l’empathie computationnelle. Un chercheur japonais**** s’est récemment penché sur cette question.

Minoru Asada propose tout d’abord une définition à la fois simple (dans sa formulation) et complexe (dans ses implications) de l’empathie : l’aptitude qui consiste à se représenter l’état émotionnel d’un individu, tout en étant conscient des causes qui sont à l’origine de cet état.

Prendre la pleine mesure de cette définition suppose que celui qui fait preuve d’empathie est en mesure, par un processus d’introspection, de prendre conscience d’un état corporel qui n’est pas le sien. Pour bien saisir cette distinction, plusieurs éléments doivent être considérés :

  • Une panoplie d’élĂ©ments reliĂ©s aux neurosciences tels que la contagion Ă©motionnelle ou la distanciation cognitive qui permet d’avoir un point de vue sur une situation donnĂ©e.

  • L’empathie entraĂ®ne l’activation de diffĂ©rents rĂ©seaux neuronaux : des rĂ©seaux plus anciens et des rĂ©seaux plus rĂ©cents situĂ©s dans le nĂ©ocortex.

  • L’empathie se manifeste aussi par des voies physiologiques. Elle est modulĂ©e par toute une sĂ©rie de molĂ©cules (les neuropeptides, par exemple, qui facilitent la transmission de donnĂ©es dans le cerveau).

Vue sous cet angle, l’empathie computationnelle, ou plus spécifiquement l’empathie robotique serait un sous-ensemble de la robotique affective qui vise à comprendre le développement affectif de l’humain par le biais d’une approche constructive.

Comment incorporer dans un robot une telle intelligence affective ?

En deux Ă©tapes

  1. La construction d’un modèle du développement affectif (en tirant profit des recherches dans toutes les disciplines concernées ; en simulant les modèles avec de vrais robots et en vérifiant leur efficacité avec des humains)

  2. En développant de nouveaux outils de compréhension du développement affectif chez l’humain (mesure de l’activité cérébrale ; vérification du modèle sur des sujets humains ; mise à la disposition des robots des outils de reproduction des expériences psychologiques).

Il y a loin de la coupe aux lèvres. Comme Minoru Asada l’avoue lui-même, il n’est pas certain qu’un robot puisse un jour être en mesure de partager les émotions d’un être humain.

Après tout, le comportement d’un robot dépend entièrement des règles de programmation que son concepteur lui a inculquées et, par conséquent, il dispose d’une marge de manoeuvre très réduite pour apprendre à développer des émotions comme les humains.

Lorsque nous demandons aux machines de se comporter comme des humains, nous sommes alors obligés de décortiquer nos comportements dans le menu détail afin de mieux les comprendre pour ensuite les modéliser.

Mais ces efforts ont aussi pour effet de jeter une lumière parfois crue sur ce que nous sommes ou devrions être. Cela nous force à nous interroger.

Le fait de demander Ă  des machines de se comporter comme des humains nous incite Ă  nous questionner sur ce que signifie ĂŞtre une femme ou un homme.

Plus encore, le « toujours plus de machines » nous forcera peut-être un jour à nous distinguer des machines que nous avons créées et à préciser les aptitudes et les habilités qui nous différencient d’elles, comme l’empathie par exemple.

Screen Shot 2020-07-12 at 1.29.54 PM.png

Mais encore lĂ , posons-nous la question suivante :

Est-ce que l’empathie fait obligatoirement de nous de meilleurs humains ?

Est-ce que l’empathie est un remède aux incivilités croissantes qui affligent nos sociétés ?

Des études ***** rappellent que nos comportements altruistes sont souvent teintés de préjugés, à l’endroit, par exemple, de ceux qui nous ressemblent, qui font partie de notre famille, de notre tribu, de notre communauté.

Pour nous démarquer encore plus des machines, peut-être devrions-nous pousser nos efforts un peu plus loin et explorer ce que les bouddhistes nomment Metta : un terme sanskrit qui signifie bienveillance, et qui vise à faire preuve de compassion envers tous les êtres, sans distinction.

Nous n'avons pas besoin d'un agent artificiel pour apprendre l'empathie, on peut dĂ©jĂ  commençant avec de petits jeux entre nous, c'est l'exercice que je vous propose cette semaine. 

Envie de tenter l’expérience ?

Découvrez l’exercice No. 86

Jeux d’empathie


Références :

* Leslie Jamison 

** The Empathy Exams

*** La revue les différentes stratégies de développement d’agents emphatiques par des chercheurs

**** Un chercheur japonais

*****Des Ă©tudes

Précédent
Précédent

Humains + IA 🔲 pour prévenir un suicide

Suivant
Suivant

J’avais la mauvaise habitude de… 🔸