Le principe par lequel nous pouvons ressentir de l’empathie pour un robot à caractéristiques humaines porte un nom, Eliza. Un phénomène dont il faut se méfier.

Époustouflant, incroyable, surprenant… Ces mots sont ceux utilisés par les médias pour parler du premier présentateur télévisuel humanoïde chinois, inauguré récemment par l’agence de presse Xinhua News Agency. On se dit impressionné par la performance technique à concevoir ce genre de robot et par son apparence fortement anthropomorphique. Mais c’est ne pas considérer la réalité des mécanismes technologiques derrière cet amas de circuits électriques et de silicone. Ce robot est manipulé algorithmiquement par des humains, n’a aucune intelligence de situation ni aucune empathie. Et pourtant, il est évident que ce présentateur robotisé sans cœur et sans chaleur corporelle nous touche au point d’avoir envie de le féliciter pour sa première télé ! Nous sommes piégés, et le coupable de cette empathie spontanée n’est autre qu’Eliza. Un phénomène bien connu en Intelligence artificielle, mais méconnu des victimes qui se sentent émotionnellement engagées envers une machine à apparence humaine. Ne vous fiez pas aux apparences ! Eliza vous piège !

En 1966, le scientifique Joseph Weizenbaum, du Massachusetts Institute of Technology, développe un agent conversationnel du nom d’Eliza, qui communique à l’écrit avec des patients en psychothérapie. Eliza ne fait que reformuler les propos des patients sous forme de questions ou d’ajouter régulièrement des réponses comme « Je vous comprends. » Par exemple, à la phrase du patient « petit, je ne m’entendais pas avec mon frère », la machine pouvait répondre « petit, vous ne vous entendiez pas avec votre frère ? » Après quelques échanges de la sorte, le patient développait très fréquemment une empathie spontanée envers Eliza, qui lui semblait humaine. Depuis, nous parlons du phénomène Eliza pour décrire cette dépendance émotionnelle déclenchée par le contact et l’interaction avec un robot à forte ressemblance humaine dans ses mots, sa morphologie ou ses agissements. Nous jetons notre micro-onde cassé sans états d’âme, mais nous pouvons être tristes d’abandonner notre assistant vocal défectueux. Et pourtant, les deux possèdent des algorithmes sans aucun battement de cœur !

Se méfier des apparences

Le présentateur télévisuel robotisé chinois n’est pas humain, n’a aucune intelligence générale, et n’en aura sûrement jamais. Il n’a donc aucune conscience d’exister. Et pourtant, nous lui accordons une place particulière par ses caractéristiques fortement anthropomorphiques. Eliza a agi ! Qu’aurions-nous ressenti si ce robot était malencontreusement tombé de son siège, ou s’il avait perdu un œil ou un bras en direct ? Un malaise douloureux. Nous devons comprendre le fonctionnement de tels robots pour empêcher Eliza de prendre place dans nos vies, risquer de nous faire perdre notre esprit critique et in fine notre libre arbitre.

Paradoxalement, on parle davantage de ce robot à faible impact sur le monde que du robot LarvalBot, qui va bientôt repeupler les fonds marins de coraux pour la protection de la planète. LarvalBot n’a aucune apparence humaine, dommage pour lui, Eliza ne sera pas sa complice. C’est certain, l’impact d’une innovation est indépendant de ses caractéristiques anthropomorphiques. Il faut donc se méfier des apparences… et d’Eliza !


Publié dans le Point

Docteur en sciences de formation et entrepreneuse, elle navigue depuis plus de 10 ans dans les sciences numériques entre les États-Unis et la France. Aurélie a utilisé ses compétences en mathématiques et programmation informatique dans de nombreuses disciplines telles que l’ingénierie, la médecine, l’éducation, l’économie, la finance ou encore le journalisme. Aurélie s’engage plus généralement à développer un monde technologique inclusif en luttant contre les biais algorithmiques et en communiquant régulièrement et auprès du plus grand nombre sur les technologies numériques et l’intelligence artificielle.

Laisser un commentaire