CorentinLuce (« libéral-transhumaniste ») pour Contrepoints s’entretient avec Laurence Devillers, professeure en IA en Sorbonne
« Par une glaciale matinée de janvier 1966, le Pr Joseph Weizenbaum, informaticien au MIT (Massachusetts Institute of Technology), vient de marquer l’histoire, même s’il l’ignore encore. Après plusieurs années de conceptions et d’améliorations, le premier chatbot (robot logiciel pouvant dialoguer avec un individu par le biais d’un service de conversations automatisées) de l’histoire est créé. ELIZA, tel est le nom de son programme informatique.
Le chabot fut alors utilisé pour dialoguer par écrit avec des patients en psychothérapie. Son fonctionnement était extrêmement rudimentaire : ELIZA se contentait de reformuler les propos du patient, les transformait en question et ajoutait de temps à autre des phrases comme : « Je vous comprends ».
Résultat ? Les patients se sont progressivement attachés à ELIZA, au point de développer une forme de dépendance. C’est « l’effet ELIZA ». Pourtant, ce chatbot était incapable de répondre et se bornait à faire parler le patient en continu. Cette expérience, aussi terrible qu’instructive, a montré que dans la majorité des cas, le patient ne souhaite pas qu’on lui réponde, il veut simplement être écouté. Être écouté, à n’importe quel prix, fut-ce une simple illusion.
L’illusion, les fantasmes. Véritable credo quand il s’agit d’aborder l’IA. Alors que des dirigeants politiques veulent de nouveau ériger des murs, la frontière entre le réel et le virtuel se floute dans des proportions inquiétantes. Ironie de l’histoire, sans doute. Dans le même temps, les objets connectés et autres agents conversationnels font florès : toutes les grandes entreprises de la tech comme les startups se bousculent pour être au grand rendez-vous de l’innovation.
Joseph Weizenbaum, en créant ELIZA, voulait-il « démontrer que la communication entre l’Homme et la machine est superficielle » ? Un demi-siècle après, qu’en est-il véritablement ? Quels dangers comportent ces « amis virtuels » qui nous veulent du bien ?
Entretien avec Laurence Devillers, professeure en Intelligence Artificielle et en affective computing à Sorbonne Université. Elle est également chercheuse au CNRS au Laboratoire Interdisciplinaire des Sciences du Numérique, où elle anime depuis 2004 une équipe sur les « dimensions affectives et sociales dans les interactions parlées ». Laurence Devillers a également écrit de nombreux ouvrages sur l’IA et les robots, le dernier étant La souveraineté numérique dans l’après-crise, aux éditions de l’Observatoire.
Vos recherches au sein du CNRS mêlent sciences cognitives, informatique et psychologie, linguistique et économie comportementale. En quoi cette pluridisciplinarité, notamment concernant le cerveau et les émotions, est-elle nécessaire pour appréhender les évolutions technologiques ?
Pendant longtemps, philosophes et scientifiques ont opposé raison et émotion. Aujourd’hui, l’évolution des connaissances scientifiques, grâce aux neurosciences, montre que les émotions sont nécessaires au fonctionnement cognitif, à la mémorisation, à l’apprentissage et à l’interaction.
La pluridisciplinarité apporte une meilleure compréhension des différentes émotions et du contexte dans lequel elles naissent. Travailler sur les liens entre perception, mémoire et émotions sous l’angle physiologique, neurobiologique, psychologique voire sociétal est fondamental pour une interprétation des signes expressifs émotionnels.
Les évolutions technologiques vont s’emparer de ces résultats pour améliorer l’impression que nous donne la machine, de nous comprendre, impression qui est réellement fausse car ces technologies ne comprennent ni le langage, ni les émotions. Elles ne font qu’interpréter des signes expressifs. Les recherches en pluridisciplinarité permettent également de mesurer le poids des émotions dans la construction de notre mémoire collective.
Dans votre ouvrage Les robots émotionnels : Santé, surveillance, sexualité… : et l’éthique dans tout ça ?, vous expliquez que les objets et machines connectés (robots, assistants vocaux comme Google HOME), ces « amis artificiels » au rôle grandissant, capables de saisir nos émotions et d’y répondre peuvent nous rendre dépendants : dans quelle mesure sont-ils synonymes de dangers et cela constitue-t-il un aveu d’échec pour une société que de déléguer autant de prérogatives à des machines ?”
La suite ci-dessous :
Jean Vinatier
Seriatim 2021
Aucun commentaire:
Enregistrer un commentaire