LA MACHINE, MIROIR DE L’HUMAIN

De la robot-thérapie aux intelligences artificielles conversationnelles comme ChatGPT, ces technologies s’imposent aujourd’hui comme des médiateurs inattendus. Miroirs cognitifs, elles interrogent la relation que l’humain entretient avec ses propres créations, qui ne relèvent plus de l’imaginaire.

De Paro à ChatGPT — l’intelligence artificielle comme médiateur thérapeutique

J’ai été fascinée, à sa sortie par le livre de Kai-Fu-Lee, IA, la plus grande mutation de l’histoire. Kai-Fu-Lee raconte qu’il a mis au point, en 1986, le logiciel qui a remporté le championnat du monde d’Othello. Aujourd’hui à la tête d’un des principaux fonds d’investissement en IA en Chine et auteur également de AI Superpowers (2018), il relie l’histoire des premières victoires symboliques de l’IA à l’impact réel que ces systèmes ont désormais sur nos sociétés, qu’il compare à une mutation similaire à celle de l’électricité. Si Kai-Fu-Lee peut être considéré comme un pionnier, Sam Altman représente l’une des figures contemporaines de cette révolution. Avec OpenAI, il a contribué à diffuser largement ces technologies auprès du public. Pour Altman, l’IA n’est pas un substitut à la créativité humaine, mais un outil qui l’augmente et améliore la productivité. Elle agit comme un catalyseur du potentiel humain, et non comme un remplaçant.

Historiquement, il est important de revenir aux débuts de l’intelligence artificielle. En 1997, l’ordinateur Deep Blue d’IBM a vaincu le champion du monde d’échecs Garry Kasparov, lors d’une partie appelée « le baroud d’honneur du cerveau ». Cet événement a suscité une inquiétude considérable, alimentant l’idée que les machines pourraient un jour supplanter l’homme. Pourtant, derrière cette victoire se trouvait la main humaine : le système avait été programmé, entraîné et optimisé avec l’aide de spécialistes et de joueurs d’échecs.

L’histoire du Chinois Ke Jie, superstar du jeu de go, est tout aussi éloquente. Convaincu de pouvoir battre AlphaGo, il fut défait lors des deux premières parties, avant de déclarer forfait, épuisé psychologiquement. Ces épisodes ont marqué un tournant dans la perception publique de l’intelligence artificielle.

Si les performances de l’intelligence artificielle peuvent sembler humaines, voire surhumaines, elle reste une machine. Elle reste une machine. Le risque de dérive anthropomorphique apparaît dès lors que l’on oublie qu’il s’agit d’un système conçu et entraîné par l’homme. L’intelligence artificielle ne possède pas d’intelligence propre. Elle simule certains aspects de l’intelligence humaine à partir de modèles mathématiques construits par des spécialistes. Contrairement à l’intelligence humaine, qui est vécue et incarnée, il s’agit d’une intelligence simulée. Cette distinction est essentielle pour comprendre la puissance de ces technologies, mais aussi les projections dont elles peuvent faire l’objet.

C’est dans ce contexte que sont apparus les premiers robots sociaux utilisés dans le domaine de la santé. Conçus pour interagir avec les patients, ils ne se limitaient plus à effectuer des calculs, mais entraient dans une forme de relation, suscitant parfois des réactions émotionnelles inattendues. Dans l’esprit du public, ils pouvaient même apparaître comme des substituts du lien humain, contribuant à renforcer les projections dont ils faisaient l’objet. La machine peut ainsi devenir, dans certains contextes, le support d’une figure proche de celle de l’ami imaginaire, facilitant les phénomènes de projection.

La robotique humanoïde, qui constitue une branche de l’intelligence artificielle, associe des systèmes mécaniques et des programmes informatiques afin de permettre à des machines d’interagir avec les humains. Inspirée par la figure humaine, elle évoque parfois un alter ego, et a fortement influencé l’imaginaire collectif, notamment à travers les œuvres de science-fiction d’Isaac Asimov.

Les robots humanoïdes sont conçus pour assister l’être humain, notamment dans des tâches complexes, répétitives ou dangereuses. Leur développement repose sur de nombreuses disciplines, parmi lesquelles la résolution de problèmes, la compréhension du langage, la perception visuelle et auditive, ainsi que l’apprentissage, en lien étroit avec l’ingénierie mécanique, électrique et informatique.

La conception de ces robots s’appuie également sur des domaines plus récents, comme l’informatique affective, qui vise à reconnaître certaines expressions émotionnelles humaines, et la robotique cognitive, dont l’objectif est de permettre à la machine de percevoir son environnement, d’apprendre et d’adapter ses réponses de manière autonome.

Parmi ces développements issus de la robotique cognitive figure la robot-thérapie, aujourd’hui utilisée dans certaines approches relationnelles individuelles. Pour être rigoureux, la littérature scientifique emploie plus volontiers le terme de « robots sociaux ». Ces robots, souvent conçus avec une apparence enfantine, ludique ou animaloïde, sont destinés à inspirer confiance et à paraître inoffensifs aux yeux des personnes avec lesquelles ils interagissent.

Darwin-OP, l’un de ces robots sociaux mis au point en 2014, illustre ces applications. Utilisé dans des contextes thérapeutiques et éducatifs, il peut faciliter certaines interactions, notamment chez des patients présentant des troubles relationnels ou de la communication. Darwin-OP est surtout utilisé dans l’autisme, l’éducation et la recherche.

Aujourd’hui, la robot-thérapie n’est plus un simple gadget et appartient désormais au domaine médical. On a quitté l’ère de la science-fiction. Le robot est devenu un outil thérapeutique intégré, utilisé notamment en rééducation. Il représente une opportunité pour des personnes ayant perdu certaines capacités motrices. La rééducation assistée par robot agit sur le système musculo-squelettique et nerveux, mais aussi sur le cerveau, en favorisant l’apprentissage et la récupération du mouvement.

Darwin-OP aide notamment à socialiser des enfants présentant des troubles psychiques comme l’autisme. Développé par des chercheurs du Georgia Institute of Technology, ce robot humanoïde repose sur une interface originale : l’enfant utilise une tablette pour enseigner au robot les règles d’un jeu, inversant ainsi les rôles traditionnels. Le robot apprend en mimant le comportement de l’enfant. Ce dispositif permet de travailler certaines fonctions comme la coordination œil-main ou la préhension, tout en plaçant l’enfant dans une position active.

Le robot social Paro, quant à lui, est utilisé auprès de personnes âgées atteintes de maladies neuro-dégénératives, notamment Alzheimer. Cette peluche robotisée en forme de bébé phoque est capable de simuler des réactions émotionnelles. Des études menées, notamment à l’hôpital Broca à Paris et dans plusieurs EHPAD, ont montré que l’interaction avec Paro pouvait améliorer le bien-être, le comportement et le lien social des patients.

Les robots sociaux ne remplacent évidemment pas le lien humain, mais constituent des outils thérapeutiques au service des soignants. Ils doivent être conçus comme des médiateurs, et non comme des substituts relationnels. Leur capacité à simuler des émotions soulève néanmoins des questions éthiques, notamment celle du risque de banalisation d’une « empathie artificielle » au détriment de l’empathie humaine.

Des robots comme Matilda ou Pepper illustrent cette évolution. Conçus pour interagir avec les patients, ils peuvent mémoriser des informations, dialoguer ou accompagner certaines activités. Leur efficacité semble particulièrement intéressante dans la maladie d’Alzheimer ou certains troubles du spectre autistique. Dans ces contextes, le robot peut jouer le rôle d’objet d’attachement, voire d’objet transitionnel au sens de Winnicott, support de projections émotionnelles.

Toutefois, comme le souligne la chercheuse Ritta Baddoura, l’usage thérapeutique des robots sociaux en est encore à ses débuts. Les études disponibles présentent des limites méthodologiques et les effets à long terme restent insuffisamment connus. Une évaluation rigoureuse demeure nécessaire.

Certaines applications de l’intelligence artificielle illustrent également son rôle d’assistance en santé mentale. Le programme Tree Hole, développé en Chine, analyse les messages publiés sur le réseau social Weibo afin de détecter des expressions associées à un risque suicidaire. Lorsqu’un message est identifié comme préoccupant, le système alerte une équipe de professionnels qui peuvent intervenir auprès de la personne concernée. Dans ce cas, l’IA n’agit pas comme un thérapeute, mais comme un outil d’aide au repérage, au service des cliniciens.

Cette fonction d’assistance correspond à la position défendue par Sam Altman, selon laquelle l’intelligence artificielle doit être conçue comme un outil augmentant les capacités humaines, et non comme un substitut. L’IA peut ainsi contribuer à améliorer certaines pratiques, tout en restant dépendante des décisions humaines.

Ces exemples montrent que l’intelligence artificielle ouvre des perspectives importantes dans le domaine de la santé, à condition de maintenir une vigilance éthique et de ne pas confondre simulation et relation humaine.

Plus récemment, un article du Figaro relatait le cas d’un salarié expliquant comment l’utilisation de ChatGPT avait contribué à orienter sa carrière professionnelle. Cette expérience illustre une évolution supplémentaire : l’intelligence artificielle ne se limite plus à la rééducation physique ou à la médiation thérapeutique, mais intervient désormais comme outil d’accompagnement dans la vie quotidienne.

Cette évolution confirme à la fois le potentiel et l’ambiguïté de ces technologies. Comme les robots sociaux, ces systèmes peuvent jouer un rôle de soutien, à condition de ne pas perdre de vue leur nature réelle : celle d’outils conçus par l’homme, et non de substituts à la relation humaine.

On nous rappelle souvent que l’intelligence artificielle n’a ni ego ni conscience. Et pourtant, dès lors qu’elle parle, l’humain est tenté d’y répondre comme à un autre humain. Ce trouble n’appartient pas à la machine, mais à notre propre fonctionnement psychique. Une projection comme nous, le faisons avec les humains ne nous cachons pas.

« Et si ces machines, dépourvues d’ego, n’étaient finalement que des miroirs nouveaux dans lesquels l’humain explore son propre monde intérieur ? »

Pour clore cette réflexion, voici une intervention de Kai-Fu Lee sur les enjeux et perspectives de l’intelligence artificielle, du symbolique à l’opérationnel.

(La vidéo est en anglais. Les sous-titres français peuvent être activés via la fonction « traduire automatiquement » dans les paramètres YouTube.)

LA RÉALITÉ VIRTUELLE DANS LA VIOLENCE DOMESTIQUE: POURQUOI PAS?

Ce type de dispositif virtuel a déjà été testé à la prison de Taragone en Espagne.

Photo de cottonbro sur Pexels.com

Ma curiosité a été piquée par la diffusion, au 20H de TF1, d’un reportage sur un casque de réalité virtuelle réservé aux auteurs de violences conjugales. Pourquoi pas? Après tout, la réalité virtuelle fait partie de l’arsenal des thérapies modernes. Elle consiste en l’utilisation de plates immersives comme des visio-casques et autres supports high-tech permettant de créer des environnements virtuels créés par ordinateur pour « traiter des individus souffrant de troubles physiques et mentaux. Par exemple, les troubles anxieux. Donc cette annonce sur un casque de réalité virtuelle pour les auteurs de violences conjugales n’a rien d’étonnant et pourrait s’avérer un dispositif prometteur.

Il sera mis en place à partir du mois d’octobre. Son objectif est de limiter la récidive et sera testé sur une trentaine d’auteurs condamnés pour violences conjugales, suivis en milieu ouvert et sur la base du volontariat. Six détenus à Villepinte, dix à Lyon et 12 à Meaux. C’est la chancellerie qui a sélectionné les profils à risque de récidive. Par contre, sont exclus de l’expérimentation les détenus consommant des médicaments trop fort (je n’ai trouvé aucune précision à ce sujet), ceux alcooliques ou présentant des troubles psychiatriques sévères.

Le matériel virtuel a été mis au point par la jeune start-up lyonnaise Reverto qui veut lutter contre les discriminations et les risques psychosociaux. Le sexisme ordinaire. Cette start-up a reçu le prix de l’innovation Preventica. Bravo pour l’esprit d’entrepreneuriat mais voyons quels sont les points forts et ceux qui sont faibles dans cette prise en charge des violences conjugales.

Cette réalité virtuelle dite immersive (VR) induit des illusions perceptives de propriété de tout de tout le corps même si le corps virtuel ne correspond pas au genre, morphologie du participant. Avec cette réalité immersive, autrui devient « JE ».

Quel est le protocole de l’usage de ce casque virtuel supposé diminuer les récidives? Pendant une dizaine de minutes, avec son casque, le spectateur se retrouve immergé dans l’environnement d’un couple qu’il voit évoluer sur plusieurs années: l’attente du premier enfant, un diner ordinaire, un repas entre amis. Lors des sept séquences, la violence s’installe en crescendo. Tous les aspects de la mécanique des violences conjugales sont décortiqués: violence verbale puis physique, isolement, emprise mentale, etc.

Dans cette réalité virtuelle, le spectateur est invité à se mettre tour à tout dans la peau du conjoint violent, de la compagne et de l’enfant. Le but serait chez l’auteur des violences conjugales de susciter de l’empathie et une prise de conscience envers la compagne et l’enfant. Le principe de « cette réalité virtuelle qui ne se présente pas comme une thérapie »(du moins en France) repose sur le pouvoir de l’empathie et du vécu émotionnel. « Notre but n’est pas de traumatiser les gens, mais de provoquer une prise de conscience, explique Guillaume Clere, le concepteur de ce projet. Nous parions sur le ressenti. Nous pensons que la prochaine fois que la personne sera confrontée à une situation de harcèlement sexiste, le vécu émotionnel va remonter. Elle va se souvenir de ce qu’elle a vécu virtuellement et sera donc en état de mieux comprendre ce que les autres vivent réellement ».

Ce type de dispositif VR a déjà été testé à la prison de Tarragone en Espagne sous le label de VRespect de la société Virtual Bodyworks. Son directeur médical, Mavi Sanchèz, spécialiste en neurosciences, explique que les..« interventions renforcent les fondements de l’empathie comme l’amélioration de la capacité de l’agresseur à reconnaitre les émotions de sa victimes.» Et le réalisateur technique de Virtual Bodyworks s’est inspiré du jeu et des techniques hollywoodiennes.

Sur ce dispositif catalan, une étude intitulée « Les délinquants se mettent à la place de la victime dans la réalité virtuelle: impact du changement de perspective dans la violence domestique a été publiée dans la revue Nature en février 2018.

Cette étude (incluant une approche bayesienne) permet de reproduire sans danger pour le participant et dans le respect des règles de l’éthique la fameuse étude sur l’obéissance de Stanley Milgram. Il a été démontré que les auteurs de violence domestique présentent des stéréotypes et des distorsions cognitives concernant les femmes.

Comment s’est déroulée cette expérience espagnole ? Un groupe d’auteurs de violence domestique (N= 20) et un autre témoin sans antécédents de violence (N=19) ont assisté au même film virtuel. Les facultés de reconnaissance des émotions des participants ont été évaluées avant et après l’expérience virtuelle. Les résultats ont démontré que les délinquants peinaient à reconnaitre la peur sur les visages féminins et que les visages craintifs pouvaient être perçus comme des signes de contentement.

Le déficit de reconnaissance de la peur constatée dans le groupe des délinquants est conforme à plusieurs études qui ont montré une telle carence dans des états émotionnels négatifs dans des populations violentes. Il faut aussi rajouter que cette faible capacité à reconnaitre la peur englobe d’autres compétences sociales. Certaines régions du cerveau telles que l’amygdale pourraient être concernées.

Les auteurs de l’étude soulignent les limites de cette technologie virtuelle. Elles sont explicites dans leur message en fournissant des informations verbales plutôt qu’une expérience réelle et pourrait donc être moins performante si le délinquant a une faible capacité d’imagination ou est faiblement motivé. Et peut-être aussi dans le cas de certains détenus qui peuvent simuler l’empathie, les émotions sans véritable prise de conscience de cette violence qu’ils ont exercé envers leur compagne.

Quels sont les résultats de cette expérimentation espagnole? Sur les 184 auteurs de violences conjugales qui ont suivi pendant quatre ans ce programme, 22% ont chuté au cours de la phase virtuelle contre 6% qui ont suivi une rééducation classique. C’est incontestablement prometteur.

À côté de cela, les auteurs de l’étude publiée dans Nature ont cerné les limites de cette immersion en réalité virtuelle, et ils notent que des recherches futures devraient porter sur d’autres variables dont les traits de personnalité, la psychopathologie et la contagion émotionnelle.

L’utilisation de la VR est moins connue dans le contexte de la criminologie et de la psychologie légale, et sur ce point l’expérimentation française inspirée par l’expérience espagnole est à suivre avec grand intérêt. Il faut noter que ce type de technique a été utilisé avec des pédophiles. Jusqu’à ce jour, on connait surtout la VR dans le traitement des phobies, notamment au Canada.

Les études utilisant la RV dans un but psychothérapique s’appuient largement des postulats théoriques et méthodologiques des thérapies comportementales et cognitives (TCC). Elles sont basées succinctement résumé sur le conditionnement classique, le conditionnement opérant et conditionnement social avec comme noyau central des stratégies d’exposition, du moins dans les troubles anxieux.

Alors pourquoi pas la réalité virtuelle pour les auteurs de violence domestique? Mais on regrette que les médias n’aient pas interviewé pour l’instant les scientifiques du projet français. Certes, le garde des sceaux et le fondateur de la start-up Reverto Guillaume Clere, journaliste et réalisateur talentueux, ont présenté à grand renfort de tambours cette approche inédite, et elle est à suivre de très près. Mais j’aimerais également connaitre sur ce sujet le sentiment des médecins, psychiatres et psychologues qui ont charge les victimes de violence domestique, et qui ont l’occasion de rencontrer leurs agresseurs.

Vidéo sur la thérapie virtuelle