LA ROBOT-THÉRAPIE, UN AVENIR PROMETTEUR!

Grâce au bot Tree Hole, l’équipe de psychologues a évité plus de 1000 suicides de jeunes Chinois. Selon l’OMS, le suicide est la deuxième cause de décès parmi les 15-29 ans.

L’Intelligence Artificielle a fait son entrée dans le domaine de la santé! L’une des questions qui se pose est de savoir si l’IA remplacera à temps plein les soignants ou en sera un simple auxiliaire? L’avenir nous le dira! Ne rejetons pas l’IA en pensant aux films cauchemardesques de SF hollywoodiens, ce serait vraiment dommage!

Certains programmes de deep-learning surpassent incontestablement les capacités humaines; les plus connus du grand public sont la reconnaissance d’image, la voiture autonome, le diagnostic médical et les robots intelligents. Concernant le diagnostic médical, une approche basée sur le machine-learning (une technologie d’IA explicitement liée au Big Data) assiste les médecins pour diagnostiquer les tumeurs cérébrales. Un exemple parmi d’autres. Derrière tous ces programmes qui peuvent faire douter de nos capacités cognitives, il y a d’abord l’intelligence humaine et les compétences scientifiques qui les ont créés.

Incontestablement, l’IA dépasse certaines capacités cognitives. Mais ce n’est pas le QI! Kai-Fu-Lee dans son livre « IA, La plus grande mutation de l’histoire » raconte qu’il a mis au point, en 1986, le logiciel qui a gagné contre un Américain le championnat du monde d’Othello (version simplifiée du jeu de go). En 1997, l’ordinateur Deep Blue d’IBM a vaincu le fameux champion du monde d’échecs Garry Kasparov lors d’une partie appelée « Le baroud d’honneur du cerveau ». De quoi inquiéter l’opinion publique qui pense que dans un avenir proche les robots vont prendre le contrôle de l’humanité et l’asservir! Nous en sommes loin! Il y a derrière le succès de Deep Blue la main et l’intelligence de l’homme. Le matériel informatique avait été programmé pour générer et évaluer rapidement les positions de chaque coup, et la conception du logiciel avait requis la contribution de champions d’échecs en chair et en os! L’histoire du Chinois Ke Jie, superstar professionnelle du jeu de go, est éloquente. Il se vantait à qui voulait l’entendre de gagner contre Alphago, un programme de Deepmind. Il fut battu à plates coutures dans des conditions psychologiques éprouvantes durant les deux premiers matchs; épuisé, il déclara forfait pour le troisième. Qu’à cela ne tienne, il fut applaudi et soutenu par le public chinois, montrant ainsi que c’est la psyché humaine qui compte avant la machine, et que le discernement humain face aux performances de l’IA l’emporte!

Parmi les branches de l’IA, il y a la robotique! La robotique humanoïde conçu comme le plus ressemblant à l’homme semble être son alter ego, et il a fortement inspiré la SF! La robotique humanoïde est un ensemble de machines destinées à aider l’être humain ou le remplacer dans des tâches complexes ou dangereuses. La robotique s’appuie sur d’autres disciplines (la résolution de problèmes, la compréhension du langage, la vision, l’ouïe, l’apprentissage, etc.) et aussi sur l’ingénierie mécanique, électrique, hydraulique. La conception des robots humanoïdes se base également sur l’informatique affective (Affective computing) et sur la robotique cognitive (Cognitive Robotics). En quelques points, la robotique affective est capable de reconnaitre les émotions humaines, c’est à dire l’interaction entre la technologie numérique et les sentiments. Les principales capacités de la robotique cognitive sont de percevoir, représenter, apprendre l’espace, les situations le plus possible proches d’un fonctionnement cognitif induisant des réactions comportementales basiques!

Dans la catégorie des robots humanoïdes et de la robotique cognitive, il y a la robot-thérapie! La robot-thérapie en est à ses prémices mais déjà appliquée en thérapie relationnelle individuelle. D’ailleurs, pour être rigoureux, plus que le terme de robot-thérapie, les articles scientifiques sur le sujet emploient le terme de « robots sociaux ». Ces robots sociaux ont souvent une apparence enfantine, de type jouet ou animaloïde, ce qui va mettre en confiance la personne et en les rendant inoffensifs aux yeux des personnes avec qui ils doivent interagir. Darwin Op, L’un de ces robots sociaux, mis au point en 2014, rend ainsi d’immenses services en psychothérapie.

Darwin-Op aide à socialiser les enfants atteints de troubles psychiques comme l’autisme. Des chercheurs de l’industrie de Georgia Tech ont mis au point ce programme. Cette interface Enfant/Robot est originale car elle place l’enfant dans une dynamique active et non passive; le principe repose sur l’utilisation d’une tablette Android par l’enfant, qui lui va agir en enseignant au robot humanoïde les règles du jeu Angry Birds! Le robot va apprendre les règles du jeu en mimant le comportement des enfants. « Selon la programmation de Darwin-Op, il est possible d’agir sur plusieurs troubles en rééduquant par exemple la coordination entre l’oeil et la main ou la préhension.

Encore une application positive des robots sociaux! Une étude pilote, publiée en juillet 2018, du département de gériatrie de l’hôpital Broca à Paris, a montré une amélioration du bien-être émotionnel et subjectif de patients atteints de troubles neuro-dégénératifs grâce à l’interaction même brève (15 minutes) avec le robot social ©Paro, appelé aussi Blanchon. Paro est une peluche robotisée à la forme d’un bébé phoque à destination des personnes âgées souffrant de a maladie d’Alzheimer. Le petit phoque est capable de communiquer des émotions comme la joie, la surprise ou le mécontentement suivant le contexte. Une étude scientifique, a été réalisée dans onze EPHAD, et elle a montré que la présence de Paro améliorait la prise en charge de la douleur, le comportement, le bien-être et le lien social des résidents.

Les sympathiques robots sociaux ne remplacent évidemment pas le lien social et humain, mais aident les équipes soignantes! Il faut les concevoir comme des co-thérapeutes! Je reconnais que la prudence s’impose au regard de leurs capacités relevant du registre des émotions humaines! L’un des risques majeurs n’est-il pas de s’interroger sur la banalisation de « l’empathie artificielle » au détriment de l’ empathie naturelle? L’homme ne risque-t-il pas de devenir petit à petit asocial, formaté sur un réflexe pavlovien, se contentant de mimer le programme émotionnel d’un robot anthropomorphique, la psyché n’étant plus confrontée à un alter humain? Court-on vers le risque d’un émoussement affectif et émotionnel si les robots sont détournés de leur vocation première de co-thérapeute? Points d’éthique qu’il faut approfondir!

Pour compléter ma galerie de portraits des robots sociaux, citons Matilda qui a été conçue pour tenir compagnie aux personnes âgées et handicapées dans des centres hospitaliers. Matilda mémorise les visages, rappelle les horaires de prise de médicaments et capable d’animer des séance de bingo. Il y a aussi Pepper, qui analyse lui aussi comme ses « congénères » les sentiments comme mais aussi capable de danser, de plaisanter et de mener une conversation. Avec lui, on a presque envie de mener une vie de bâton de chaise!

Avec les robots sociaux, il y a manifestement un fort potentiel thérapeutique comme chez les personnes atteintes de la Maladie d’Alzheimer et dans certaines formes d’autisme. Le robot social joue le rôle d’un objet d’attachement voire d’objet transitionnel à l’instar de celui évoqué par Donal Winnicot pour les jeunes enfants, et transposable aux adultes. Manifestement, objet aussi de projections des émotions et sentiments.

La chercheuse en psychologie libanaise Ritta Baddoura dans son excellent article « Le potentiel thérapeutique de l’interaction homme-robot »reconnait que l’usage thérapeutique des robots sociaux n’en est qu’aux prémices. Elle souligne, avec éthique, les failles méthodologiques des études dont la brièveté de leur durée, les populations hétérogènes et l’absence de groupes contrôle en vigueur dans toute recherche scientifique académique. Si l’usage des robots sociaux est prometteur, il faut rechercher l’impact, à moyen et long terme, les éventuels effets indésirables comme d’éventuels le risque de générer des troubles psychiatriques qui leur sont liés (ou d’aggraver certains états) qui restent à ce jour inconnus, et qui devront pourtant être étudiés.

« L’écrasante majorité des ces études se concentre sur le développement robotique plutôt que que sur la mesure et l’analyse de son impact psychologique et mental. »

Personnellement, j’envisage l’avenir des robots sociaux dans une triade patient/thérapeute/robot où le robot est un co-thérapeute! Il semblerait que sur le plan de la recherche, cette interaction soit plus fréquente que celle de la dyade où le thérapeute contrôle à distance le robot.


La technologie moderne, l’IA et les robots sociaux peuvent soulever d’immenses interrogations au sujet de la liberté individuelle et du libre-arbitre. Même si ça ne colle pas stricto sensu à l’IA, je l’illustre par un fait relaté dans le Wall Street Journal: en Chine, dans certaines classes, les élèves sont équipés d’une camera et de capteurs oculaires pour analyser leur cerveau quand ils lisent et écrivent. Les professeurs et les parents y voient des gadgets « boostant » la réussite scolaire d’enfants ainsi « épiés « constamment »! Ne serait-ce pas, ni plus ni moins, que de la persuasion coercitive aux fins de modification du comportement, de la surveillance violant l’intimité psychique d’autrui? Un dévoiement de la technologie moderne, risque majeur applicable à l’IA en général mais aussi de cette discipline passionnante que sont les neurosciences. On freine et on contraint par la force toute forme de spontanéité de l’élève. Pour ces enfants, c’est un cauchemar. Chers lecteurs, êtes vous étonnés?

Malgré un fort risque de mésusage de l’IA en général, encore un apport positif des robots avec Tree Hole! C’est un bot, logiciel automatique ou semi-automatique qui interagit avec des serveurs informatiques. Ce bot est capable de détecter des messages suicidaires sur Weibo ( web chinois )! Il permet ainsi d’aider des psychologues à sauver des vies. Par ses algorithmes conçus pour détecter des messages contenant des idées suicidaires, le bot Tree Hole alerte un groupe de près de 600 spécialistes de la santé mentale, consultants et bénévoles qui vont alors contacter ces personnes à fort risque suicidaire en évitant leur passage à l’acte. Grâce à ce bot, l’équipe a évité plus de 1000 suicides de jeunes Chinois. Selon l’OMS, le suicide est la deuxième cause de décès parmi les 15-29 ans. Alors bravo à l’équipe qui a conçu Tree Hole pour assister les psychologues à être plus efficaces dans leur profession!

Comment fonctionne ce bot anti-suicide? Tree Hole analyse automatiquement Weibo toutes les quatre heures, sélectionnant vers le haut les messages contenant des mots et des phrases inquiétantes comme « mort », « libération de la vie » ou « fin du monde ». Le bot s’appuie sur un graphe de connaissances des notions et concepts de suicide, en appliquant une programmation d’analyse sémantique afin qu’il comprenne que « ne pas vouloir» et « vivre » dans une phrase sont des indices indiquant une tendance suicidaire.

L’IA est manifestement un défi à l’épreuve du feu. Ne nous leurrons pas, il y aura des dérives. Rien ne remplacera la chaleur humaine, mais l’IA offre de vastes possibilités dont il serait dommage de se priver dans le champ de la santé! Apprivoisons la avant de la rejeter, sans nous y soumettre.

Allons nous perdre notre libre arbitre avec la généralisation de l’IA? Les avis sont partagés! On peut appliquer à l’IA cette citation empruntée à Étienne de la Boétie: Pour que les hommes, tant qu’ils sont des hommes, se laissent assujettir, il faut de deux choses l’une: ou qu’ils y soient contraints, ou qu’ils soient trompés.

Je reste résolument positive sur l’apport positif de l’IA! C’est une merveilleuse avancée scientifique et technologique. Le philosophe Luc Ferry reste confiant sur notre capacité à garder notre libre arbitre face à la généralisation de l’IA:

Du reste, que je décide de faire confiance à un humain ou à un logiciel ne change rien à l’affaire, c’est toujours in fine moi qui décide de m’en remettre à un avis que je juge meilleur que le mien. Il est clair que le monde de l’IA nous impose de la vigilance, parler pour autant de «fin de l’individu» est en complet décalage avec la réalité d’un monde où la sacralisation narcissique du moi véhiculée par les théories du développement personnel venues des États-Unis est à l’évidence en progression géométrique.

Vidéo sur Paro, le sympathique robot-phoque.

https://www.google.com/search?rlz=1C5CHFA_enFR800FR800&sxsrf=ACYBGNRrz6cCFFpRB2pZdouaRKYzxbo8QQ%3A1574273349501&ei=RYHVXZufHsmBjLsP6ZCq8AE&q=les+enjeux+de+l%27IA+dans+la+sant%C3%A9+mentale&oq=les+enjeux+de+l%27IA+dans+la+sant%C3%A9+mentale&gs_l=psy-ab.3..33i22i29i30.8561.18225..18815…3.2..0.354.2997.8j15j1j1……0….1..gws-wiz…….0i71j0i22i30j0i22i10i30j33i160j33i21.wtoB14Lw7ZQ&ved=0ahUKEwjb1ZqesfnlAhXJAGMBHWmICh4Q4dUDCAs&uact=5

Auteur : Nicole Bétrencourt

Psychologue clinicienne, psychosociologue