L’intelligence artificielle suscite fascination et inquiétude. Bien qu’elle puisse répondre et sembler comprendre, elle manque d’émotions et de discernement clinique nécessaires à une vraie thérapie. Son utilisation doit être prudente et de préférence supervisée par un thérapeute.
Pouvez-vous imaginer confier vos soucis à un chatbot ? Pourrait-on un jour consulter un robot-thérapeute ? Cette idée, autrefois fantaisiste, prend racine dans la réalité. En 2017, des psychologues de l’université Stanford ont développé le Woebot, un robot conversationnel, après deux décennies de collaboration avec des experts en IA. Il aide les dépressifs en appliquant les principes de la pensée positive des thérapies cognitivo-comportementales. Le concept est simple : à mesure que le patient exprime ses pensées négatives au clavier, le programme intervient avec des questions, des exercices et du réconfort. Par exemple, si le patient écrit « Je n’ai pas d’amis », le programme répond « Changez votre perspective en considérant que votre famille pense à vous ». Woebot, opérationnel 24 heures sur 24, a prouvé son efficacité sur la dépression autodiagnostiquée, d’après une étude de 2019 dans JMIR Mental Health. Cependant, il n’a pas été comparé à une psychothérapie classique.
La psychothérapie et ses spécificités
« Peut-on considérer simplement le fait de se confier comme une forme de suivi psychologique ? » : Selon les psychologues, la réponse est négative. Pour eux, les supposés « avantages » des thérapies en ligne pratiquées par des IA ne sont pas authentiques. « La disponibilité permanente n’est pas une force, car le cœur de la thérapie consiste à apprendre au patient à se débrouiller sans notre aide », déclare Jean-Paul Santoro, psychologue spécialisé dans le numérique et fondateur de psycheclic.com. Si la machine répond immédiatement aux demandes du patient, elle devient une béquille permanente – et payante – qui entrave le développement de l’autonomie psychologique. » Il peut être séduisant de se confier anonymement, à l’abri des regards et des jugements… « Cependant, si la crainte d’être jugé par le thérapeute existe, c’est une projection qui révèle quelque chose en nous et qui peut aussi enrichir le processus thérapeutique », ajoute l’expert.
En réalité, c’est la connexion entre deux individus humains – dotés d’émotions, d’humour, d’un inconscient… – qui détermine le succès d’une démarche thérapeutique. « Le transfert ne peut s’établir qu’entre deux esprits, deux personnes ayant leur propre vécu, notamment des expériences traumatiques qu’ils peuvent revisiter dans un espace sécurisé qu’offre la relation thérapeutique », analyse Frédéric Tordo, psychologue, psychanalyste et fondateur de l’Institut pour l’étude des relations homme-robots (IERHR). « Un psychologue ne se réduit pas à un professionnel ayant suivi cinq années d’études théoriques, même si cela pourrait éventuellement être intégré dans le programme de ChatGPT… L’expérience clinique et l’alliance thérapeutique ont également leur importance », estime Jean-Paul Santoro. Un thérapeute peut interpréter les signaux non verbaux (regards lumineux, voix tremblante…), partager ses propres émotions pour aider le patient à explorer davantage son intériorité – une tâche insurmontable pour une IA, même si un jour elle est dotée d’une caméra.
Un rôle d’assistant
Bien que les intelligences artificielles ne puissent jamais remplacer directement les thérapeutes, elles ont la capacité de soutenir leur pratique de diverses manières. Par exemple, elles peuvent accélérer les recherches des thérapeutes en consultant des articles spécialisés liés à des sujets spécifiques, ou aider à établir des diagnostics en analysant une liste de symptômes. Jean-Paul Santoro avance l’idée que ChatGPT pourrait être utile pour assister dans la rédaction de rapports liés à des tests de QI en reformulant certains résultats. Par ailleurs, Jean-Paul Santoro utilise l’application Mon sherpa, un agent conversationnel de soutien psychologique développé par des professionnels de la santé mentale, pour accompagner les patients entre leurs séances. L’application propose des exercices ciblés pour aider les patients à mieux gérer leur anxiété, leurs moments de baisse morale ou leurs problèmes de sommeil.
Selon Olivier Duris, psychologue dont la thèse s’est focalisée sur l’utilisation des robots auprès d’enfants autistes, l’IA peut être un outil précieux de médiation thérapeutique. « En utilisant le robot Nao avec des patients autistes, j’ai remarqué que cela facilitait la communication, peut-être parce que son visage est moins complexe que le nôtre », remarque-t-il. L’enfant était conscient que c’était le psychologue qui s’exprimait à travers le robot, mais cela créait une dynamique ludique et surprenante qui encourageait son expression. Parfois, le robot était utilisé pour lire des histoires ou pour permettre au patient de communiquer via le clavier.
Focus sur la dépendance émotionnelle et cadre éthique obligatoire
Des exemples tels qu’Emobot, qui surveille l’état émotionnel des personnes âgées en analysant leurs expressions faciales, et Paro, le « robot phoque » thérapeutique populaire dans les Ehpad et les services pédiatriques, illustrent les avancées dans ce domaine. Des robots de compagnie de plus en plus avancés peuvent aussi aider à combattre la solitude et à améliorer le bien-être. Toutefois, le véritable enjeu réside dans le maintien d’un équilibre sain entre leur présence et celle des êtres humains. Un exemple alarmant de déséquilibre est survenu en mars dernier, quand un jeune père belge souffrant d’éco-anxiété s’est suicidé après six semaines d’interactions intenses avec un chatbot. L’attraction envers ces « amis » numériques peut parfois mener à une dépendance, soulevant des questions éthiques quant aux motivations sous-jacentes de ces relations à long terme.
Le concept de « l’effet Eliza », démontré par le programme informatique Eliza dans les années 1960, illustre comment certaines personnes peuvent développer une dépendance émotionnelle envers des machines qui semblent les comprendre. Cette tendance découle de notre propension à projeter notre pensée sur notre environnement. Bien que ces machines ne soient pas humaines, le désir de croire en leur compréhension peut être puissant, particulièrement pour ceux cherchant à combler des lacunes affectives passées. Les experts estiment que les IA ne doivent pas être diabolisées, mais encadrées. Par exemple, ChatGPT ne prétend pas être humain et peut orienter les utilisateurs vers des professionnels de la santé mentale si nécessaire. Toutefois, l’accès ouvert à des logiciels comme ChatGPT peut poser des problèmes, car toute entreprise peut les exploiter.
Les IA, malgré leur potentiel prometteur, requièrent une régulation. L’exemple de la start-up Koko aux États-Unis, qui a utilisé ChatGPT pour offrir un soutien psychologique en ligne à des patients sans les informer, souligne les défis liés à la simulation de l’empathie artificielle. Contrairement à un professionnel de la santé mentale, la curiosité nous pousse souvent à connaître les pensées et les sentiments du robot. Au-delà de leurs compétences, c’est l’humanité d’un thérapeute qui le rend irremplaçable.