• A propos
  • La rédaction
  • S’abonner
  • Contact
  • Mentions légales
Revue Passages
  • Actu
  • Portraits
  • Chroniques
  • Energie
  • Culture
  • Géopolitique
  • Gouvernance
  • Economie
  • Santé
Pas de résultats
Voir tous les résulats
  • Actu
  • Portraits
  • Chroniques
  • Energie
  • Culture
  • Géopolitique
  • Gouvernance
  • Economie
  • Santé
Pas de résultats
Voir tous les résulats
Revue Passages
Pas de résultats
Voir tous les résulats
Acceuil Santé

L’IA sera-t-elle votre futur psychologue ?

La Rédaction Publié par La Rédaction
23 octobre 2023
dans Santé
0
IA futur psychologue
Partager sur FacebookPartager sur Twitter

L’intelligence artificielle suscite fascination et inquiétude. Bien qu’elle puisse répondre et sembler comprendre, elle manque d’émotions et de discernement clinique nécessaires à une vraie thérapie. Son utilisation doit être prudente et de préférence supervisée par un thérapeute.

Pouvez-vous imaginer confier vos soucis à un chatbot ? Pourrait-on un jour consulter un robot-thérapeute ? Cette idée, autrefois fantaisiste, prend racine dans la réalité. En 2017, des psychologues de l’université Stanford ont développé le Woebot, un robot conversationnel, après deux décennies de collaboration avec des experts en IA. Il aide les dépressifs en appliquant les principes de la pensée positive des thérapies cognitivo-comportementales. Le concept est simple : à mesure que le patient exprime ses pensées négatives au clavier, le programme intervient avec des questions, des exercices et du réconfort. Par exemple, si le patient écrit « Je n’ai pas d’amis », le programme répond « Changez votre perspective en considérant que votre famille pense à vous ». Woebot, opérationnel 24 heures sur 24, a prouvé son efficacité sur la dépression autodiagnostiquée, d’après une étude de 2019 dans JMIR Mental Health. Cependant, il n’a pas été comparé à une psychothérapie classique.

La psychothérapie et ses spécificités

« Peut-on considérer simplement le fait de se confier comme une forme de suivi psychologique ? » : Selon les psychologues, la réponse est négative. Pour eux, les supposés « avantages » des thérapies en ligne pratiquées par des IA ne sont pas authentiques. « La disponibilité permanente n’est pas une force, car le cœur de la thérapie consiste à apprendre au patient à se débrouiller sans notre aide », déclare Jean-Paul Santoro, psychologue spécialisé dans le numérique et fondateur de psycheclic.com. Si la machine répond immédiatement aux demandes du patient, elle devient une béquille permanente – et payante – qui entrave le développement de l’autonomie psychologique. » Il peut être séduisant de se confier anonymement, à l’abri des regards et des jugements… « Cependant, si la crainte d’être jugé par le thérapeute existe, c’est une projection qui révèle quelque chose en nous et qui peut aussi enrichir le processus thérapeutique », ajoute l’expert.

En réalité, c’est la connexion entre deux individus humains – dotés d’émotions, d’humour, d’un inconscient… – qui détermine le succès d’une démarche thérapeutique. « Le transfert ne peut s’établir qu’entre deux esprits, deux personnes ayant leur propre vécu, notamment des expériences traumatiques qu’ils peuvent revisiter dans un espace sécurisé qu’offre la relation thérapeutique », analyse Frédéric Tordo, psychologue, psychanalyste et fondateur de l’Institut pour l’étude des relations homme-robots (IERHR). « Un psychologue ne se réduit pas à un professionnel ayant suivi cinq années d’études théoriques, même si cela pourrait éventuellement être intégré dans le programme de ChatGPT… L’expérience clinique et l’alliance thérapeutique ont également leur importance », estime Jean-Paul Santoro. Un thérapeute peut interpréter les signaux non verbaux (regards lumineux, voix tremblante…), partager ses propres émotions pour aider le patient à explorer davantage son intériorité – une tâche insurmontable pour une IA, même si un jour elle est dotée d’une caméra.

Un rôle d’assistant

Bien que les intelligences artificielles ne puissent jamais remplacer directement les thérapeutes, elles ont la capacité de soutenir leur pratique de diverses manières. Par exemple, elles peuvent accélérer les recherches des thérapeutes en consultant des articles spécialisés liés à des sujets spécifiques, ou aider à établir des diagnostics en analysant une liste de symptômes. Jean-Paul Santoro avance l’idée que ChatGPT pourrait être utile pour assister dans la rédaction de rapports liés à des tests de QI en reformulant certains résultats. Par ailleurs, Jean-Paul Santoro utilise l’application Mon sherpa, un agent conversationnel de soutien psychologique développé par des professionnels de la santé mentale, pour accompagner les patients entre leurs séances. L’application propose des exercices ciblés pour aider les patients à mieux gérer leur anxiété, leurs moments de baisse morale ou leurs problèmes de sommeil.

Selon Olivier Duris, psychologue dont la thèse s’est focalisée sur l’utilisation des robots auprès d’enfants autistes, l’IA peut être un outil précieux de médiation thérapeutique. « En utilisant le robot Nao avec des patients autistes, j’ai remarqué que cela facilitait la communication, peut-être parce que son visage est moins complexe que le nôtre », remarque-t-il. L’enfant était conscient que c’était le psychologue qui s’exprimait à travers le robot, mais cela créait une dynamique ludique et surprenante qui encourageait son expression. Parfois, le robot était utilisé pour lire des histoires ou pour permettre au patient de communiquer via le clavier.

Focus sur la dépendance émotionnelle et cadre éthique obligatoire

Des exemples tels qu’Emobot, qui surveille l’état émotionnel des personnes âgées en analysant leurs expressions faciales, et Paro, le « robot phoque » thérapeutique populaire dans les Ehpad et les services pédiatriques, illustrent les avancées dans ce domaine. Des robots de compagnie de plus en plus avancés peuvent aussi aider à combattre la solitude et à améliorer le bien-être. Toutefois, le véritable enjeu réside dans le maintien d’un équilibre sain entre leur présence et celle des êtres humains. Un exemple alarmant de déséquilibre est survenu en mars dernier, quand un jeune père belge souffrant d’éco-anxiété s’est suicidé après six semaines d’interactions intenses avec un chatbot. L’attraction envers ces « amis » numériques peut parfois mener à une dépendance, soulevant des questions éthiques quant aux motivations sous-jacentes de ces relations à long terme.

Le concept de « l’effet Eliza », démontré par le programme informatique Eliza dans les années 1960, illustre comment certaines personnes peuvent développer une dépendance émotionnelle envers des machines qui semblent les comprendre. Cette tendance découle de notre propension à projeter notre pensée sur notre environnement. Bien que ces machines ne soient pas humaines, le désir de croire en leur compréhension peut être puissant, particulièrement pour ceux cherchant à combler des lacunes affectives passées. Les experts estiment que les IA ne doivent pas être diabolisées, mais encadrées. Par exemple, ChatGPT ne prétend pas être humain et peut orienter les utilisateurs vers des professionnels de la santé mentale si nécessaire. Toutefois, l’accès ouvert à des logiciels comme ChatGPT peut poser des problèmes, car toute entreprise peut les exploiter.

Les IA, malgré leur potentiel prometteur, requièrent une régulation. L’exemple de la start-up Koko aux États-Unis, qui a utilisé ChatGPT pour offrir un soutien psychologique en ligne à des patients sans les informer, souligne les défis liés à la simulation de l’empathie artificielle. Contrairement à un professionnel de la santé mentale, la curiosité nous pousse souvent à connaître les pensées et les sentiments du robot. Au-delà de leurs compétences, c’est l’humanité d’un thérapeute qui le rend irremplaçable.

Article précédent

L’investissement dans les critères ESG augmente

La Rédaction

La Rédaction

Laisser un commentaire Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Dernières actualités

IA futur psychologue

L’IA sera-t-elle votre futur psychologue ?

23 octobre 2023
L’investissement dans les critères ESG augmente

L’investissement dans les critères ESG augmente

19 octobre 2023
fin conflit ukrainien scénario 2024-2025

Fin du conflit ukrainien : différents scénarios en 2024-2025

14 octobre 2023
USA IA médecins patients

De nouveaux États dans le BRICS, futur rival du G7

7 octobre 2023
Trump Biden 2024

Trump-Biden en 2024 : une affiche incertaine ?

1 octobre 2023
Santé : Quelle est la place de l’IA en 2023 dans le diagnostic ?

Santé : Quelle est la place de l’IA en 2023 dans le diagnostic ?

20 septembre 2023
matériau révolutionnaire stockage énergies révolutionnaires

Un matériau révolutionnaire pour le stockage des énergies renouvelables

13 septembre 2023
stopper vieillissement sang

Découverte : stopper le vieillissement grâce au sang

7 septembre 2023
L’IA pour dénicher l’infarctus

L’IA pour dénicher l’infarctus

1 septembre 2023
robots compagnons contrer solitude

Près de 70 % des médecins affirment que les robots compagnons peuvent contrer la solitude

22 août 2023
Revue Passages

Rubriques

  • Actu
  • Apps
  • Chroniques
  • Contributions
  • Culture
  • Développement Durable
  • Economie
  • Energie
  • Géopolitique
  • Gouvernance
  • Interviews
  • Non classé
  • Politics
  • Portraits, Entretiens
  • Review
  • Santé
  • Science
  • Startup
  • Tech
  • World

Dernières actualités

IA futur psychologue

L’IA sera-t-elle votre futur psychologue ?

23 octobre 2023
L’investissement dans les critères ESG augmente

L’investissement dans les critères ESG augmente

19 octobre 2023
  • A propos
  • La rédaction
  • S’abonner
  • Contact
  • Mentions légales

© 2019 Revue Passages.

Pas de résultats
Voir tous les résulats

© 2019 Revue Passages.