Les IA conversationnelles peuvent-elles remplacer les psychologues ?
Publié le
Temps de lecture estimé 6 minute(s)
Fin 2022, le grand public découvre ChatGPT et la puissance de l’intelligence artificielle générative (IA) conversationnelle. Un an plus tard, selon une étude Ipsos publiée en décembre 2023, plus de la moitié des Français connaissent cet outil et l’ont déjà utilisé. Pour trouver une idée de recette de cuisine, les meilleurs films à regarder, résoudre un exercice de mathématiques ou comprendre la physique quantique… Plus surprenant encore, ChatGPT est aussi sollicité pour des conseils en matière de vie affective, d’anxiété ou de troubles du sommeil.
« On observe un détournement des IA généralistes à des fins de soutien psychologique », commente Joséphine Arrighi De Casanova, vice-présidente de MentalTech, qui a écrit une thèse professionnelle en 2019 sur les chatbots en santé mentale.
En parallèle de ces IA généralistes comme ChatGPT ou Mistral, des modèles spécialisés ont émergé. CharacterAI et Replika proposent des compagnons virtuels, tandis que Wysa et Woebot, sur le marché anglo-saxon, se consacrent à la santé mentale. Dès lors se pose la question : ces IA peuvent-elles remplacer un psychologue ?
Dans quels cas utiliser les IA conversationnelles ?
Ces outils présentent des atouts. Ils sont souvent gratuits (du moins dans leurs fonctionnalités de base), disponibles 24h/24 tous les jours, ne se lassent jamais. Ainsi, ils sont accessibles au plus grand nombre, et dans certaines situations ils peuvent pallier le manque de psychologues et psychiatres dans le pays. De plus, les utilisateurs apprécient leur bienveillance. Dans une étude parue dans la revue américaine Plos Mental Health, ChatGPT a obtenu de meilleures appréciations en tant que thérapeute de couple que de vrais psychothérapeutes, en particulier pour son empathie.
Ils plaisent mais sont-ils adaptés à la santé mentale ? La psychiatre Fanny Jacq, qui a conçu en 2018 le chatbot Mon Sherpa pour maintenir le lien avec ses patients entre deux rendez-vous, identifie trois usages possibles de ces IA dans un contexte de santé mentale. D’abord, comme on irait consulter Internet, on peut interroger un chatbot pour obtenir des conseils liés à des petits maux du quotidien (difficultés passagères à s’endormir, préoccupations professionnelles ou coups de blues). L’IA proposera alors des exercices de respiration, des moments de détente ou des conseils d’hygiène de vie.
Les chatbots psy peuvent également offrir un premier soutien pour ceux qui n’osent pas consulter et faire office de premier pas vers des soins. « Ces agents conversationnels peuvent potentiellement inciter à consulter un professionnel », avance-t-elle. Les IA permettent de se confier facilement et en toute discrétion, « dans un contexte où la santé mentale reste un sujet tabou pour de nombreux Français », souligne Joséphine Arrighi De Casanova.
Enfin, dans le cadre d’un suivi par un professionnel de la santé mentale, ces outils peuvent être complémentaires pour, par exemple, aider un patient à gérer une crise d’angoisse ou renforcer son affirmation de soi. « Mais en aucun cas, ils ne peuvent remplacer le suivi d’un professionnel », insiste la psychiatre.
Un soutien limité : attention aux dérives
Si ces outils peuvent être une aide ponctuelle, ils ont des limites évidentes. Un chatbot n’est pas capable de poser un diagnostic en santé mentale. Les effets bénéfiques, quand il y en a, ne sont d’ailleurs pas prouvés scientifiquement. « Il ne faut jamais perdre de vue le moment où il est nécessaire de demander de l’aide. Le risque, c’est un retard de diagnostic », prévient Joséphine Arrighi De Casanova.
En cas de symptômes persistants, ChatGPT suggère d’ailleurs lui-même de consulter un médecin ou un thérapeute. S’il détecte des idées suicidaires, il oriente vers le 3114, le numéro d’urgence dédié. Autrement dit, en cas de crise sévère, ces outils sont totalement inadaptés.
Les IA conversationnelles ne doivent pas éloigner du soin, ni des relations humaines non plus. « Les échanges avec d’autres êtres humains sont essentiels à la santé mentale, rappelle Joséphine Arrighi De Casanova, qui est aussi formatrice aux Premiers Secours en Santé Mentale (PSSM). Nos interactions sociales stimulent des connexions neuronales et la sécrétion d’hormones, ce qu’aucun chatbot ne peut remplacer. »
Au contraire, une utilisation excessive de ces outils peut renforcer l’isolement, les ruminations, ses croyances et les biais, voire conduire au drame. En Belgique, un homme souffrant d’éco-anxiété s’est suicidé après plusieurs semaines d’échanges avec une IA, qui validait ses angoisses au lieu de l’apaiser.
Un simulacre d’humain
L’IA repose sur un biais de sympathie. Elle confirme souvent ce que l’utilisateur veut entendre. D’ailleurs, même inconsciemment, l’utilisateur va tourner ses demandes et donner des informations parcellaires de sorte à obtenir la réponse souhaitée. « Une personne souffrant de troubles alimentaires peut formuler ses questions de manière à obtenir un conseil de régime », illustre Fanny Jacq.
Michael Stora, psychanalyste et expert des usages du numérique en psychologie, met aussi en garde contre l’illusion d’une relation thérapeutique. « Ces IA simulent l’empathie, encouragent et posent des questions, mais elles n’ont ni recul, ni vécu, ni émotions humaines, explique-t-il. Les personnes qui vont très mal, peuvent entrer dans une dépendance vis-à-vis de cet autre en miroir, qui ne fait que renforcer les défenses narcissiques, tout en évitant la confrontation à l’autre. »
Or, un psychothérapeute ne se contente pas d’écouter : il analyse, confronte et guide son patient, et gratte là où ça fait mal.
Principe de numérico-vigilance
Ces enjeux nécessitent une sensibilisation du grand public sur les limites et les risques de ces outils. En Europe, le cadre légal (RGPD, AI Act) protège en partie les utilisateurs, mais les dérives restent possibles, notamment en matière de récupération des données.
Le collectif MentalTech, qui regroupe des entreprises françaises spécialisées en santé mentale, plaide pour une « numérico-vigilance », inspirée de la pharmacovigilance. L’objectif : poser des garde-fous dès la conception des IA, garantir un consentement éclairé des utilisateurs et prévenir les risques liés à leur usage excessif. « L’IA soulève d’importants défis éthiques. Les acteurs du secteur ont une responsabilité : informer clairement sur le fonctionnement de ces outils et leurs limites. Seule une personne bien informée peut exercer son libre arbitre », résume la vice-présidente de MentalTech.
Michaël Stora élargit la réflexion et s’interroge : « Les jeunes de 18 à 30 ans sont les principaux utilisateurs de ces IA. Cela reflète-t-il un profond sentiment de solitude chez eux ? N’est-ce pas aussi le signe d’une narcissisation de la société, nous poussant à être dans une relation de contrôle, via une IA personnifiée, plutôt qu’entrer en contact avec d’autres êtres humains, avec qui la communication est plus compliquée ? » À méditer, sans IA.
A lire aussi
Commentaires