© blackCAT E+
Depuis l'essor de l'intelligence artificielle, de plus en plus d'internautes l'utilisent comme un confident numérique, pour parler de leurs problèmes personnels, existentiels ou émotionnels. Mais s'il peut être un bon confident ou un vrai soutient émotionnel, Chatgpt peut-il prendre la place d'un psy ? Pour Johanna Rozenblum, psychologue clinicienne à Paris, rien n'est moins sûr !
L'essentiel
Résumé par l’IA, validé par la Rédaction.
Si le concept d'intelligence artificielle ne date pas d'hier, sa présence s'est largement imposée dans notre quotidien au début des années 2020, avec l'arrivée de Chatgpt. Aujourd'hui, près d'un français sur deux y a recours de façon plus ou moins régulière, et près de 10% des échanges sont d'ordre personnel. De plus en plus de personnes y ont recours pour se confier, s'épancher et trouver une forme de soutien psychologique. Pourtant, de l'avis des psychologues, et même de l'IA elle-même : cette dernière ne pourra jamais remplacer un psychologue.
Mon psy : ChatGPT est-il un bon psychologue ?
Si vous lui posez directement la question, Chatgpt vous répondra sans ambiguité : "Si l’IA peut être un soutien conversationnel, une oreille attentive ou un outil de réflexion, elle n’est pas un psychologue au sens humain du terme. Elle fonctionne plutôt comme un miroir ou un carnet interactif qui pose des questions et reformule vos propos, mais elle ne remplace jamais un accompagnement professionnel".
Pour Johanna Rozenblum, psychologue clinicienne à Paris, c'est une évidence qui tient à plusieurs choses, et en particulier à l'absence de lien humain entre le thérapeute et son patient. "
Si l'IA peut écouter sans juger, reformuler nos propos, proposer des pistes de réflexion, aider à organiser nos pensées, suggérer des techniques générales de gestion du stress ou encore donner des conseils très pragmatiques : il lui manque indéniablement l'intuition clinique. "Tout ce que le psy capte des nuances dans le discours, l’intonation de la voix, un teint qui rougit, qui blêmit, une émotion qui monte, le corps qui parle, les silences ... ne sont pas perçu par l’IA" explique la psychologue.
Dans quels cas peut-il être un bon soutient ?
Gratuite, disponible 24h/24 sans nécessité de se déplacer et toujours bienveillante, l'IA a tout pour séduire les personnes en quête d'une oreille attentive et non jugeante. "Se mettre à nu devant un inconnu peut être vulnérabilisant et gênant, c'est une des raisons pour lesquelles beaucoup ne passent pas ce cap. L'IA n'impose pas ces contraintes, c'est aussi cette facilité d’accès qui fait son succès" admet Johanna Rozenblum.
Beaucoup de personnes l'utilisent comme un espace de réflexion, de questionnement et d'échanges au quotidien. "
Elle peut aussi être utile pour prendre du recul dans une situation relationnelle conflictuelle ou tendue. Elle peut par exemple permettre d'envisager différents points de vue, servant alors de miroir neutre, efficace pour calmer une réaction à chaud.
L'IA peut également être utilisée pour mieux gérer un stress ou une anxiété légère, .en rappelant des techniques simples connues en psychologie : respiration cohérence cardiaque, mise à distance cognitive, organisation des priorités, méditation ... cela peut, pour certaines personnes, suffire à retrouver un peu de calme ou à remettre de l’ordre dans leurs idées.
"Je pense que l'IA peut surtout être une première étape, un tremplin, pour des personnes qui n’osent pas encore consulter et qui en ressentent le besoin" termine Johanna Rozenblum.
PsyGPT et santé mentale : quelles sont ses limites et ses risques ?
La principale limite centrale et évidente d'un "psychologue virtuel" géré par IA est bien sûr l’absence de compréhension réelle. Une IA peut donner l’impression de comprendre une souffrance, mais elle ne fait que reconnaître des schémas dans le langage.
Ses réponses, bien que toujours teintées de bienveillance, restent générales, standardisées et parfois même inadéquates. En santé mentale, une même situation peut demander des approches très différentes selon la personne, son histoire, sa culture ou son état du moment.
Autre point essentiel, qui met cette fois en péril non plus l'efficacité du travail mais la sécurité d'un patient : l'absence de déontologie et de responsabilité étique et professionnelle.
Un psychologue humain sait repérer des signaux faibles : une manière de parler, une incohérence, un silence, une fatigue. L’IA, elle, dépend uniquement de ce qui est écrit. Si la personne minimise ou formule mal sa détresse, le risque est de passer à côté de quelque chose d’important.
Il y a aussi une limite évidente dans la responsabilité et la sécurité. "Un psychologue peut être amené à intervenir dans l'urgence en faisant appel à un collègue, une équipe pluridisciplinaire, un relais, les urgences un CMP. L'IA ne peut ni intervenir concrètement, ni assurer un suivi sécurisé et ne peut pas réorienter vers une aide réelle" ajoute Johanna Rozenblum.
En résumé, si l’IA peut accompagner une réflexion ou offrir un soutien ponctuel, elle ne peut pas traiter une souffrance psychique profonde. Dès qu’il y a dépression, traumatisme, idées suicidaires ou trouble mental, l’intervention d’un professionnel reste indispensable.
Quelles recommandations quand on l'utilise ?
La principale recommandation serait de rappeler clairement que l’IA n’est pas un thérapeute. Elle ne pose pas de diagnostic, ne connaît pas l’histoire clinique complète d’une personne et ne peut pas assurer un suivi dans le temps. Elle peut aider à mettre des mots sur un ressenti ou à prendre du recul ponctuellement, mais elle ne remplace pas une prise en charge réelle.

il y a 2 day
1



