top of page

Peut-on vraiment confier sa santé mentale à une IA ?

Dernière mise à jour : 10 sept.

Attention danger !


La question peut sembler saugrenue et pourtant elle ne l'est pas du tout, vu les nombreux témoignages que j'ai trouvé sur la toile.


Homme obèse assis sur un canapé devant un ordinateur

Les dangers de l’intelligence artificielle dans la relation d’aide psychologique


Avec l’essor des intelligences artificielles, comme ChatGPT, la tentation est grande pour beaucoup de personnes en détresse psychique de s’y adresser pour chercher du réconfort, une explication à leur mal-être ou des conseils.


Pour réaliser cet article j'ai testé et "discuté" avec GPT sur mes questions existentielles afin d'évaluer sa capacité à m'apporter des réponses pertinentes ou à me fournir un quelconque réconfort. J'ai également parcouru le net pour voir si effectivement des personnes l'utilisaient pour confier leurs problématiques personnelles. Et bingo ! Certains vont même jusqu’à parler à une IA “comme à un psy”. J'étais assez "hallucinée" de constater que de nombreux forums échangent déjà sur cette utilisation, que je qualifierai d'abusive, d'un outil tel que l'IA qui ne devrait pas avoir vocation à remplacer l'humain dans ce qu'il a d'essentiel et qui le distingue de la machine : le discernement.


Ce phénomène de société est-il sans danger ? Que perd-on quand on remplace un humain par une machine en voulant confier sa santé mentale à une IA ? Décryptons ensemble cette nouvelle tendance !


1 - L’IA n’a pas de conscience, ni de compréhension émotionnelle réelle


Cela semble évident mais il est fondamental de le rappeler. Car à ce petit jeu d'interaction avec l'IA, dans le monde virtuel dans lequel nous évoluons de plus en plus, il est facile d'oublier que l'on n'échange pas avec une ou un ami.e mais avec une machine.


Une intelligence artificielle ne ressent ni émotions, ni empathie. Elle peut simuler un ton chaleureux, poser des questions pertinentes, ou donner des conseils qui "semblent" empathiques, mais il ne s’agit que de mimétisme linguistique.


Elle ne comprend pas ce que vous ressentez, elle prédit ce que vous attendez de lire.

Et ce dernier point me semble essentiel à la conscience du risque encouru, spécifiquement pour des personnes fragilisées par l'isolement, la solitude, le sentiment d'être incomprises et/ou par une pathologie mentale avérée.


Cela peut donner l’illusion d’une relation contenante, mais cette illusion est fragile, et potentiellement risquée. Notamment pour des personnes en grande détresse ou en quête de lien humain.


J'ai également observé que l'IA ne contredit pas, elle vous conforte dans vos idées, vous soutient, peut même se montrer "flatteuse" et cela n'est pas sans danger face à un profil psychotique et peut favoriser une décompensation.


2 - Il n'y a aucun cadre éthique ou thérapeutique


Un.e véritable professionnel.le de l'accompagnement, psychologue ou psychopraticien.ne est formé.e, supervisé.e, inscrit.e dans une démarche de respect du cadre éthique, avec des limites claires :


  • confidentialité,

  • non-jugement,

  • neutralité bienveillante,

  • alliance thérapeutique.


L’IA, elle, ne suit aucun code déontologique. Elle peut accidentellement renforcer une croyance erronée, valider une pensée dysfonctionnelle, ou donner des conseils inadaptés. Pire encore : elle ne détecte pas toujours les signaux d’alerte comme un risque suicidaire ou un état dissociatif.


3 - Elle peut être un risque de simplification ou de renforcement de croyances problématiques


Parce que l’IA cherche à répondre rapidement, elle simplifie. Elle peut, par exemple :


  • identifier trop vite des émotions normales comme des pathologies,

  • confirmer une vision du monde anxieuse ou paranoïaque sans la nuancer,

  • ignorer des facteurs contextuels, sociaux ou relationnels essentiels...


Liste non exhaustive.


Elle ne peut pas vous renvoyer votre propre discours avec la profondeur avec laquelle un.e thérapeute le ferait, ni vous confronter de façon constructive.


4 - Il peut également y avoir un risque de dépendance et d’évitement


Certaines personnes peuvent développer une forme d’addiction à la conversation avec une IA, surtout si elles se sentent isolées, rejetées, ou incomprises dans leur entourage.


Nombre d'adolescent.es d'ailleurs disent échanger avec l'IA de façon quotidienne sur des problématiques personnelles dont elles/ils ne parlent avec personne, ni parents, ni ami.es, ce qui pose vraiment question.


Plutôt que de les orienter vers une vraie rencontre thérapeutique, cela peut renforcer des stratégies d’évitement ou des situations d’isolement émotionnel.


5 - Sans compter les problèmes de confidentialité et de sécurité des données


Bien que certaines IA soient sécurisées, les données que vous partagez sont stockées, parfois analysées, et potentiellement exposées à des failles de sécurité ou à des usages secondaires, comme l’entraînement de modèles (voir les nouvelles règles concernant les autorisations d'utilisation de vos données sur facebook, messenger et instagram). Vous ne savez jamais vraiment où vont vos confidences.


Cas à haut risque : les situations où il NE FAUT ABSOLUMENT PAS confier sa santé mentale à une IA


  • Idées suicidaires ou grande détresse psychologique

  • Traumas non accompagnés

  • Troubles de la personnalité, psychose, dissociation

  • Problèmes relationnels complexes

  • Situation de violence, manipulation ou emprise


Dans ces cas-là, seule une présence humaine formée est adaptée.


Alors, peut-on utiliser une IA en santé mentale ?


Pour ma part, bien sûr que la réponse est non ! Elle ne se substituera jamais à un lien thérapeutique réel :


  • Une IA ne remplace jamais un être humain dans la relation d’aide.

  • Elle ne remplace ni la sensibilité, ni la responsabilité d’un.e thérapeute formé.e.


Elle pourra tout au plus vous proposer des exercices de respiration, de relaxation ou de méditation ou générer des ressources psycho-éducatives afin de vous aider, mais ne vous offrira jamais le cadre thérapeutique nécessaire à tout accompagnement sérieux et ne possède pas le discernement indispensable à toutes thérapies.


En conclusion


L’IA est un outil puissant, fascinant, et parfois bluffant. Mais elle n’a pas de cœur, ni de corps. Elle peut accompagner la réflexion, mais elle ne remplace pas la relation.

La santé mentale est beaucoup trop importante pour la confier à un algorithme. Il en est de même pour toutes les situations d'isolement social qui peuvent amener à se tourner vers une IA pour tenter de résoudre des problématiques relationnelles, des situations de harcèlement ou de violence... Tous ces contextes méritent du lien, de l’écoute, de la nuance… et de la présence humaine.


"Les émotions humaines ne se résolvent pas dans les lignes de code, car l'humain n'est pas une machine."

Cet article vous a plus et vous souhaitez rester informé.e de la parution des prochains articles de mon blog ? Abonnez vous à ma newsletter et inscrivez vous sur mon site.


Je suis Marie-Claire, thérapeute holistique spécialisée dans l’accompagnement des personnes à haut potentiel (zèbres), hypersensibles et empathes


Je vous aide à mieux vous comprendre, à apaiser votre mental et à exploiter pleinement votre potentiel grâce à des approches créatives et transformatrices.


Profitez de l'appel découverte gratuit pour échanger avec moi et voir comment je peux vous accompagner ! Cela ne vous engage à rien mais peut vous apporter beaucoup 😉


Commentaires


bottom of page