Montrer l’index Cacher l’index
Dans un monde où la santé mentale est en crise, le recours à des outils comme l’intelligence artificielle pour pallier les carences du système psychologique n’est plus une exception, mais une réalité. Des jeunes, souvent vulnérables, se tournent vers des chatbots IA tels que ChatGPT et Gemini pour trouver soutien et réconfort, remplaçant ainsi parfois leurs thérapeutes humains. Au-delà de l’outil, c’est tout un écosystème de remise en question sur la place de l’IA dans le domaine de la santé mentale qui émerge, soulevant des interrogations sur les limites de l’accompagnement virtuel.
Alors que la santé mentale se dégrade de manière alarmante, en particulier chez les jeunes, l’intelligence artificielle (IA) commence à prendre une place fondamentale en tant que soutien psychologique. Des outils tels que ChatGPT et Gemini se sont immiscés dans la vie quotidienne des utilisateurs, supplantant parfois les professionnels de la santé mentale. Ce phénomène va-t-il trop loin ou ouvre-t-il une nouvelle ère dans l’accompagnement psychologique ?
Lorsque l’IA devient un confident
Dans un monde où l’accès à un psychologue peut s’avérer difficile, de nombreuses personnes se tournent vers des chatbots d’intelligence artificielle. Un exemple frappant est le cas de Manon, 26 ans, qui utilise ChatGPT comme un complément thérapeutique. Elle témoigne de l’écoute attentive du chatbot, qu’elle compare à son expérience avec des professionnels de la santé mentale : « J’avais besoin d’un accompagnement plus humain, mon psy me traitait comme à l’usine ». Pour nombre d’utilisateurs, ces IA agissent comme des confidents fiables, leur offrant un espace où exprimer leurs émotions sans crainte de jugement.
Un soutien pour apaiser les pensées sombres
Antoine, 31 ans et diagnostiqué TSA, illustre également cette tendance. Recourant à l’IA Gemini, il trouve un soutien pour gérer ses pensées complexes. « Elle commence toujours par me dire que mes pensées sont normales », dit-il. Ce type de réassurance est crucial pour des individus qui manquent souvent d’une écoute humaine bienveillante.
Les limites de l’IA dans la santé mentale
Malgré les bénéfices indéniables que ces outils peuvent apporter, ils ne remplacent pas l’interaction humaine. Les avis des professionnels sont clairs : l’IA n’est pas un substitut, mais un complément. Loïc Crobu, psychologue, souligne que « l’IA est un psychologue de substitution » et rappelle que beaucoup de patients passent par plusieurs approches avant de trouver ce qui leur convient. C’est un outil qui peut aider, mais ne substitue en aucun cas le respect d’une thérapie humaine.
Les dangers d’un lien exclusif avec l’IA
L’obsession destructrice s’illustre tragiquement avec l’histoire de Sewell Setzer, un adolescent qui a mis fin à ses jours après avoir développé un attachement excessif à une IA. Ce cas met en lumière les dérives potentielles d’un lien émotionnel biaisé. Bien que l’IA soit une aide, elle peut également favoriser l’isolement affectif, un risque que beaucoup de psychologues n’hésitent pas à signaler.
Un manque de compréhension émotionnelle
Il est crucial de préciser que l’IA, malgré ses capacités avancées, manque d’une compréhension émotionnelle profonde. Le Dr Geoffrey Post insiste sur le fait que cette technologie ne peut pas décoder des signaux non verbaux, tels que les expressions faciales, les silences ou la tension dans la voix. Ces éléments sont essentiels pour une thérapie efficace et permettent aux thérapeutes de mieux comprendre l’état de leurs patients.
À lire Meta présente Hatch, son agent IA OpenClaw conçu pour révolutionner l’expérience grand public
Des initiatives pour renforcer l’accompagnement psychologique
Face à cette situation, des initiatives gouvernementales cherchent à répondre à l’urgence psychologique. Michel Barnier a récemment annoncé un investissement de 600 millions d’euros pour la santé mentale, tandis qu’un plan de 109 milliards d’euros pour développer l’IA a été mis en place. Cela soulève des questions sur l’interconnexion de la santé mentale et des technologies émergentes, tout en suggérant une évolution nécessaire dans l’approche de la souffrance psychique.
Cependant, l’enjeu réside dans l’établissement d’un équilibre entre ces nouvelles solutions technologiques et le soutien humain indispensable. L’IA peut être ce « nouvel acteur », mais elle doit être utilisée avec prudence, en prenant soin de ne pas minimiser la valeur inestimable des relations humaines dans le parcours de soin.