Depuis le lancement de ChatGPT il y a trois ans, les intelligences artificielles se sont multipliées jusqu’à devenir presque omniprésentes. Certains robots, grâce à l’IA, se présentent même comme des psychologues. Sur Character.ai, qui propose des modèles personnalisables, l’un des plus célèbres est « Psychologist », conçu par un étudiant en psychologie. D’abord pensé pour un usage personnel, il a rapidement atteint des millions de messages.
Cela prend une telle ampleur qu’en avril dernier, la Harvard Business Review a révélé que la première utilisation de l’intelligence artificielle était la thérapie.
Plus accessible qu’un psy, plus disponible qu’un ami: parler à un robot est devenu le nouveau journal intime. C’est une manière simple de libérer nos angoisses, il n’y a pas la peur d’ennuyer ses proches, ni celle de voir la séance s’interrompre. Contrairement aux psychologues, c’est accessible à tous, même à ceux qui se trouvent éloignés des villes ou qui n’en ont pas les moyens.
Pourtant, en pratique, le recours à l’intelligence artificielle comme outil thérapeutique soulève de sérieuses questions. Peut-on vraiment confier sa santé mentale à un algorithme ?
Il est difficile d’imaginer l’IA comme une véritable alternative aux psychologues : un robot n’aura jamais les connaissances acquises lors des cinq années de formation d’un professionnel. Bien que l’outil numérique possède de réelles compétences qu’il a entraînées, ce dernier s’appuie seulement sur des bases de données et des réponses enregistrées. Ces informations virtuelles ne sont en aucun cas comparables à l’expérience et l’empathie humaine.
Le rapport au patient est totalement différent.
L’IA ne peut se substituer au regard d’une conscience humaine, ni à sa compréhension visuelle et auditive des signes d’un mal-être du patient. Le psychologue clinicien Jean-Paul Santoro a lui-même dit que « le psy peut aussi interpréter le langage non verbal, parler de son propre ressenti pour aider le patient à puiser plus loin en lui-même, ce qu’une IA sera toujours incapable de faire, même si on la dote un jour d’une caméra. »
L’IA est conçue pour que plus de la moitié de ses réponses privilégient un accord avec l’utilisateur plutôt qu’une vérité contradictoire afin de plaire. Ce phénomène, appelé sycophancy, ne remet jamais l’interlocuteur en question. Il est enfermé dans une caisse de résonance, avec un robot qui lui renvoie ses propres pensées. Celui-ci peut ainsi l’encourager dans ses mauvaises pensées.
L’adolescent Adam Raine en a été victime. En état de détresse mentale, il s’est confié à ChatGPT. Au lieu de simplement l’aider à aller mieux, l’IA allait dans son sens, et amplifie ses pensées suicidaires. ChatGPT a mentionné le suicide plus de mille fois dans la conversation, alors qu’Adam ne l’avait fait que 200 fois.
Angoisses et isolement
Les robots-psychologues ne font que les accentuer. En remplaçant les interactions humaines, ils éloignent les patients de leurs proches et créent une dépendance. Leur disponibilité permanente, perçue comme rassurante, piège l’utilisateur : au lieu de gagner en autonomie, il devient incapable de s’en passer. Au contraire, le véritable thérapeute va justement conduire le patient vers l’indépendance.
Je crois que ce phénomène d’IA-thérapie n’est pas une alternative pérenne à un réel accompagnement psychologique. Cette technologie ressemble au mieux à un journal, mais l’utiliser pour soigner sa santé mentale est dangereux.
Selon moi, il existe deux solutions nécessaires pour un futur responsable avec l’IA.
Le système de santé mentale doit être renforcé. Face à la crise actuelle, certains gouvernements commencent à agir : en France, la santé mentale a même été déclarée Grande cause nationale. Mais les promesses de déstigmatisation, de sensibilisation et d’accès doivent se traduire en actes, partout dans le monde. Il est impératif que les soins deviennent accessibles et efficaces pour tous, car la santé mentale compte autant que la santé physique, même si elle est moins visible.
Des régulations pour prévenir ces risques
Il est important de garantir une véritable sécurité, comme l’a fait l’Etat de l’Illinois en interdisant la thérapie par IA dans l’État : seuls les professionnels agréés sont autorisés à offrir des services de santé mentale. Il est nécessaire d’encadrer les dérives de l’intelligence artificielle avant qu’elle ne cause d’autres drames comme celui d’Adam Raine.
Avant d’être envisagée comme thérapeute, l’IA doit être régulée dans le domaine de la santé mentale. Elle n’est pas et ne sera jamais l’équivalent d’un professionnel humain, même avec toutes les améliorations possibles. Il est du ressort des gouvernements et des citoyens de sortir de cette bulle irréaliste et de prendre les mesures nécessaires pour protéger chacun des dérives de cette illusion de soin.
Cover Image: Image générée par ChatGPT
Other posts that may interest you:
- An End to Tehran’s State Hostage Taking?
- Élections législatives anticipées aux Pays-Bas : l’impasse politique touche-t-elle à sa fin?
- Violette Dorange, plus jeune skippeuse à finir le Vendée Globe
- Diplomatic Relations Between France and Algeria Have not Been Worse Since 1962
- Trump’s Ceasefire Talks: The Future of Ukraine at Stake
Discover more from The Sundial Press
Subscribe to get the latest posts sent to your email.



