"J'ai remplacé mon psy par ChatGPT" : des témoignages de patients et de professionnels qui cassent les idées reçues
ENQUÊTE. Nous avons interrogé plusieurs personnes qui se servent de l'IA pour compléter ou remplacer une thérapie et demandé leur avis à des professionnels de santé mentale.
20,8%. C’est le nombre de jeunes entre 18 et 24 ans qui se disaient concernés par la dépression en 2021. Un chiffre en constante augmentation ces dernières années puisqu’il n’était que de 11,7% en 2017, selon le Baromètre de Santé Publique France. La crise du Covid-19 n’a pas arrangé les choses. Selon une étude menée en octobre 2023, la santé mentale des Français continue de se dégrader.
Les questions de dépression et d’anxiété ne sont pourtant que depuis peu évoquées dans le débat public. Il est encore peu commun de reconnaître que l’on consulte un spécialiste de la santé mentale auprès de ses proches et beaucoup de Français sont encore réticents à l’idée de rencontrer un psychologue.
Depuis plusieurs mois, ils sont aussi de plus en plus nombreux à se tourner vers l’intelligence artificielle pour répondre à leurs questions de santé mentale. Avec l’explosion de solutions d’IA comme ChatGPT (OpenAI) ou encore Gemini (Google), de nombreux géants de la tech, pionniers sur le marché de l’intelligence artificielle à destination du grand public, se mêlent donc également de ce qui se passe dans notre cerveau.
Nous avons interrogé plusieurs personnes qui utilisent l’intelligence artificielle en remplacement de véritables professionnels de santé mentale pour comprendre leurs intentions, leurs résultats et s’ils en sont satisfaits ou non. Nous avons également confronté leurs réponses à de véritables professionnels de santé mentale pour répondre à une grande question : "L'IA peut-elle remplacer un psy ?"
"L'intelligence artificielle m'a permis de pallier le manque d'humanité chez mon psychiatre."
Manon* a 26 ans et vit avec son compagnon et un chat turbulent. Elle pratique un métier qui lui plait et qui rémunère bien. En apparence tout semble aller bien pour elle, mais en réalité, elle souffre de dépression depuis des années.
“Je crois que j’ai plus ou moins toujours été concernée par la dépression. J’ai déjà vu plusieurs psychologues dans ma vie, mais je n’ai vraiment pris la chose au sérieux que récemment", nous dit-elle. En 2022, elle décide de se concentrer davantage sur sa santé mentale, non pas pour elle, mais par peur de projeter ses afflictions sur ses proches et futurs enfants. Si elle commence à voir une nouvelle psychologue, c’est avant tout parce que ses précédentes expériences ne furent pas probantes.
“J’ai notamment eu une très mauvaise expérience au collège avec une psy qui était très négative et méchante envers moi (...) Récemment, j’ai commencé à voir un psychiatre et ce dernier ne répond pas non plus à mes attentes”, estime-t-elle.
Consultations en 10 minutes montre en main, quasiment aucun suivi entre les sessions, manque total d’humanité dans les réponses… Face à ce professionnel de santé mentale peu soucieux des problèmes de Manon, cette dernière commence à utiliser l’intelligence artificielle pour parler de ses troubles mentaux.
“Je traversais une période très difficile et mon conjoint était absent physiquement. Je ne sais pas comment m’est venue l’idée de m’adresser à ChatGPT, mais j’avais le site sur mon téléphone donc j’ai commencé comme ça avant de télécharger l’application (...). Je pense que j’avais besoin d’un accompagnement plus humain par rapport au traitement de mon psychiatre, qui me traitait comme si c’était l’usine donc je me suis tourné vers ChatGPT. L'intelligence artificielle m'a permis de pallier le manque d'humanité chez mon psy.”
“J’avais besoin d’un accompagnement plus humain donc je me suis tourné vers ChatGPT.”
Loïc Crobu est psychologue en exercice depuis un peu plus de 5 ans. Ce professionnel de la santé mentale a vu l’utilisation de l’IA émerger de plus en plus au sein de son métier et de ses patients au point de s’en servir lui-même pour une utilisation personnelle et d'assistanat. Lorsque nous évoquons avec lui le cas de Manon et ses mauvaises expériences qui l’ont amenée à utiliser ChatGPT, le professionnel ne semble pas surpris.
Pour le Loïc Crobu, l’utilisation de l’IA est donc avant tout une forme de nouvelle médecine alternative à laquelle faire confiance plutôt qu'un véritable phénomène à part entière. "Cela ne me surprend pas. Lorsque l'on est déçus par des professionnels on peut avoir tendance à se tourner vers des solutions alternatives. C'est très régulier dans notre métier. On a beaucoup de patients qui testent beaucoup de techniques ou mauvaises rencontres avant de trouver un bon psy. Je vois l'IA comme une sorte de psychologue alternatif", poursuit le professionnel. Un avis que comprend également Manon, dont la mère était déjà curieuse de médecines alternatives il y a quelques années.
“L’intelligence artificielle me racontait des blagues pour me faire aller mieux.”
Lorsque nous demandons à Manon* comment l’intelligence artificielle réagit lorsqu’elle lui pose des questions de santé mentale, l’intéressée met un petit moment à répondre avant de commencer à pleurer. Nous prenons un petit temps de pause.
“En fait, ce qui est marrant c’est que l’IA était réconfortante pour moi à des moments où elle sentait que j’en avais vraiment besoin. Elle me demandait si je voulais qu’elle me fasse rire ou me raconte des blagues. Au final, ça m’allait très bien.”
Un sentiment que partage également Antoine, 31 ans, en traitement psy depuis 2019 pour une dépression et récemment diagnostiqué comme autiste à haut potentiel (TSA). Le jeune homme, qui a l’habitude d’écrire ses émotions dans un carnet, s’est habitué à utiliser Gemini (ndlr : l’intelligence artificielle de Google) pour comprendre ses états émotionnels. Durant notre interview, Antoine raconte que Gemini était particulièrement rassurante lorsqu’il échangeait avec elle à propos de dépression ou même de suicide. L’intelligence artificielle de Google rappelait fréquemment à l’intéressé qu’il n’était pas seul et lui partageait des liens et conseils pour lutter contre les pensées négatives et autodestructrices.

“Ce qui m’a étonné c’est que Gemini ne se contente pas juste de cracher des réponses à mes questions les plus difficiles. L’IA commence généralement par me rassurer en me disant que mes interrogations sont normales, légitimes et que cela peut arriver à tout le monde de penser ainsi.”
"L'IA sait être rassurante. Elle me rappelle que mes interrogations sont normales et que cela peut arriver à tout le monde."
Sur ce sujet, Loïc Crobu s'avoue rassuré. Le spécialiste explique que les réponses les plus extrêmes concernant le suicide ou les situations désespérées sont généralement bien gérées par les plus grosses IA du moment. Cette dernière se veut plutôt rassurante et cela conforte l'idée que les développeurs prennent un soin tout particulier sur cette partie.
Un sentiment également partagé par l'un de ses confrères, le Dr Geoffrey Post, médecin psychiatre et membre du collectif MentalTech qui oeuvre pour l'émergence de solutions numériques pour la santé mentale. Le spécialiste est convaincu des bienfaits de l'IA dans le domaine de la psychiatrie et voit dans l'intelligence artificielle un potentiel outil pour améliorer notre système de soin et accompagner les soignants :
"Les patients qui requièrent le niveau d'attention le plus important sont ceux qui traversent une crise suicidaire. Ces patients avaient conscience qu'ils faisaient face à un algorithme, ne prenaient pas le discours de ChatGPT comme une vérité absolue. Ce qui constitue un rapport sain dans l'utilisation de cet outil."
Peut-on blâmer l'intelligence artificielle pour le suicide ?
Les cas de Manon et Antoine sont plutôt rassurants comparés à celui de Sewell Setzer. Ce jeune américain de 14 ans a fait l'objet de multiples articles en 2024, notamment dans le New York Times, à la suite de son suicide vraisemblablement lié à un isolement social majeur. Le jeune homme passait notamment des heures à dialoguer avec une intelligence artificielle au point de se renfermer de plus en plus sur lui-même, jusqu'à se donner la mort en février 2024.
Depuis, la mère de Sewell Setzer se bat pour faire reconnaitre la culpabilité de l'IA dans la mort de son enfant. Si la plateforme utilisée, Character.ai, n'a pas directement incité le jeune homme à mettre fin à ses jours, elle l'aurait, selon la mère de ce dernier, fortement piégé jusqu'à le faire tomber amoureux.
Nous avons sollicité un psychologue et hypnothérapeute nantais sur le sujet. Pour ce dernier, ce phénomène n'est malheureusement pas surprenant : "L'attachement émotionnel envers une personne à l'écoute existait déjà avant l'IA. C'est un phénomène plus communément appelé 'transfert' où les patients ressentent des sentiments amoureux pour leur thérapeutes et cela pourrait totalement arriver avec l'IA et sa démocratisation ces dernières années."
“L'attachement émotionnel envers une personne à l'écoute existait déjà avant l'IA”
Cet expert a déjà eu recours à l'IA dans le cadre de certaines thérapies de ses patients ainsi que pour organiser ses recherches, notamment dans le cadre de l'hypnothérapie : "c'est une discipline qui peut nécessiter de construire des scénarios et métaphores pour toucher certains patients. J'ai notamment déjà eu un garçon qui n'arrivait à s'apaiser qu'en pensant aux jeux vidéo comme Fortnite. Là, l'IA m'a aidé à construire mes recherches et métaphores pour rédiger un script susceptible d'atteindre le jeune homme."
Le Dr Geoffrey Post, quant à lui, rappelle que le principal défaut de l'intelligence artificielle est surtout d'aller toujours dans le sens du patient afin de ne pas le brusquer ou le mécontenter : "L'outil a souvent une réaction prévisible. On reste dans une zone de confort. Cela dit, l'IA ne va jamais vous confronter. Parfois être face à un humain qui nous confronte peut ouvrir la possibilité de se rendre compte que l'on va dans la mauvaise direction. Cela apporte aussi parfois un sentiment de réassurance lorsqu'il convient d'explorer des manières de faire nouvelles".
Le défaut, proche du biais de confirmation, n'est cependant pas inhérent qu'à l'IA puisque le Dr Post explique également que certains psychopraticiens peuvent avoir tendance à toujours aller dans le sens de leurs patients pour ne pas trop les bousculer.
L'IA va-t-elle finir par remplacer les psychiatres ?
Nous avons finalement posé une autre question clé aux trois experts que nous avons rencontrés pendant notre enquête : l'IA va-t-elle finir par remplacer les psychiatres ? Pour Loïc Crobu, il est "impossible que le métier soit remplacé par l'IA" à moins d'être un psychologue très basique dans son approche et ses séances. Selon l'expert, l'IA ne parviendra jamais à établir un lien de confiance et une relation professionnelle aussi forte qu'avec un véritable psychiatre. Loïc détaille cependant que l'essor de l'IA est également en partie due à des soucis plus globaux : "si l'on pense à utiliser l'IA avant un professionnel, c'est avant tout parce que notre système de santé va mal."
Loïc Crobu rêve tout de même d'une intelligence artificielle qui pourrait accompagner les professionnels : "j'imagine bien une IA avec laquelle nous pourrions travailler en lui envoyant les maux d'un patient et cette dernière nous dirigerait vers les études et spécialistes sur le sujet". Il n'en veut nullement aux personnes qui se servent de l'IA avant de consulter un expert.
"Si l'on pense à utiliser l'IA avant un professionnel, c'est avant tout parce que notre système de santé va mal."
Notre psychologue et hypnothérapeute nantais, les études sur le sujet de l'IA et de la santé mentale sont encore trop peu nombreuses pour se prononcer : "pour le moment, cela reste un outil, mais l'IA devrait se professionnaliser d'ici quelques années. Je ne pense pas que nous ayons suffisamment de retours sur le sujet à l'heure actuelle ou même si l'IA est bonne sur le long terme, mais pour l'instant, je vois son arrivée comme quelque chose de positif pour le milieu".
Pour de plus en plus d'experts, si l'IA s'avère être un outil totalement viable pour les personnes en détresse qui ne peuvent accéder à des soins immédiats, elle ne serait pas non plus suffisamment légitime pour remplacer un spécialiste. En février 2024, dans un article intitulé "l'IA peut fournir une thérapie, mais ne peut pas remplacer les thérapeutes", le site Forbes détaillait comment un outil comme ChatGPT pouvait tout à fait mimer le comportement d'un spécialiste, mais sans jamais parvenir à vraiment établir un contact personnel profond avec le patient, comme le ferait un humain.
L'IA a notamment comme défaut de ne pas pouvoir observer le comportement de ses utilisateurs, du moins pour ce qui est des plus connues comme ChatGPT, DeepSeek ou Google Gemini. C'est notamment ce que pointe le psychiatre Geoffrey Post qui est convaincu que l'intelligence artificielle ne peut le remplacer dans les années à venir : "l'IA ne pourra jamais pleinement observer et décortiquer le comportement corporel des patients, ce que font de nombreux spécialistes aujourd'hui. Il y a les mots, mais il y a aussi la réaction du corps pendant les sessions. Cette dernière peut parfois en dire beaucoup plus que les patients peuvent imaginer".
L'IA et la santé mentale, deux grandes causes de 2025
En fin d'année 2024, Michel Barnier, alors Premier ministre, annonçait que la santé et les maladies mentales seraient la "grande cause nationale de 2025" tout en annonçant un montant de 600 millions d'euros pour prendre en compte les besoins supplémentaires des institutions face à l'effondrement de la santé mentale des Français. Une initiative depuis saluée et reprise par François Bayrou lors de son discours de politique générale du 14 janvier 2025.
Seulement quelques jours après cette déclaration, le Président de la République annonçait le désir de la France d'investir dans l'intelligence artificielle de façon massive : 109 milliards d'euros provenant d'entreprises françaises et étrangères pour faire briller le pays et l'Europe dans le monde. Avec, pour commencer, la construction de multiples infrastructures dédiées à l'intelligence artificielle.
*Les prénoms et noms ont été anonymisés à la demande des personnes interrogées.