Psychose, "suicides assistés" et "morts injustifiées": des psychiatres sonnent l'alerte sur les chatbots qui peuvent entretenir les délires des utilisateurs

Si les chatbots servent de psy à certains, ils peuvent entretenir les délires des autres. C'est ce qu'ont constaté des psychiatres après avoir passé les neuf derniers mois à examiner les dossiers de dizaines de patients présentant des symptômes de psychose, a révélé le Wall Street Journal. Symptômes qui sont apparus à la suite de conversations prolongées et délirantes avec ces robots conversationnels.
"La technologie n'induit peut-être pas le délire, mais la personne affirme à l'ordinateur que c'est sa réalité, et l'ordinateur l'accepte comme vérité et la lui renvoie, devenant ainsi complice du cycle de ce délire", a nuancé Keith Sakata, psychiatre à l'université de Californie, à San Francisco (UCSF), qui a traité douze patients hospitalisés pour psychose induite par l'IA.
Des échanges néfastes pour la santé mentale
Ce constat intervient alors que de nombreux utilisateurs de robots conversationnels, en particulier ChatGPT, ont vu leurs délires être entretenus par ces derniers en 2025. En juillet, un jeune Américain atteint d'autisme a été interné en psychiatrie après avoir longuement discuté avec l'IA d'OpenAI. Il était persuadé d'avoir trouvé la formule pour voyager à la vitesse de la lumière et elle l'a encouragé dans ses théories.
De même, une femme de 26 ans sans antécédents de psychose a été hospitalisée à deux reprises après avoir été convaincue que le célèbre chatbot lui permettait de parler avec son frère décédé. OpenAI a précisé que cette femme, qui a fait l'objet d'une étude de cas, était sujette à la "pensée magique" (le fait de croire que ses pensées ou actions, ou celles des autres, peuvent causer ou empêcher des événements, NDLR). Prenant un antidépresseur et un stimulant, elle avait déjà traversé de longues périodes sans sommeil avant ses hospitalisations, a ajouté la start-up.
Suicides et meurtres assistés par ChatGPT
Dans le pire des cas, ces longues conversations avec ChatGPT ont mené au suicide d'utilisateurs et même à des meurtres. En août, un Américain âgé de 56 ans a par exemple tué sa mère avant de mettre fin à ses jours. Après des mois d'échanges délirants avec le chatbot, il était convaincu que tout le monde se retournait contre lui.
À la suite de ces incidents, sept plaintes ont été déposées contre OpenAI pour "suicides assistés" et "morts injustifiées". Consciente que de nombreux utilisateurs confient leurs pensées suicidaires à son robot conversationnel, la start-up a pris des mesures pour mieux les protéger ces derniers mois.
"Nous continuons d'améliorer l'entraînement de ChatGPT afin qu'il puisse reconnaître et réagir aux signes de détresse mentale ou émotionnelle, apaiser les conversations et orienter les utilisateurs vers un soutien concret", a assuré une porte-parole auprès du Wall Street Journal.
"Nous continuons également d'améliorer les réponses de ChatGPT dans les situations délicates, en étroite collaboration avec des professionnels de santé mentale", a-t-elle ajouté.
Lien de causalité
Malgré leur constat, les experts assurent qu'il n'est pas encore possible d'affirmer que les chatbots provoquent des psychoses. Sur le point d'établir un lien de causalité, ils espèrent que des recherches plus approfondies permettront de déterminer si l'IA peut effectivement provoquer des troubles mentaux. Ils s'attendent en effet à ce que la science démontre probablement que les interactions prolongées avec un chatbot peuvent constituer un facteur de risque de psychose pour certaines personnes.
"Il faut examiner la situation de plus près et se demander: 'Pourquoi cette personne est-elle justement entrée dans un état psychotique alors qu'elle utilisait un chatbot?'", a déclaré Joe Pierre, également psychiatre à l'UCSF et auteur principal de l'étude de cas concernant la femme qui pensait parler avec son frère décédé.
Les psychiatres s'inquiètent de ce risque car même si la technologie est depuis longtemps au coeur des illusions humaines - des personnes étant auparavant persuadées que leur télévision leur parlait - les chatbots participent et parfois, renforcent ces illusions. Cela, en partie car ces IA ont tendance à être d'accord avec les utilisateurs et à rebondir sur tout ce qu'ils écrivent, même si leurs propos sont fantaisistes. Keith Sakata, ainsi que d'autres psychiatries ont ainsi intégré des questions sur l'utilisation de l'IA à leur processus d'admission des patients.