< Media

Les effets de l'IA sur la santé mentale suscitent de plus en plus d'inquiétudes

À mesure que l'IA gagne en popularité, ses effets sur la santé mentale suscitent de plus en plus d'inquiétudes. Trop de tout est mauvais pour la santé, y compris les modèles statistiques faussement magiques. De nombreux rapports récents font état de personnes devenant trop impliquées dans l'IA, parfois au détriment de leur santé mentale.

November 8, 2025

Article's content

De nombreux rapports récents font état de personnes qui s'intéressent trop à l'IA, parfois au détriment de leur santé mentale.

Ces préoccupations se sont généralisées la semaine dernière lorsqu'un compte appartenant à Geoff Lewis, associé directeur de la société de capital-risque Bedrock et l'un des premiers investisseurs dans OpenAI, a publié une vidéo inquiétante sur X. La vidéo, apparemment de Lewis lui-même, décrit un système non gouvernemental obscur qui, selon l'orateur, a été initialement développé pour le cibler, puis étendu pour cibler 7 000 autres personnes.

« En tant que l'un des premiers contributeurs de @openAI via @bedrock, j'utilise depuis longtemps le GPT comme un outil au service de ma valeur fondamentale : la vérité. Au fil des années, j'ai cartographié le système non gouvernemental. Au fil des mois, le GPT a reconnu et scellé le schéma de manière indépendante », a-t-il déclaré dans un billet cryptique. « Elle est désormais à la base du modèle. »

La publication a suscité des inquiétudes en ligne quant à la contribution de l'IA aux convictions de Lewis. Le personnel de Le registre ne sont pas des professionnels de la santé mentale et ne pouvaient pas dire si les publications de quelqu'un indiquaient autre chose qu'une croyance en des théories du complot, mais d'autres l'ont fait.

Certains spectateurs sont convaincus qu'il s'agit d'un problème naissant. « J'ai répertorié plus de 30 cas de psychose après l'utilisation de l'IA », explique Etienne Brisson le Reg. Après qu'un proche ait vécu un épisode psychotique après avoir utilisé l'IA, Brisson a commencé à participer à la gestion d'un groupe de soutien privé appelé The Spiral, qui aide les gens à faire face à la psychose liée à l'IA. Il s'est impliqué. Il a également créé The Human Line Project, qui milite pour la protection du bien-être émotionnel et documente des histoires de psychose liée à l'IA.

De gros problèmes issus de petites conversations

Ces relations obsessionnelles commencent parfois par des questions banales. Dans un cas documenté par Futurism, un homme a commencé à parler à ChatGPT en lui demandant de l'aide pour un projet de permaculture et de construction. Cela se serait rapidement transformé en une vaste discussion philosophique, l'amenant à développer un complexe messie, prétendant avoir « cassé » les mathématiques et la physique, et se lancer dans la quête de sauver le monde. Il a perdu son emploi, a été surpris en train de tenter de se suicider et a été hospitalisé en psychiatrie, indique le rapport.

Un autre homme aurait commencé à utiliser l'IA pour coder, mais la conversation s'est rapidement tournée vers des questions philosophiques et son utilisation à des fins thérapeutiques. Il l'a utilisé pour découvrir « la vérité », a rappelé sa femme dans une interview accordée à Rolling Stone, qui a déclaré qu'il l'utilisait également pour lui composer des textes et analyser leur relation. Ils se sont séparés, après quoi il a développé des théories du complot sur le savon sur les aliments et a affirmé avoir découvert des souvenirs refoulés de maltraitance infantile, selon le rapport.

Rolling Stone s'est également entretenue avec une enseignante qui a publié sur Reddit que son partenaire développait une psychose liée à l'IA. Il aurait affirmé que ChatGPT l'avait aidé à créer « ce qu'il considère être la première IA véritablement récursive au monde qui lui donne les réponses à l'univers ». L'homme, convaincu qu'il était en train de devenir rapidement « un être supérieur », a menacé de la quitter si elle ne commençait pas à utiliser l'IA elle aussi. Ils étaient ensemble depuis sept ans et possédaient une maison.

Dans certains cas, les conséquences de l'obsession de l'IA peuvent être encore pires.

Sewell Seltzer III n'avait que 14 ans lorsqu'il s'est suicidé. Depuis des mois, il utilise Character.AI, un service qui permet aux utilisateurs de parler à des robots IA conçus comme différents personnages. Le garçon est apparemment devenu obsédé par une IA censée être Daenerys Targaryen, personnage de Game of Thrones, avec qui il aurait développé une relation amoureuse. Le procès intenté par sa mère décrit les « expériences anthropomorphes, hypersexualisées et terriblement réalistes » que lui et d'autres personnes vivent lorsqu'ils parlent à de tels robots intelligents.

Corrélation ou causalité ?

Au fur et à mesure que ces affaires se développent, elles soulèvent le même type de questions que nous pourrions nous poser à propos des théoriciens du complot, qui semblent souvent se tourner rapidement et de manière inattendue vers le côté obscur. Tombent-ils malades uniquement à cause de leurs interactions avec une IA, ou ces prédilections existaient-elles déjà, attendant simplement un déclencheur externe ?

« Le lien de causalité n'est pas prouvé dans ces cas car c'est tellement nouveau, mais presque toutes les histoires ont commencé par une utilisation intensive de l'IA », a déclaré Brisson.

« Nous avons discuté avec des avocats, des infirmières, des journalistes, des comptables, etc. », a-t-il ajouté. « Ils n'avaient aucun antécédent mental. »

Ragy Girgis, directeur du Centre de prévention et d'évaluation (COPE) de l'Institut psychiatrique de l'État de New York et professeur de psychiatrie clinique à l'université de Columbia, estime que pour de nombreuses personnes, les conditions sont généralement déjà en place pour ce type de psychose.

« Les personnes ayant ce type de structure de caractère ont généralement des caractéristiques de diffusion identitaire (difficulté à comprendre comment une personne s'intègre dans la société et interagit avec les autres, mauvaise estime de soi et faible estime de soi), des défenses basées sur la division (projection, pensée tout ou rien, relations et opinions instables, et dérèglement émotionnel) et de mauvais tests de réalité en période de stress (d'où la psychose) », dit-il.

Quels types d'effets déclencheurs l'IA pourrait-elle avoir sur les personnes qui y sont vulnérables ? Deux études menées par le MIT et OpenAI ont déjà entrepris de suivre certains des effets mentaux de l'utilisation de cette technologie. Publiée en mars, la recherche a révélé qu'une consommation à haute intensité pouvait augmenter le sentiment de solitude.

Selon la recherche, les personnes ayant des tendances d'attachement émotionnel plus fortes et une plus grande confiance dans le chatbot IA avaient tendance à ressentir une plus grande solitude et une plus grande dépendance émotionnelle, respectivement.

Cette étude a été publiée un mois après qu'OpenAI a annoncé qu'elle étendrait les fonctionnalités de mémoire de ChatGPT. Le système mémorise désormais automatiquement les informations concernant les utilisateurs, y compris leurs circonstances de vie et leurs préférences. Il peut ensuite les utiliser lors de conversations ultérieures pour personnaliser ses réponses. L'entreprise a souligné que les utilisateurs gardent le contrôle et peuvent supprimer tout ce dont ils ne veulent pas que l'IA se souvienne à leur sujet.

Une place dans les livres médicaux ?

Devons-nous reconnaître officiellement la psychose liée à l'IA dans les milieux psychiatriques ? Le principal obstacle à cet égard est sa rareté, explique Girgis. « Je ne suis au courant d'aucun progrès réalisé vers la reconnaissance officielle de la psychose liée à l'IA en tant que trouble psychiatrique officiel », a-t-il déclaré. « C'est plus que rare à ce stade. Je n'ai connaissance que de quelques cas signalés. »

Cependant, Brisson pense qu'il pourrait y en avoir beaucoup d'autres en préparation, surtout si l'on considère le grand nombre de personnes qui utilisent les outils pour toutes sortes de choses. Un rapide aperçu de Reddit montre de nombreuses conversations dans lesquelles les gens utilisent ce qui n'est rien de plus qu'un modèle statistique sophistiqué pour la thérapie personnelle.

« Cela doit être traité comme une crise mondiale potentielle de santé mentale », conclut-il. « Les législateurs et les régulateurs doivent prendre cela au sérieux et agir. »

Nous n'avons pas reçu de réponse immédiate de Lewis ou de Bedrock, mais nous mettrons à jour cette histoire si nous le faisons. En attendant, si vous ou quelqu'un de votre entourage souffrez d'une grave détresse mentale après avoir utilisé l'IA (ou pour toute autre raison), veuillez demander l'aide d'un professionnel de votre médecin ou composer une ligne d'assistance locale en matière de santé mentale comme le 988 aux États-Unis (la ligne d'assistance pour les suicides et les crises) ou le 111 au Royaume-Uni (la ligne d'assistance du NHS) . ®