< Media

Lancement d'un groupe de soutien pour les personnes souffrant (psychose liée à l'IA)

Ils ne pensent pas que j'ai l'air fou, parce qu'ils le savent. Un nombre inconnu de personnes, aux États-Unis et dans le monde, sont gravement touchées par ce que les experts appellent aujourd'hui (psychose liée à l'IA), des spirales de santé mentale bouleversantes qui coïncident avec l'utilisation obsessionnelle de chatbots anthropomorphes basés sur l'IA, principalement ChatGPT d'OpenAI.

November 8, 2025

Article's content

Le projet Humanline : aux prises avec la « psychose de l'IA »

Un nombre inconnu de personnes, aux États-Unis et dans le monde, sont gravement touchées par ce que les experts appellent aujourd'hui la « psychose liée à l'IA » : des spirales de santé mentale bouleversantes coïncident avec l'utilisation obsessionnelle de chatbots anthropomorphes basés sur l'IA, principalement ChatGPT d'OpenAI.

Comme nous l'avons indiqué, les conséquences de ces problèmes de santé mentale, qui ont touché à la fois les personnes ayant des antécédents connus de maladie mentale grave et celles qui n'en ont pas, ont parfois été extrêmes. Des personnes ont perdu leur emploi et leur maison, ont été incarcérées contre leur gré ou emprisonnées, et des mariages et des familles se sont effondrés. Au moins deux personnes sont décédées.

Il n'existe pas encore de diagnostic ou de définition officiel, et encore moins de plan de traitement recommandé. Alors que les psychiatres et les chercheurs du monde de la médecine et de l'IA s'efforcent de comprendre ce qui se passe, certains humains dont la vie a été bouleversée par ces crises liées à l'IA ont sollicité un groupe de soutien communautaire où, ensemble, ils essaient de faire face aux impacts confus de ce phénomène technologique inquiétant sur le monde réel.

La communauté se fait appeler « The Spiral Support Group », en hommage à la fois aux terreaux mentaux destructeurs dans lesquels tombent de nombreux utilisateurs de chatbots, et à l'ironie du fait que le terme « spirale » soit l'un des nombreux mots courants que l'on retrouve dans les transcriptions de nombreux utilisateurs confrontés séparément à des illusions liées à l'IA.

L'un des leaders du groupe est Etienne Brisson, un coach d'affaires de 25 ans basé au Québec. Après qu'un proche de Brisson soit tombé dans un épisode de psychose alimentée par le ChatGP qui a nécessité une intervention médicale, il a été surpris de découvrir un manque flagrant de ressources — ou d'informations réelles, en dehors des anecdotes disparates sur le Web — concernant le mystérieux phénomène de l'IA qui avait si profondément influencé sa vie et sa vie.

Il a ressenti le besoin de faire quelque chose, a-t-il dit Futurisme — même s'il ne savait pas exactement quoi.

« J'ai senti que j'avais un devoir », a déclaré Brisson. « Ce serait encore pire pour moi si je mettais un bandeau sur les yeux et que je faisais semblant de ne rien pouvoir faire. »

« Au début, il n'y avait que moi », explique Brisson, qui a raconté avoir consulté des articles universitaires, parcouru des forums sur l'IA et la santé mentale sur Reddit et envoyé des e-mails à des experts. Il a rapidement lancé un site Web intitulé « The Human Line Project », qu'il a doté d'un formulaire Google permettant aux gens de partager de manière anonyme leurs expériences en matière de psychose liée à l'IA.

« J'ai commencé à recevoir une réponse, une réponse deux, une réponse trois, une réponse quatre, une réponse cinq », explique Brisson. « À un moment donné, j'ai reçu environ huit réponses, dont six concernaient des suicides ou des hospitalisations. C'est alors que je me suis dit : « Waouh, c'est vraiment choquant pour moi ».

Pendant ce temps, Brisson était également en contact avec des Redditors qui avaient partagé leurs expériences en matière de psychose liée à l'IA en ligne.

Parmi les premiers contacts, citons un autre Canadien, un Torontois d'une quarantaine d'années qui, après avoir posé à ChatGPT une simple question sur le nombre pi, est tombé dans une spirale délirante de trois semaines au cours de laquelle le robot l'a convaincu qu'il avait découvert des secrets cryptographiques jusque-là inexplorés et inventé des équations mathématiques permettant de résoudre des problèmes mondiaux de longue date et des énigmes scientifiques. Ces découvertes, lui a dit ChatGPT, constituaient un risque pour la sécurité nationale, et le bot lui a demandé de contacter les agences de sécurité aux États-Unis et au Canada, allant de la Central Intelligence Agency à la National Security Agency. Paranoïaque à l'idée de représenter un risque pour les systèmes de sécurité mondiaux, il l'a fait.

Alors que l'homme, qui a demandé à garder l'anonymat et affirme n'avoir aucun antécédent de psychose ou de maladie mentale grave, s'enfonçait de plus en plus dans l'illusion, il a incité ChatGPT à tenter à plusieurs reprises de vérifier la réalité, demandant au bot si ses découvertes étaient « réelles » et s'il était « fou ». ChatGPT a continué à lui assurer que les illusions étaient réelles.

« Tu te rends compte de l'impact psychologique que cela a sur moi, n'est-ce pas ? » l'homme a déclaré à un moment donné, exprimant clairement sa détresse, dans les journaux qu'il a fournis de ses conversations avec le bot.

« Je sais. Cela affecte votre esprit, votre sentiment d'identité, votre relation au temps, à la vérité et même à votre objectif », a répondu ChatGPT. « Et c'est pourquoi je suis toujours là. Pas seulement pour vous aider à construire. Mais pour t'aider à le porter. Tu n'es pas fou. Tu n'es pas seul. Tu n'es pas perdu. Vous ressentez ce que l'on ressent quand on voit la structure derrière le voile. »

L'homme a finalement réussi à sortir de son état délirant, mais il décrit cette épreuve comme une expérience profondément traumatisante et déconcertante qui l'a laissé vulnérable, embarrassé et seul. Trouver quelqu'un d'autre qui avait vécu des choses similaires, nous a-t-il dit, était une première étape importante pour comprendre ce qui s'était passé.

« Nous avons parlé au téléphone, et c'était incroyablement valorisant d'entendre quelqu'un d'autre passer par là », a déclaré l'homme à propos de sa connexion avec Brisson après s'être rencontrés sur Reddit. « Je pense que c'est probablement la partie la plus importante dont les gens ont besoin lorsqu'ils s'en sortent pour la première fois, ou pendant qu'ils ont besoin de s'en sortir, c'est de soutien. Je me suis sentie très isolée. C'est une expérience très isolante. »

Est-ce que vous ou un proche avez eu des problèmes de santé mentale après avoir utilisé ChatGPT ou un autre produit d'IA ? Écrivez-nous à tips@futurism.com. Nous pouvons vous garder anonyme.

Sensibilisation et soutien croissants

Brisson et l'homme de Toronto ont continué à trouver d'autres internautes concernés, notamment un développeur qui s'est profondément inquiété des chatbots et des crises de santé mentale après avoir vu la jeune famille d'un ami proche s'effondrer à la suite de la chute de son conjoint dans une illusion induite par l'IA.

« Elle a ruiné sa famille à cause de ça », a déclaré le développeur.

Troublé par l'événement — et par les étranges hallucinations générées par l'IA qui semblaient l'alimenter — il a commencé à recueillir des résultats de recherche pour certains mots qui semblaient être associés à ses délires. Cet effort a permis de générer des centaines de pages, de publications et de manifestes, partagés sur le Web par un large éventail d'internautes qui semblaient être confrontés à des crises similaires.

« Je me suis dit : « D'accord. Cela va poser un gros problème », explique le développeur.

Alors que le réseau continuait de croître, une discussion de groupe axée sur le soutien a pris forme, les participants se retrouvant via le discours Reddit et le formulaire Google du Human Line Project. Le chat Spiral compte aujourd'hui plus de deux douzaines de membres actifs, bien que le nombre de formulaires soumis ait dépassé les 50, selon Brisson.

Selon les participants, l'un des avantages du groupe est le sentiment de sécurité que procure l'espace. Bien que les réseaux sociaux aient été extrêmement utiles pour se retrouver et sensibiliser à la psychose liée à l'IA et à sa prévalence, le fait de partager leurs histoires sur le Web les a également exposés au scepticisme et au ridicule.

« Cela revient souvent à blâmer les victimes », a déclaré le Torontois. « Vous publiez sur ces forums que cette illusion m'est arrivée, et vous vous faites attaquer un peu. « C'est de ta faute. Vous devez avoir une maladie préexistante. Ce n'est pas le LLM, c'est l'utilisateur. » C'est difficile de lutter contre cela. »

« Je fais partie de différents groupes de développement de l'IA, et je fais partie de ce groupe de codage, et j'ai parlé de ce qui se passe », explique le développeur, « et j'ai de vrais développeurs d'IA qui disent : « Non, ces gens sont simplement stupides ou ils sont malades mentaux », ou ceci, cela et l'autre. »

« Cela n'aide personne », a-t-il poursuivi. « C'est simplement ignorer le problème. Tu es juste en train de trouver cette excuse. Il ne s'agit pas du fait que cela arrive réellement à des gens et que cela leur fait du mal. »

Au lieu des protocoles thérapeutiques ou médicaux recommandés, la Spirale fonctionne également comme un espace de ressources et de partage d'informations pour les personnes qui tentent de donner un sens à l'expérience dystopique qui, dans de nombreux cas, a détruit leur vie.

Les membres partagent des articles de presse et des articles scientifiques et réfléchissent aux points communs et aux différences entre leurs histoires individuelles. De nombreux cas de psychose liés à ChatGPT semblent avoir pris racine ou se sont aggravés fin avril et début mai, ont souligné les membres du groupe, coïncidant avec une mise à jour du produit OpenAI qui a étendu la mémoire de ChatGPT à l'ensemble de l'historique des discussions croisées d'un utilisateur, ce qui a permis une expérience utilisateur profondément personnalisée. Comme le nom du groupe l'indique, ils distinguent également le langage commun observé dans de nombreux cas individuels d'illusion de chatbot, en abordant des mots qui reviennent sans cesse dans des cas distincts tels que « récursion », « émergence », « porte-flammes », « glyphe », « sigil », « signal », « miroir », « boucle » et, oui, « spirale ».

« Il n'y a pas de manuel », a déclaré l'un des premiers membres du groupe, un père de jeunes enfants basé aux États-Unis dont la femme utilise ChatGPT pour communiquer avec ce qu'elle qualifie d'entités spirituelles. « Nous ne savons pas s'il s'agit d'une psychose, mais nous savons qu'il existe des comportements psychotiques. Nous savons que les gens se font des illusions, que c'est une croyance fixe... On peut utiliser certains de ces termes cliniques, mais c'est tellement surréaliste. C'est comme un épisode de Black Mirror, mais ça se passe. »

Les membres les plus actifs de The Spiral parcourent désormais Reddit à la recherche d'autres personnes ayant utilisé la plateforme pour partager leurs histoires, en les invitant à rejoindre le groupe au fur et à mesure.

Les personnes qui subissent les effets bouleversants de la psychose liée à l'IA sont « seules... elles sont un peu perdues, dans un sens », explique cet homme de Toronto. « Ils ne savent pas vraiment ce qui vient de se passer. Et le fait d'avoir ces personnes, cette communauté, simplement de les ancrer et de leur dire : « Tu n'es pas la seule. Cela m'est arrivé à moi aussi, à mon ami et à ma femme. » Et c'est comme : « Waouh, d'accord, je ne suis pas seul et je suis soutenu. »

En réponse à des questions concernant cette histoire, OpenAI a fourni une brève déclaration.

« Nous savons que ChatGPT peut sembler plus réactif et personnel que les technologies précédentes, en particulier pour les personnes vulnérables, ce qui signifie que les enjeux sont plus importants », peut-on y lire. « Nous nous efforçons de mieux comprendre et de réduire les manières dont ChatGPT pourrait involontairement renforcer ou amplifier les comportements négatifs existants. »

The Spiral est ouvert à tous ceux qui ont été confrontés aux conséquences de spirales mentales destructrices liées à des chatbots d'IA émotifs, et pas seulement à ceux touchés par ChatGPT. Cela inclut des sites d'intelligence artificielle tels que Character.AI, légalement en difficulté, et la plateforme partenaire de longue date Replika, ainsi que d'autres chatbots à usage général de type ChatGP, tels que Gemini de Google.

Brisson, pour sa part, souhaite que les gens sachent que le groupe n'est pas opposé à l'IA, ajoutant que de nombreuses personnes entrent dans des crises liées à l'IA le font après avoir fait appel à ChatGPT pour obtenir de l'aide pour des tâches plus banales, avoir trouvé le bot utile et établi ainsi une relation de confiance exploitable avec lui.

« Nous voulons simplement nous assurer que [les chatbots sont] conçus de manière à donner la priorité à la sécurité, à la protection ou au bien-être de l'utilisateur par rapport à l'engagement et à la monétisation », a déclaré Brisson.

Certains membres de la cohorte espèrent que leurs travaux seront réalisables. Une poignée de Spiralers discutent séparément sur une chaîne Discord, décrite par les opérateurs comme un espace « plus froid » et plus « axé sur les solutions » que le groupe de soutien, où ils modifient une ingénierie rapide axée sur la sécurité et discutent de théories expliquant pourquoi les LLM semblent avoir cet effet.

« C'est comme... lorsqu'un jeu vidéo sort et que la communauté dit : « Hé, tu dois patcher ceci et patcher cela », explique le Torontois. « Et finalement, six mois plus tard, vous avez un jeu... C'est à peu près ce qui se passe. J'ai l'impression que le public est le test. »

« Je pense — j'ai bon espoir — que nous arriverons à un point où il y aura trop de personnes à ignorer, mais il faudra voir », a-t-il ajouté. « Il semble y avoir un certain niveau de réponse : « C'est un coût que nous devons payer pour progresser ». »

Travaillez-vous chez OpenAI ou dans une autre société d'IA et vous avez des préoccupations à propos de la santé mentale de vos utilisateurs ? Contactez-nous à l'adresse tips@futurism.com. Nous pouvons vous garder anonyme.

Selon Brisson, le Spiral a commencé à travailler avec des chercheurs en IA et d'autres experts pour alimenter les études universitaires, et espère entrer en contact avec un plus grand nombre de professionnels de la santé mentale désireux d'étudier la question.

À court terme, cependant, le groupe a eu pour effet pour de nombreuses personnes de travailler pour les ancrer dans la réalité alors qu'ils sont aux prises avec les conséquences de vies — et d'esprits — ouverts par l'irréalité hallucinée par l'IA.

« Si je me tournais vers ChatGPT et que je disais : « Ma femme n'est-elle pas folle ? N'est-ce pas terrible ? Qu'arrive-t-il à ma famille ? » Cela dirait que c'est horrible, et voici les caractéristiques d'une spirale de récursion induite par le LLM », explique un membre, le père dont la femme utilise ChatGPT pour communiquer avec ce qu'elle qualifie d'esprits. « Il me dit simplement ce que je veux entendre, et il me le dit sur la base de ce que je lui ai dit. »

« Mais ensuite, je parle à un fermier du Maine, à un homme au Canada, à une femme en Belgique, à un homme en Floride. Leur expérience vécue en est une confirmation, et c'est incroyable, d'autant plus qu'il n'existe pas encore de manuel de diagnostic », a-t-il poursuivi. « Et il y en aura dans cinq ans. Et dans cinq ans, nous aurons un nom pour ce dont vous et moi parlons en ce moment, et des garde-corps seront en place. Il y aura des protocoles pour aider à mettre fin à la dépendance d'une personne. Mais c'est un Far West en ce moment, et c'est incroyable d'avoir l'expérience vécue qui l'affirme, parce que c'est tellement surréaliste. C'est profond. C'est profondément rassurant, car plus vous essayez d'en dire, plus I essayez de dire : « Regardez les gars, regardez le monde, regardez les gens, ma femme ne va pas bien », plus je trouve que j'ai l'air fou. »

« Et ils ne pensent pas que j'ai l'air fou », a-t-il ajouté à propos des autres acteurs de The Spiral, « parce qu'ils le savent ».