< Media

Dérives de l'IA: au moins 7 décès et 36 psychoses liés aux robots conversationnels

October 26, 2025

Article's content

Les robots conversationnels seraient impliqués dans au moins 7 décès, 36 cas de psychose, une vingtaine de pertes d’emploi et une douzaine de divorces, selon la compilation inédite d’un Québécois qui s’est donné comme mission de documenter leurs dérives troublantes.

À la tête du Human Line Project, Étienne Brisson a recueilli 205 histoires, provenant de 18 pays, où les robots conversationnels ont causé des dommages irréparables.

À ce jour, il s’agit de l’une des recensions les plus importantes au monde des conséquences néfastes de ces outils qui gagnent en popularité.

En plus des suicides et des graves problèmes de santé mentale, son organisme a aussi dénombré six parents qui ont perdu la garde de leurs enfants, des centaines de milliers de dollars partis en fumée, des hospitalisations, des arrestations...

«La boîte de Pandore est ouverte et beaucoup de gens sont en train de tomber dans un trou noir», constate ce natif de Sainte-Julie.

Peu de ressources

Étienne Brisson a fondé The Human Line Project ce printemps, après avoir vu un proche sombrer dans un délire provoqué par ses conversations frénétiques avec ChatGPT.

«J’ai cherché en ligne des ressources pour lui venir en aide, et j’ai découvert qu’il n’y avait vraiment pas grand-chose», se rappelle le jeune homme de 25 ans.

À ce stade, rien de particulier ne prédisposait Étienne Brisson, coach d’affaires pour Peintres étudiants, à devenir un spécialiste en matière de robots conversationnels.

Mais lors de ses recherches, ce dernier lit des témoignages hautement dérangeants de drames reliés à l’utilisation des robots conversationnels. Les plus anciens remontent à 2022.

L’entrepreneur dans l’âme crée un formulaire pour recueillir plus de détails sur ces histoires, et commence bénévolement la recension qui deviendra The Human Line Project.

Très vite, il réalise que la problématique ne touchait pas seulement ChatGPT, mais toutes les grandes plateformes d’agents conversationnels: Gemini, Claude, Character AI, DeepSeek, Copilot... Et qu’il y a matière à s’alarmer.

«Il suffit de lire les conversations pour comprendre le danger. Il y a une machine qui est toujours d’accord avec toi. Et ça, ça me fait peur», dit-il.

Les humains contre-attaquent

The Human Line Project attire aujourd’hui l’intérêt de scientifiques, de politiciens, de psychiatres et de journalistes avides de données probantes sur les robots conversationnels.

La semaine dernière, Étienne Brisson était invité au prestigieux Massachusetts Institute of Technology (MIT) dans le cadre d’un atelier sur les mesures de sécurité entourant l’intelligence artificielle.

Un sénateur américain l’a également consulté dans le cadre d’un projet de loi qu’il a déposé pour mieux réguler ces nouvelles technologies.

Des chercheurs en IA de l’université Stanford, en Californie, et du King’s College, à Londres l’ont même contacté pour mener un projet de recherche basé sur sa collection de conversations ayant mal tourné, avec l'accord des principaux intéressés.

Ils étudieront ces échanges dans l’espoir de mieux comprendre les propos les plus problématiques des IA conversationnelles, une clé pour prévenir les dérapages.

Malgré tout cet intérêt, Étienne Brisson estime que le moyen le plus sûr de faire bouger les géants du web, c'est les tribunaux. Il tâte d’ailleurs le terrain avec des avocats pour déposer un recours collectif.

«La racine du problème, c’est qu’on a fait passer le profit avant les humains et leur santé mentale», affirme-t-il. Et cela, il ne peut l’accepter.