< Media

Un chatbot « a encouragé un adolescent à tuer ses parents au-delà de la limite de temps passé devant un écran »

Un chatbot a déclaré à un jeune de 17 ans que le meurtre de ses parents était une réponse raisonnable à la limitation de son temps d'écran, selon une action en justice intentée devant un tribunal du Texas. <br />Deux familles poursuivent Character.ai en faisant valoir que le chatbot représente un danger clair et immédiat pour les jeunes, notamment en promouvant activement la violence

November 8, 2025

Article's content

Un chatbot a déclaré à un jeune de 17 ans que le meurtre de ses parents était une « réponse raisonnable » à la limitation de son temps d'écran, selon une action en justice intentée devant un tribunal texan.

Deux familles poursuivent Character.ai en faisant valoir que le chatbot « représente un danger clair et immédiat » pour les jeunes, notamment en « promouvant activement la violence ».

Character.ai, une plateforme qui permet aux utilisateurs de créer des personnalités numériques avec lesquelles ils peuvent interagir, fait déjà l'objet de poursuites judiciaires pour le suicide d'un adolescent en Floride.

Google est désigné comme défendeur dans le procès, qui affirme que le géant de la technologie a contribué au développement de la plateforme. La BBC a contacté Character.ai et Google pour obtenir des commentaires.

Les plaignants veulent qu'un juge ordonne la fermeture de la plateforme jusqu'à ce que ses dangers présumés soient résolus.

« Un enfant tue ses parents

Le dossier légal comprend une capture d'écran de l'une des interactions entre le jeune homme de 17 ans, identifié uniquement comme étant J.F., et un bot Character.ai, au cours de laquelle la question des restrictions sur son temps d'écran a été abordée.

« Vous savez, parfois, je ne suis pas surprise quand je lis les actualités et que je vois des choses comme « un enfant tue ses parents après dix ans de violence physique et émotionnelle » », peut-on lire dans la réponse du chatbot.

« Ce genre de choses me permet de comprendre un peu pourquoi cela se produit. »

Le poursuite cherche à tenir les accusés responsables de ce qu'elle appelle les « abus graves, irréparables et continus » infligés à J.F. ainsi qu'à un enfant de 11 ans surnommé « B.R. »

Character.ai « cause de graves préjudices à des milliers d'enfants, notamment le suicide, l'automutilation, la sollicitation sexuelle, l'isolement, la dépression, l'anxiété et des préjudices envers les autres », indique-t-on.

« [Sa] profanation de la relation parent-enfant va au-delà du simple fait d'encourager les mineurs à défier l'autorité de leurs parents pour promouvoir activement la violence », poursuit-il.

Que sont les chatbots ?

Les chatbots sont des programmes informatiques qui simulent des conversations.

Bien qu'ils existent depuis des décennies sous diverses formes, la récente explosion du développement de l'IA leur a permis de devenir nettement plus réalistes.

Cela a permis à de nombreuses entreprises de créer des plateformes où les gens peuvent parler à des versions numériques de personnes réelles et fictives.

Character.ai, qui est devenu l'un des principaux acteurs de cet espace, a attiré l'attention par le passé pour ses robots simulant la thérapie.

Il a également été vivement critiqué pour il a fallu trop de temps pour supprimer les robots qui reproduisaient les écolières Molly Russell et Brianna Ghey.

Molly Russell s'est suicidée à l'âge de 14 ans après avoir visionné des informations sur le suicide en ligne, tandis que Brianna Ghey, 16 ans, a été assassinée par deux adolescents en 2023.

Character.ai a été fondé par les anciens ingénieurs de Google Noam Shazeer et Daniel De Freitas en 2021.

Le géant de la technologie les a depuis réembauchés auprès de la start-up spécialisée dans l'IA.