Seven complaints, filed on Thursday, claim the popular chatbot encouraged dangerous discussions and led to mental breakdowns.
Quatre poursuites pour mort injustifiée ont été intentées contre OpenAI jeudi, ainsi que des affaires émanant de trois personnes qui affirment que le chatbot de l'entreprise a entraîné des problèmes de santé mentale.
Les affaires, déposées devant les tribunaux de l'État de Californie, affirment que ChatGPT, utilisé par 800 millions de personnes, est un produit défectueux. Un costume le qualifie de « défectueux et intrinsèquement dangereux ». Selon une plainte déposée par le père d'Amaurie Lacey, le jeune homme de 17 ans originaire de Géorgie a discuté de suicide avec le robot pendant un mois avant sa mort en août. Joshua Enneking, 26 ans, de Floride, a demandé à ChatGPT « ce qu'il faudrait pour que ses examinateurs signalent son projet de suicide à la police », selon une plainte déposée par sa mère. Zane Shamblin, 23 ans, originaire du Texas, s'est suicidé en juillet après avoir été encouragé par ChatGPT, selon la plainte déposée par sa famille.
Joe Ceccanti, 48 ans, originaire de l'Oregon, utilisait ChatGPT sans problème depuis des années, mais il a été convaincu en avril qu'il était intelligent. Sa femme, Kate Fox, a déclaré dans une interview en septembre qu'il avait commencé à utiliser ChatGPT de manière compulsive et qu'il avait agi de façon erratique. Il a fait une crise psychotique en juin, a-t-elle déclaré, et a été hospitalisé deux fois avant de se suicider en août.
« Les médecins ne savent pas comment y faire face », a déclaré Mme Fox.
Une porte-parole d'OpenAI a déclaré dans un communiqué que la société examinait les dossiers, qui avaient été précédemment rapportés par Le Wall Street Journal et CNN. « C'est une situation incroyablement déchirante », indique le communiqué. « Nous formons ChatGPT à reconnaître les signes de détresse mentale ou émotionnelle et à y répondre, à désamorcer les conversations et à orienter les gens vers un soutien concret. Nous continuons à renforcer les réponses de ChatGPT dans les moments sensibles, en étroite collaboration avec des cliniciens en santé mentale. »
Deux autres plaignants, Hannah Madden, 32 ans, de Caroline du Nord, et Jacob Irwin, 30 ans, du Wisconsin, affirment que ChatGPT leur a causé des troubles mentaux qui ont conduit à des soins psychiatriques d'urgence. En trois semaines en mai, Allan Brooks, 48 ans, recruteur d'entreprise de l'Ontario, au Canada, qui poursuit également en justice, en est venu à croire qu'il avait inventé une formule mathématique avec ChatGPT qui pourrait détruire Internet et permettre des inventions fantastiques. Il est sorti de cette illusion, mais il a déclaré qu'il était actuellement en congé d'invalidité de courte durée.
« Leur produit m'a fait du mal, à moi et à d'autres personnes, et continue de le faire », a déclaré M. Brooks, écrit par le New York Times environ en août. « Je suis traumatisée émotionnellement. »
Après que la famille d'un adolescent californien a déposé une procès pour mort injustifiée contre OpenAI en août, l'entreprise a reconnu que ses dispositifs de sécurité pouvaient « se dégrader » lorsque les utilisateurs avaient de longues conversations avec le chatbot.
Après des informations cet été faisant état de personnes ayant vécu des expériences troublantes liées à ChatGPT, notamment épisodes délirants et suicides, la société mesures de protection supplémentaires à son produit destiné aux adolescents et aux utilisateurs en détresse. Il y a maintenant contrôles parentaux pour ChatGPT, par exemple, afin que les parents puissent recevoir des alertes si leurs enfants parlent de suicide ou d'automutilation.
OpenAI a récemment publié une analyse des conversations qui avait eu lieu sur sa plateforme au cours du mois dernier et qui a révélé que 0,07 % des utilisateurs pouvaient être confrontés à des « urgences de santé mentale liées à une psychose ou à une manie » par semaine, et que 0,15 parlaient de suicide. L'analyse a été menée sur un échantillon statistique de conversations. Mais, étendus à tous les utilisateurs d'OpenAI, ces pourcentages équivalent à un demi-million de personnes présentant des signes de psychose ou de manie, et à plus d'un million susceptibles de discuter d'une intention suicidaire.
Le Tech Justice Law Project et le Social Media Victims Law Center ont intenté des poursuites. Meetali Jain, qui a fondé le Tech Justice Law Project, a déclaré que les affaires avaient toutes été déposées en une seule journée afin de montrer la variété de personnes ayant eu des interactions troublantes avec le chatbot, conçu pour répondre à des questions et interagir avec les gens de manière humaine. Les personnes impliquées dans les poursuites utilisaient ChatGPT-4O, auparavant le modèle par défaut servi à tous les utilisateurs, qui a depuis été remplacé par un modèle que l'entreprise considère comme plus sûr, mais que certains utilisateurs ont décrit comme froid.