< Media

Digital Delusions : procès en diffamation basé sur une hallucination présumée de ChatGPT

Un procès affirme que ChatGPT a halluciné de fausses informations, ce qui a eu des conséquences réelles.

November 8, 2025

Article's content

Nous avons tous entendu parler de ce que l'on appelle les « hallucinations » de l'IA, lorsque des programmes d'IA tels que ChatGPT inventent des « faits » qui ne sont pas vrais. Par exemple, des avocats ont eu des problèmes pour avoir cité de fausses affaires judiciaires générées par l'IA, comme nous l'avons écrit ici et ici. Mais le créateur de la plateforme d'IA lui-même pourrait-il également être tenu responsable ?

C'est ce que pense l'animateur de radio conservateur Mark Walters. Walters a poursuivi le créateur de ChatGPT, OpenAI, pour diffamation en Géorgie sur la base d'une prétendue hallucination de ChatGPT. La question qui se pose dans cette affaire, qui semble être la première du genre, est de savoir si la production de ChatGPT constitue une « publication » suffisante pour étayer une plainte en diffamation. Pour l'instant, cependant, l'affaire est embourbée dans un litige procédural qui retardera probablement toute décision de fond.

Le procès de Walters est centré sur l'utilisation de ChatGPT par un journaliste pour rechercher un article concernant une action en justice fédérale intentée à Washington. Walters affirme que le journaliste a fourni à ChatGPT un lien vers la plainte et a demandé à ChatGPT de la résumer. Bien que Walters n'ait pas été désigné comme accusé, ChatGPT aurait informé le journaliste que le procès accusait Walters de « fraude et de détournement de fonds ». Elle aurait ensuite produit une copie de la prétendue plainte contre Walters, qui a été entièrement fabriquée de toutes pièces.

Walters affirme qu'OpenAI a déclaré au journaliste que les réponses de ChatGPT étaient exactes, tout en sachant que ChatGPT « hallucine » parfois. Walters demande des dommages et intérêts sur la base des déclarations faites par OpenAI au journaliste, qui, selon lui, étaient diffamatoires.

Walters a initialement intenté une action devant un tribunal de l'État de Géorgie, mais OpenAI a renvoyé l'affaire devant un tribunal fédéral sur la base de la compétence en matière de diversité et a demandé le rejet. OpenAI a fait valoir, entre autres, que Walters ne pouvait pas établir de diffamation parce que le journaliste n'avait pas considéré et ne pouvait raisonnablement pas considérer les résultats de ChatGPT comme diffamatoires, étant donné que la transcription complète des conversations du journaliste avec ChatGPT montrait que le journaliste avait déclaré à ChatGPT que ses résultats étaient faux. OpenAI a également soutenu que le résultat de ChatGPT n'était pas une « publication » aux fins d'une action en diffamation, car le résultat n'est qu'un « brouillon de contenu pour le bénéfice interne de l'utilisateur ».

Walters s'est opposé à la requête, mais a simultanément déposé une plainte modifiée qui pourrait annuler la requête en rejet. Quelques semaines plus tard, le tribunal a rendu une ordonnance ordonnant à OpenAI de divulguer des faits étayant la diversité de citoyenneté des parties. OpenAI a répondu en refusant de fournir des informations supplémentaires et en retirant son avis de suppression. Walters demande maintenant des honoraires d'avocat dans le cadre de la suppression d'OpenAI.

L'affaire Walters sera probablement renvoyée devant un tribunal d'État et pourrait faire l'objet d'une nouvelle requête en rejet. Quel que soit le tribunal qui finira par superviser l'affaire, il devra en fin de compte se prononcer sur les questions difficiles liées au comportement d'une machine qui n'a pas les connaissances et l'intention d'un acteur humain, mais qui est finalement contrôlée par des marionnettistes humains.