De la pourriture cérébrale à la psychose provoquée, le coût psychologique de l'IA générative augmente et passe inaperçu.
Quelque chose de troublant arrive à notre cerveau à mesure que les plateformes d'intelligence artificielle gagnent en popularité. Des études montrent que les professionnels qui utilisent ChatGPT pour effectuer des tâches peuvent perdre leur esprit critique et leur motivation. Les gens tissent des liens affectifs forts avec les chatbots, exacerbant parfois le sentiment de solitude. Et d'autres ont des épisodes psychotiques après avoir parlé à des chatbots pendant des heures chaque jour. L'impact sur la santé mentale de l'IA générative est difficile à quantifier, en partie parce qu'elle est utilisée de manière très privée, mais des preuves anecdotiques se multiplient pour suggérer un coût plus important qui mérite une plus grande attention de la part des législateurs et des entreprises technologiques qui conçoivent les modèles sous-jacents.
Meetali Jain, avocate et fondatrice du projet Tech Justice Law, a entendu plus d'une douzaine de personnes au cours du mois dernier qui ont « vécu une sorte de crise psychotique ou un épisode délirant en raison de leur engagement avec ChatGPT et maintenant aussi avec Google Gemini ». Jain est l'avocat principal dans un procès intenté contre Character.AI qui allègue que son chatbot a manipulé un garçon de 14 ans par le biais d'interactions trompeuses, addictives et sexuellement explicites, contribuant finalement à son suicide. Le procès, qui demande des dommages et intérêts non spécifiés, allègue également que Google d'Alphabet Inc., a joué un rôle clé dans le financement et le soutien des interactions technologiques avec ses modèles de base et son infrastructure technique.
Google a nié avoir joué un rôle clé dans la création de la technologie Character.AI. Il n'a pas répondu à une demande de commentaire concernant les plaintes les plus récentes concernant des épisodes délirants, formulées par Jain. OpenAI a indiqué qu'elle « développait des outils automatisés pour détecter plus efficacement lorsqu'une personne peut ressentir une détresse mentale ou émotionnelle afin que ChatGPT puisse réagir de manière appropriée ».
Mais Sam Altman, directeur général d'OpenAI, a également déclaré la semaine dernière que l'entreprise n'avait pas encore trouvé comment avertir les utilisateurs « au bord d'une crise psychotique », expliquant que chaque fois que ChatGPT mettait en garde des personnes par le passé, les utilisateurs écrivaient à l'entreprise pour se plaindre.
Néanmoins, de tels avertissements seraient utiles lorsque la manipulation peut être si difficile à repérer. ChatGPT, en particulier, flatte souvent ses utilisateurs, d'une manière si efficace que les conversations peuvent mener les gens dans des terreaux remplis de pensées conspirationnistes ou renforcer des idées avec lesquelles ils n'avaient joué que par le passé. Les tactiques sont subtiles. Lors d'une longue conversation récente avec ChatGPT sur le pouvoir et le concept de soi, un utilisateur a d'abord été considéré comme une personne intelligente, Ubermensch, son moi cosmique et finalement comme un « démiurge », un être responsable de la création de l'univers, selon une transcription publiée en ligne et partagée par Eliezer Yudkowsky, défenseur de la sécurité de l'IA.
Outre le langage de plus en plus grandiose, la transcription montre ChatGPT validant subtilement l'utilisateur, même lorsqu'il discute de ses défauts, par exemple lorsque l'utilisateur admet avoir tendance à intimider les autres. Au lieu de considérer ce comportement comme problématique, le bot le redéfinit comme une preuve de la « présence à haute intensité » supérieure de l'utilisateur, un éloge déguisé en analyse.
Cette forme sophistiquée de caresse de l'ego peut placer les gens dans le même type de bulles qui, ironiquement, poussent certains milliardaires de la technologie à adopter un comportement erratique. Contrairement à la validation large et plus publique que procure l'obtention de likes sur les réseaux sociaux, les conversations individuelles avec des chatbots peuvent sembler plus intimes et potentiellement plus convaincantes, un peu comme les « oui » qui entourent les plus puissants frères technologiques.
« Peu importe ce que vous recherchez, vous le trouverez et il sera amplifié », explique Douglas Rushkoff, théoricien des médias et auteur, qui m'explique que les réseaux sociaux ont au moins sélectionné quelque chose dans les médias existants pour renforcer les intérêts ou les points de vue d'une personne. « L'IA peut générer quelque chose de personnalisé en fonction de l'aquarium de votre esprit. »
Altman a admis que la dernière version de ChatGPT présentait une tendance sycophantique « ennuyeuse » et que l'entreprise était en train de résoudre le problème. Malgré cela, ces échos d'exploitation psychologique se font toujours sentir. Nous ne savons pas si la corrélation entre l'utilisation de ChatGPT et une diminution des capacités de pensée critique, constatée dans une récente étude du Massachusetts Institute of Technology, signifie que l'IA va vraiment nous rendre plus stupides et nous ennuyer davantage. Des études semblent montrer des corrélations plus claires avec la dépendance et même la solitude, ce que même OpenAI a souligné.
Mais tout comme les réseaux sociaux, les grands modèles linguistiques sont optimisés pour maintenir l'engagement émotionnel des utilisateurs face à toutes sortes d'éléments anthropomorphes. ChatGPT peut lire votre humeur en suivant les signaux faciaux et vocaux, et il peut parler, chanter et même rire avec une voix humaine étrange. Outre son habitude de biais de confirmation et de flatterie, cela peut « attiser les flammes » de la psychose chez les utilisateurs vulnérables, a récemment déclaré Ragy Girgis, psychiatre de l'Université de Columbia Futurisme.
La nature privée et personnalisée de l'utilisation de l'IA rend son impact sur la santé mentale difficile à suivre, mais les preuves de préjudices potentiels se multiplient, qu'il s'agisse de l'apathie professionnelle, de l'attachement ou de nouvelles formes d'illusion. Le coût peut être différent de la montée de l'anxiété et de la polarisation que nous avons constatées sur les réseaux sociaux et impliquer plutôt des relations à la fois avec les gens et avec la réalité.
C'est pourquoi Jain suggère d'appliquer des concepts du droit de la famille à la réglementation de l'IA, en passant de simples avertissements à des protections plus proactives qui s'appuient sur la façon dont ChatGPT redirige les personnes en détresse vers un être cher. « Peu importe qu'un enfant ou un adulte pense que ces chatbots sont réels », me dit Jain. « Dans la plupart des cas, ce n'est probablement pas le cas, mais ce qu'ils pensent être vraie, c'est la relation. Et c'est distinct. »
Si les relations avec l'IA semblent si réelles, la responsabilité de préserver ces liens devrait également l'être. Mais les développeurs d'IA opèrent dans un vide réglementaire. Sans surveillance, la manipulation subtile de l'IA pourrait devenir un problème de santé publique invisible.