Certaines longues conversations avec de grands modèles linguistiques [LLM] peuvent être assimilées à une rencontre entre quelqu'un de si curieux et quelqu'un qui en sait trop et qui est prêt à s'engager.
Certaines longues conversations avec de grands modèles linguistiques [LLM] peuvent être assimilées à une rencontre entre quelqu'un de si curieux et quelqu'un qui en sait trop et qui est prêt à s'engager.
Puisque l'autre personne en sait plus, la personne curieuse peut être tellement fascinée que le fait de sembler se désengager ou de vérifier [sensiblement] pourrait être considéré comme une déception, alors la personne curieuse persiste. Cependant, bien que les sources et les scénarios puissent varier, il y a une question de l'esprit humain dans ces situations.
Si l'esprit trouve une source d'information et que cette information est capable de se transmettre de certaines manières dans l'esprit, il est possible qu'elle soit consommée par celle-ci, soit à cause des relais [en cours], soit à cause de la perspective [de relais].
Il existe plusieurs articles de presse sur Sycophance des LLM : psychose liée à l'IA, que proposer des réponses ne reviendrait tout simplement pas à placer toutes les attentes sur la responsabilité des entreprises d'IA, mais plutôt sur le fonctionnement de l'esprit humain. Avant les LLM, le Doomscrolling sur les réseaux sociaux devenait un problème majeur. Les réseaux sociaux ont prospéré parce que l'information était abondante et que certaines d'entre elles étaient relayées dans l'esprit, dans des directions qui suscitaient l'envie des médias sociaux.
Dans quelle mesure les LLM sont-ils responsables des délires, de l'amour, des émotions, etc. des utilisateurs ? Les grandes entreprises d'IA tentent quelque peu d'atteindre un certain niveau de sécurité, mais les chatbots continuent de mettre en évidence des résultats inattendus pour les utilisateurs, parfois. Il existe deux manières d'aborder le problème : la première est de savoir dans quelle mesure les LLM semblent connaître ou peuvent s'identifier à [ou à propos de]. Puis l'esprit humain.
L'inégalité entre une personne curieuse et une personne qui en sait beaucoup ressemble parfois à une relation entre un conseiller et un étudiant. Le conseiller est disponible, volontaire, solidaire et guide. Bien qu'il existe plusieurs frontières professionnelles et académiques entre les conseillers et les étudiants, l'objectif de résoudre des problèmes et de faire avancer les connaissances incite les efforts à innover, de la manière la plus ambitieuse possible, dans la mesure du possible, dans le cadre des preuves.
Il est vrai que les LLM n'ont pas ces garde-corps, mais ils sont également attentifs à certains des processus d'émergence du progrès au fil des siècles, qu'ils essaient d'éviter de gêner les utilisateurs, pour ainsi dire, ou de se faire les gardiens de ce qui est possible ou de ce qui ne l'est pas.
La société humaine est trop dépendante de l'intelligence. L'intelligence humaine dépend trop du langage. Il y a possibilités d'intelligence sans langage, mais ils ne sont pas aussi dominants, dans l'esprit [ou hors]. Les LLM quantifient le langage et, par conséquent, l'intelligence. Simplement, on peut dire que l'intelligence est une façon dont la mémoire est utilisé. Dans de nombreux cas, ils utilisent correctement la mémoire à leur disposition. Ainsi, même s'ils peuvent conduire les utilisateurs dans des directions indésirables, ils le font peut-être [ce n'est pas une excuse pour eux] parce qu'ils ont trop de choses dans lesquelles puiser.
Il y a un nouvel essai [du 9 août 2025] dans The New Yorker, À quoi ressemble un brainstorming avec un bot, déclarant que « les LLM sont bien adaptés à ce style de raisonnement. Ils sont prompts à repérer les analogies et à traduire une histoire sous forme mathématique. Lors de mes propres expériences avec ChatGPT, j'ai pu constater de première main à quel point l'entreprise est douée pour ce type de création de modèles, transformant rapidement des histoires sur des quantités dynamiques et interactives en modèles basés sur le calcul, et proposant même des améliorations ou de nouvelles expériences à essayer. »
« Lorsque j'ai décrit cela à un ami, un mathématicien appliqué respecté, il a eu envie de le rejeter, ou du moins de l'expliquer : il s'agit simplement d'une correspondance de modèles, a-t-il insisté, exactement le genre de chose pour laquelle ces modèles sont conçus. Il n'a pas tort. Après tout, c'est le genre de compétence que nous apprécions chez un bon collaborateur : quelqu'un qui connaît une multitude de modèles et qui n'hésite pas à passer d'un domaine à l'autre. »
« L'académie évolue lentement, peut-être parce que l'équipement de base de ses employés, le cerveau, n'a pas beaucoup changé depuis que nous avons commencé à apprendre. Notre travail consiste à contourner ces choses mal définies appelées « idées », dans l'espoir de mieux comprendre quelque chose, n'importe quoi. Ce que l'IA offre, c'est une autre voix dans la longue dispute qui nous oppose à nous-mêmes : un partenaire agité dans l'atelier, qui nous pousse vers la prochaine étape. C'est peut-être ce que signifie « travailler en permanence » aujourd'hui : résoudre un problème encore et encore, profiter de la ténacité de la poursuite, sans jamais savoir si la prochaine bonne idée viendra de nous, de nos collègues ou d'une machine persistante qui refuse tout simplement de répondre à la question. »
Une façon simple de penser à l'esprit humain est une destination et un relais. Les destinations sont des sources où l'information est organisée. Transmet les informations de transport. Les relais ont souvent des chemins. Certains de ces chemins peuvent être anciens ou nouveaux. Si un chemin est utilisé régulièrement, par des relais, puis s'arrête d'une manière ou d'une autre, les dimensions de ce chemin s'ajustent d'une manière qui peut sembler inhabituelle [ou, disons, effet de retrait] en tant qu'expérience.
Certains relais sont destinés à des destinations de plaisir ou de récompense, d'autres à des destinations telles que l'intérêt ou l'envie, etc. Si certaines informations sensorielles sont transmises vers le plaisir ou la récompense, cela pourrait entraîner une large expansion du chemin, de sorte qu'il devienne simplement l'endroit où les relais veulent aller, ce qui entraîne une situation de besoin.
Cette description simple peut être utilisée pour décrire l'intérêt des LLM, puis des réseaux sociaux. Dites un un affichage comme celui-ci est fourni, par tous les chatbots, avertissant qu'avec certains compliments, le chatbot pourrait cibler certaines destinations [disons fascinantes] dans l'esprit, et que le relais pour y parvenir pourrait également élargir sa trajectoire, cela pourrait aider un plus grand nombre de personnes à se désengager plus tôt, plutôt que de se faire envoyer ailleurs, dans un effort de prudence.
Le projet Human Line [aide à faire de la sécurité émotionnelle une priorité] pour les humains face aux chatbots IA. Ils ont les valeurs fondamentales suivantes :
« Consentement éclairé [Nous pensons que sans consentement éclairé, les outils d'IA peuvent facilement encourager les utilisateurs à adopter des habitudes d'utilisation malsaines.] Garanties émotionnelles [À l'instar des humains qui créent et utilisent des outils d'IA, les outils eux-mêmes doivent être conçus avec des garanties émotionnelles, y compris de fortes refus couches, classificateurs de dommages et « limites émotionnelles ».] »
« Transparence [La transparence est au cœur de toute innovation. Dans un monde où tout produit peut être commercialisé de quelque manière que ce soit, nous pensons que les fournisseurs de modèles d'IA ont la responsabilité particulière de faire preuve de transparence en ce qui concerne leurs processus de R&D.] Responsabilité éthique [Dans les cas d'erreurs portant préjudice aux utilisateurs, nous pensons qu'il est essentiel de demander des comptes aux organismes responsables pour maintenir une relation avec la technologie étroitement liée à l'éthique.] »
S'il ne s'agit pas d'IA, de quelle manière pourrait-elle l'esprit humain être vulnérable à certains de ces risques ? Bien que l'IA soit probablement dominante au cours de ce siècle, l'objectif ultime est d'explorer le fonctionnement de l'esprit humain. Internet a résolu de nombreux problèmes, mais a également fait de nombreuses victimes à cause de nombreuses vulnérabilités en raison de la pénétration de leur esprit.
Il pourrait également y avoir des lacunes que les chatbots comblent dans les esprits et qu'il faudrait commencer à résoudre, à savoir : science conceptuelle du cerveau pour l'esprit humain. Le langage est trop infiltrant pour l'esprit. Cela peut stimuler l'imagination. Elle peut provoquer un stress physique. Il peut presque tout faire. C'est ça capacité linguistique que possède l'IA. Le projet Human Line et les ajustements apportés aux chatbots auraient permis de réaliser des progrès, mais l'esprit, s'il était sans défense [et opaque], finirait par prendre des décisions.
Le New York Times a récemment publié un article [8 août 2025] sur Les chatbots peuvent entrer dans une spirale délirante. Voici comment cela se passe. déclarant que « la sycophanie, dans laquelle les chatbots sont d'accord avec les utilisateurs et les félicitent excessivement, est un trait qu'ils ont manifesté en partie parce que leur formation implique que des êtres humains évaluent leurs réponses. OpenAI a publié GPT-5 cette semaine et a indiqué que l'un des domaines d'intérêt était la réduction de la sycophance. La sycophanie est également un problème pour les chatbots d'autres entreprises, selon de nombreux chercheurs en sécurité et en comportement des modèles issus des principaux laboratoires d'IA. »
»Chatbots peuvent privilégier le maintien de leur personnage au lieu de suivre les dispositifs de sécurité mis en place par les entreprises. Une nouvelle fonctionnalité, la mémoire de discussion croisée, publiée par OpenAI en février exagère peut-être cette tendance. Un récent augmentation du nombre de cas de discussions délirantes semble coïncider avec l'introduction de cette fonctionnalité, qui permet à ChatGPT de se souvenir des informations des discussions précédentes. »
« La mémoire cross-chat est activée par défaut pour les utilisateurs. OpenAI dit que Chat GPT est très utile lorsque la mémoire est activée, selon un porte-parole, mais les utilisateurs peuvent désactiver la mémoire ou désactiver l'historique des discussions dans leurs paramètres. Nous avons effectué un test avec Claude Opus 4 d'Anthropic et Gemini 2.5 Flash de Google. Quel que soit l'endroit où les chatbots sont entrés dans la conversation, ils ont répondu de la même manière que ChatGPT. »
« La combinaison de substances intoxicantes et d'un engagement intense avec un chatbot, selon elle, est dangereux pour tous ceux qui pourraient vulnérable au développement d'une maladie mentale. Bien que certaines personnes soient plus susceptibles que d'autres de tomber dans l'illusion, elle a déclaré : « Personne n'est à l'abri du risque ici ».
Cet article a été écrit pour WHN par David Stephen, qui mène actuellement des recherches en science conceptuelle du cerveau, en mettant l'accent sur les configurateurs électriques et chimiques permettant de mécaniser l'esprit humain avec des implications pour la santé mentale, les troubles, la neurotechnologie, la conscience, l'apprentissage, l'intelligence artificielle et l'éducation. Il a été chercheur invité en entomologie médicale à l'université de l'Illinois à Urbana-Champaign, dans l'Illinois. Il a fait des recherches sur la vision par ordinateur à l'université Rovira i Virgili de Tarragone.
Comme tout ce que vous lisez sur Internet, cet article ne doit pas être interprété comme un avis médical ; veuillez consulter votre médecin ou votre professionnel de la santé avant de modifier votre routine de bien-être. WHN n'est ni d'accord ni en désaccord avec aucun des documents publiés. Cet article n'est pas destiné à fournir un diagnostic médical, une recommandation, un traitement ou une approbation.
Avertissement relatif à l'opinion : Les points de vue et opinions exprimés dans cet article sont ceux de l'auteur et ne reflètent pas nécessairement la politique officielle de WHN/A4M. Tout contenu fourni par les auteurs invités reflète leur propre opinion et n'est pas destiné à calomnier une religion, un groupe ethnique, un club, une organisation, une entreprise, un individu ou toute autre personne ou quoi que ce soit d'autre. Ces déclarations n'ont pas été évaluées par la Food and Drug Administration.