La Maison Blanche Ai tsar David Sacks dit que la « psychose de l’IA » est similaire à la « panique morale » des premiers jours des médias sociaux
L’IA peut créer un régime alimentaire, organiser un calendrier et fournir des réponses à une variété sans fin de questions brûlantes. Cela peut-il également provoquer une rupture psychiatrique?
David Sacks, le responsable de la Maison Blanche se dirigeait les politiques de l’IA de l’Amérique, ne le pense pas. L’IA et le tsar de la crypto du président Donald Trump ont discuté de la « psychose de l’IA » lors d’un épisode du « podcast tout-in » publié vendredi.
Alors que la plupart des gens s’engagent avec des chatbots sans problème, un petit nombre d’utilisateurs disent que les robots ont encouragé les délires et autres comportements concernant. Pour certains, Chatgpt sert d’alternative aux thérapeutes professionnels.
Un psychiatre plus tôt a déclaré à Trading Insider que certains de ses patients présentant ce qui a été décrit comme une «psychose de l’IA», un terme non clinique, a utilisé la technologie avant de rencontrer des problèmes de santé mentale », mais ils se sont tournés vers lui au mauvais endroit au mauvais moment, et il a suralimenté certaines de leurs vulnérabilités. »
Pendant le podcast, les sacs doutaient de tout le concept de «psychose de l’IA».
« Je veux dire, de quoi parlons-nous ici? Les gens font trop de recherche? » il a demandé. « Cela ressemble à la panique morale qui a été créée sur les réseaux sociaux, mais mise à jour pour l’IA. »
Sacks a ensuite fait référence à un article récent mettant en vedette un psychiatre, qui a déclaré qu’ils ne croyaient pas utiliser un chatbot induit intrinsèquement « psychose de l’IA » s’il n’y avait pas d’autres facteurs de risque – y compris sociaux et génétiques – impliqués.
« En d’autres termes, ce n’est qu’une manifestation ou une sortie pour des problèmes préexistants », a déclaré Sacks. « Je pense qu’il est juste de dire que nous sommes au milieu d’une crise de santé mentale dans ce pays. »
Sacks a plutôt attribué la crise à la pandémie Covid-19 et des verrouillage connexes. « C’est ce qui semble avoir déclenché beaucoup de ces baisses de santé mentale », a-t-il déclaré.
Après plusieurs rapports d’utilisateurs souffrant de pauses mentales lors de l’utilisation de Chatgpt, le PDG d’Openai, Sam Altman, a abordé le problème de X après que la société ait déployé le très attendu GPT-5.
« Les gens ont utilisé la technologie, y compris l’IA, de manière autodestructrice; si un utilisateur est dans un état mentalement fragile et sujette à l’illusion, nous ne voulons pas que l’IA renforce cela », a écrit Altman. « La plupart des utilisateurs peuvent garder une ligne claire entre la réalité et la fiction ou le jeu de rôle, mais un petit pourcentage ne peut pas. »
Plus tôt ce mois-ci, OpenAI a introduit des garanties dans Chatgpt, y compris une invite encourageant les utilisateurs à prendre des pauses après de longues conversations avec le chatbot. La mise à jour modifiera également la façon dont le chatbot répond aux utilisateurs posant des questions sur les défis personnels.

