Ai parrain Geoffrey Hinton dit qu’une petite amie a une fois rompue avec lui en utilisant un chatbot

Ai parrain Geoffrey Hinton dit qu'une petite amie a une fois rompue avec lui en utilisant un chatbot

Geoffrey Hinton a depuis longtemps été le pionnier du développement de l’intelligence artificielle. Le parrain de l’IA ne savait pas qu’un jour, sa petite amie en compterait pour rompre avec lui.

Hinton a déclaré vendredi au Financial Times dans une vaste interview que sa petite amie désormais formidable avait demandé au chatbot d’expliquer pourquoi il avait été « un rat » et avait livré la critique générée par l’AI directement.

« Elle a obtenu le chatbot pour expliquer à quel point mon comportement était horrible et me l’a donné », a-t-il déclaré au FT. « Je ne pensais pas que j’avais été un rat, donc ça ne m’a pas fait me sentir trop mal. J’ai rencontré quelqu’un que j’aimais plus, tu sais comment ça se passe. »

Sous l’anecdote humoristique se trouve une nouvelle vérité: l’IA devient un acteur majeur dans les interactions humaines quotidiennes. Qu’il s’agisse de rédiger un e-mail, de résoudre un problème de ménage ou, dans le cas d’Hinton, de prononcer un discours de rupture, il façonne de plus en plus la façon dont nous communiquons.

En mars, des chercheurs d’Openai et du MIT Media Lab ont publié des recherches qui ont analysé des millions de conversations de chat et des milliers d’interactions audio avec Chatgpt. Ils ont constaté que Chatgpt peut aggraver les sentiments de solitude dans un groupe d’utilisateurs de puissance.

« Notre analyse révèle qu’un petit nombre d’utilisateurs sont responsables d’une part disproportionnée des indices les plus affectifs », ont écrit les chercheurs. Les indices affectifs, que les chercheurs n’ont jamais définis explicitement, sont généralement considérés comme des signes verbaux et non verbaux de l’état émotionnel de quelqu’un. Les chercheurs ont analysé les conversations pour des thèmes de solitude, de vulnérabilité, d’utilisation problématique, d’estime de soi et de dépendance.

Cela pourrait être important à garder à l’esprit car OpenAI a également publié des conseils contre le déchargement de vos problèmes relationnels à Chatgpt.

« Quand vous demandez quelque chose comme » devrais-je rompre avec mon petit ami?  » Chatgpt ne devrait pas vous donner de réponse « , a déclaré la société dans un communiqué sur les modifications qu’elle a commencé à déployer en août pour s’assurer que Chatgpt a répondu de manière appropriée aux utilisateurs. « Cela devrait vous aider à y réfléchir – poser des questions, peser des avantages et les inconvénients. De nouveaux comportements pour les décisions personnels à enjeux élevés sont bientôt déployés. »

A lire également