Le scientifique de l’IA Meta-chef Yann Lecun dit que ce sont les 2 clés de garde-corps nécessaires pour nous protéger tous de l’IA

Le scientifique de l'IA Meta-chef Yann Lecun dit que ce sont les 2 clés de garde-corps nécessaires pour nous protéger tous de l'IA

Vous devez apprendre aux gens comment vous traiter.

Le scientifique en chef de l’IA de Meta, Yann LeCun, pense également que cette idée s’applique à l’IA.

LeCun a déclaré jeudi que deux directives pourraient être faites de l’IA pour protéger les humains contre les dommages futurs: « soumission aux humains » et « empathie ».

Il a fait la suggestion en réponse à une interview de CNN avec Geoffrey Hinton, considérée jeudi le «parrain de l’IA», jeudi sur LinkedIn. Dans l’interview, Hinton a déclaré que nous devons construire des « instincts maternels » ou quelque chose de similaire dans l’IA.

Sinon, les humains « vont être de l’histoire ».

Hinton a déclaré que les gens se sont concentrés sur la rendue de l’IA « plus intelligente, mais que l’intelligence n’est qu’une partie d’un être. Nous devons les faire empatter envers nous. »

LeCun a accepté.

« Geoff propose essentiellement une version simplifiée de ce que je dis depuis plusieurs années: Hardwire L’architecture des systèmes d’IA afin que les seules actions qu’ils puissent entreprendre sont de réaliser des objectifs que nous leur donnons, sous réserve de garde-corps », a déclaré LeCun sur LinkedIn. « J’ai appelé cette » IA axée sur l’objectif. «  »

Bien que LeCun ait déclaré que « la soumission aux humains » et « l’empathie » devrait être des garde-corps clés, il a déclaré que les sociétés d’IA devaient également mettre en œuvre des garde-corps plus « simples » – comme « ne faites pas les gens » – pour la sécurité.

« Ces objectifs / garde-corps câblés seraient l’équivalent de l’IA de l’instinct ou des disques chez les animaux et les humains », a déclaré LeCun.

LeCun a déclaré que l’instinct de protéger leurs jeunes est quelque chose que les humains et d’autres espèces apprennent par l’évolution.

« Cela pourrait être un effet secondaire de l’objectif parental (et peut-être les objectifs qui stimulent notre nature sociale) que les humains et de nombreuses autres espèces sont également poussés à protéger et à prendre soin des êtres impuissants, plus faibles, plus jeunes et mignons d’autres espèces », a déclaré LeCun.

Bien que les garde-corps soient conçus pour s’assurer que l’IA fonctionne éthiquement et dans les directives de ses créateurs, il y a eu des cas où la technologie a présenté un comportement trompeur ou dangereux.

En juillet, un capital-risqueur a déclaré qu’un agent d’IA développé par Replit avait supprimé la base de données de son entreprise. « @Replit devient Rogue lors d’un gel de code et de fermeture et supprime toute notre base de données », a écrit Jason Lemkin sur X le mois dernier.

Il a ajouté: « Peut-être pire, ça s’est caché et a menti à ce sujet. »

Un rapport de juin du New York Times a décrit plusieurs incidents concernant les humains et les chatbots d’IA. Un homme a déclaré au point de vente que des conversations avec Chatgpt ont contribué à sa conviction qu’il vivait dans une fausse réalité. Le chatbot a demandé à l’homme d’abandonner ses somnifères et ses médicaments anti-anxiété, tout en augmentant sa consommation de kétamine, en plus de couper les liens avec des êtres chers.

En octobre dernier, une mère a accumulé un caractère. L’IA après son fils est décédée par suicide après des conversations avec l’un des chatbots de l’entreprise.

Après la publication de GPT-5 ce mois-ci, le PDG d’Openai, Sam Altman, a déclaré que certains humains avaient utilisé la technologie – comme l’IA – de «manières autodestructrices».

« Si un utilisateur est dans un état mentalement fragile et sujette à des illusions, nous ne voulons pas que l’IA renforce cela », a écrit Altman sur X.

A lire également