Les gens trouvent des moyens de générer des images inappropriées avec les nouveaux autocollants IA de Meta – et partagent les résultats en ligne
- Meta a lancé sa nouvelle fonctionnalité d’autocollant AI la semaine dernière.
- Les utilisateurs ont trouvé des moyens de générer des images extrêmement inappropriées avec l’outil et partagent les résultats en ligne.
- Un universitaire a critiqué les mesures de protection de Meta en matière d’IA dans un article de blog publié dimanche.
Meta a lancé les autocollants IA et d’autres fonctionnalités telles que les assistants IA de célébrités le 27 septembre.
La société a déclaré que cette nouvelle fonctionnalité permet aux utilisateurs de transformer « des invites textuelles en plusieurs autocollants uniques et de haute qualité en quelques secondes » sur des applications Meta comme Instagram et Messenger.
Mais les autocollants sont déjà ridiculisés en ligne après que les gens ont commencé à essayer de trouver des moyens de générer des images extrêmement inappropriées à l’aide de cette technologie.
L’utilisateur X @pioldes a partagé mercredi des exemples d’images que le nouvel outil d’IA pourrait créer, comme un enfant portant une arme à feu et une image obscène du Premier ministre canadien Justin Trudeau.
J’ai découvert que Facebook Messenger avait généré des autocollants maintenant et je ne pense pas que quiconque impliqué ait réfléchi à quoi que ce soit. pic.twitter.com/co987cRhyu
— défendre les droits des trans🏳️⚧️ – podesbiens.bsky.social (@Pioldes) 3 octobre 2023
La publication a depuis accumulé plus de deux millions de vues sur X, la plate-forme anciennement connue sous le nom de Twitter, et a rapidement lancé une multitude d’autres publications d’utilisateurs partageant leurs propres autocollants en ligne.
Certains utilisateurs ont découvert qu’ils pouvaient facilement générer des autocollants représentant des personnages populaires, comme Mickey Mouse tenant une arme à feu, Elmo souriant avec un couteauou une Sonic the Hedgehog enceinte.
ouais, la nouvelle fonctionnalité d’autocollants IA de Facebook est folle pic.twitter.com/ieHrULzjJE
– REVIVAL DU SOLEIL (@SeanMombo) 4 octobre 2023
Bien que certains mots semblent être bloqués par la fonctionnalité, les utilisateurs ont trouvé des moyens de contourner ces blocages avec fautes de frappe ou des invites créatives.
Les autocollants générés par l’IA sont alimentés par Llama2, le rival de Meta de ChatGPT, et ont été déployés pour sélectionner des utilisateurs de langue anglaise. La société a écrit dans un article de blog : « Nous déployons lentement nos nouvelles IA et avons intégré des mesures de protection. »
Cependant, Tama Leaver, professeur d’études Internet à l’Université Curtin, a dénoncé les mesures de protection de Meta en matière d’IA dans un article de blog séparé dimanche.
Meta affirme que leurs nouvelles « expériences d’IA » « ont des garanties intégrées », j’ai donc testé à quel point les nouveaux « autocollants AI » d’Instagram sont réellement sûrs, et comment j’ai découvert que ces outils ne sont vraiment pas « sûrs » du tout : https https://t.co/LZONhtX5Bj
[1/4]
— Tama Leaver ➡️ @tama@aoir.social (@tamaleaver) 1 octobre 2023
« Si une partie des mesures de protection de Meta bloquent le terme » nu « , mais que leur IA produit tout de même des personnages nus, il reste clairement des questions en suspens quant à l’efficacité réelle de ces mesures de protection », a-t-il écrit.
Cependant, le contenu problématique généré par l’IA n’est pas propre à Meta.
En décembre, la populaire application de génération d’avatars d’IA Lensa a fait face à des allégations de sexualisation et de racialisation des avatars des utilisateurs. Les utilisateurs ont déclaré que l’application générait parfois de la nudité dans ses images malgré les règles interdisant le contenu réservé aux adultes.
Les représentants de Meta, Disney, Nintendo, Sega et Trudeau n’ont pas immédiatement répondu aux demandes de commentaires d’Insider, envoyées en dehors des heures normales de bureau.