Meta s’excuse pour l’afflux soudain de contenu graphique sur les rouleaux Instagram
Meta s’est excusé pour une « erreur » après que les utilisateurs d’Instagram ont signalé un flot de contenu graphique et dérangeant recommandé sur leurs flux.
« Nous avons corrigé une erreur qui a amené certains utilisateurs à voir du contenu dans leur flux de rouleaux Instagram qui n’aurait pas dû être recommandé », a déclaré un porte-parole de Meta dans un communiqué à Trading Insider mercredi.
Les utilisateurs d’Instagram dans le monde entier ont déclaré avoir vu un flot de vidéos courtes montrant le gore et la violence, y compris les meurtres et la violence du cartel, mercredi. Ces vidéos ont été marquées de l’étiquette « Contenu sensible » mais étaient recommandées aux utilisateurs consécutifs.
Meta, qui possède Facebook, Instagramet Threadsdit qu’il supprime Contenu « particulièrement violent ou graphique » et ajoute des niveaux d’avertissement à d’autres. Il empêche également les utilisateurs de moins de 18 ans de consulter ce contenu.
Au cours de la première semaine de janvier, Meta a remplacé les vérifications de faits tierces sur ses plateformes américaines par un modèle de bilan de notes communautaires.
La société prévoyait également de « simplifier » ses politiques de contenu, a déclaré Joel Kaplan, le chef des Affairs mondiaux, à l’époque. Meta « se débarrasserait d’un tas de restrictions sur des sujets tels que l’immigration et le genre qui sont hors de contact avec le discours grand public ».
En janvier, Trading Insider a indiqué que le géant de la technologie mettrait officiellement fin à ses partenariats de vérification des faits américains en mars.
Meta a été confronté à une série de controverses depuis 2016 sur des pertes dans la modération du contenu. Il a été confronté à des critiques pour, entre autres, son rôle dans les ventes de drogues illicites. L’année dernière, le fondateur Mark Zuckerberg a rejoint d’autres PDG technologiques pour un Congressional Grilling à propos Mesures de sécurité pour les enfants en ligne.
À l’international, le manque de modération de contenu de Meta et la dépendance à l’égard des groupes de la société civile tiers pour signaler la désinformation se sont avérés jouer un rôle dans la prolifération de la violence au Myanmar, en Irak et en Éthiopie.
Les modifications de modération du contenu de Zuckerberg ressemblent à celles réalisées par Elon Musk sur la plate-forme de médias sociaux X, qu’il a achetée en 2022.
