Comment Meta lutte contre la désinformation russe générée par l’IA avant les élections américaines
La Russie utilise depuis des années les réseaux sociaux pour influencer la politique internationale. Aujourd’hui, l’intelligence artificielle vient renforcer ses efforts.
Dans un rapport de sécurité récemment publié, Meta a identifié la Russie comme la « première source » d’efforts mondiaux coordonnés de comportement inauthentique (ou CIB). Le pays compte au moins 39 « opérations d’influence secrètes », a déclaré Meta.
Les opérations d’influence russes ont utilisé l’IA générative pour créer des personnages pour de faux journalistes et publier des articles sur des sites d’information fictifs avec des informations déformées à partir d’articles authentiques, a déclaré Meta dans son rapport.
Alors que les efforts russes passés pour influencer la politique américaine s’appuyaient sur des questions sociales et culturelles brûlantes dans un pays donné pour gagner du terrain, la « campagne trompeuse » actuelle est principalement axée sur la guerre de la Russie en Ukraine, pour laquelle les opérateurs russes tentent de rallier des soutiens, selon le rapport de Meta.
La Russie entretient des relations glaciales avec Meta depuis son invasion de l’Ukraine en 2022. Facebook a retiré toutes les publicités en Russie et bloqué les publicités russes peu après l’invasion. Quelques mois plus tard, la Russie a classé Meta dans la catégorie des organisations extrémistes et terroristes.
« D’ici les élections américaines de novembre, nous nous attendons à ce que les opérations menées par la Russie encouragent les commentaires favorables aux candidats qui s’opposent à l’aide à l’Ukraine et critiquent ceux qui prônent l’aide à sa défense », indique le rapport de Meta. « Cela pourrait prendre la forme d’une imputation des difficultés économiques des États-Unis à l’aide financière à l’Ukraine, d’une présentation du gouvernement ukrainien comme peu fiable ou d’une amplification des opinions pro-russes sur la guerre et ses perspectives. »
Meta a déclaré qu’elle ciblait et supprimait davantage de publications et de comptes trompeurs qui s’appuient fortement sur l’IA ou qui sont gérés par des sous-traitants dans le cadre de campagnes de tromperie à forfait. Aucun de ces deux systèmes n’a été particulièrement efficace pour éviter d’être détecté, a déclaré Meta, qualifiant les opérations de « faible qualité, à volume élevé » avec des failles dans la sécurité opérationnelle.
« Les tactiques basées sur GenAI n’apportent qu’une productivité supplémentaire et des gains de création de contenu aux acteurs malveillants, et n’ont pas entravé notre capacité à perturber leurs opérations d’influence », indique le rapport Meta. « En fait, nous continuons de voir de vraies personnes qualifier ces réseaux de trolls, alors qu’ils ont du mal à s’adresser à un public authentique. »
Êtes-vous un employé actuel ou ancien de Meta et avez-vous une histoire à raconter ? Contactez ce journaliste à kbalevic@businessinsider.com pour lui donner des conseils.