Il y a eu une augmentation effrayante du nombre de personnes utilisant des applications d’IA pour « déshabiller » les femmes sur des photos, selon les données

Il y a eu une augmentation effrayante du nombre de personnes utilisant des applications d'IA pour « déshabiller » les femmes sur des photos, selon les données
  • Les applications d’IA et les sites Web qui « déshabillent » les femmes sur des photos connaissent une augmentation du nombre de visiteurs.
  • Le cabinet d’analyse Graphika a découvert qu’un groupe de 34 sites Web avait attiré 24 millions de visiteurs en septembre.
  • Les sites Web utilisent l’IA pour générer de faux nus de femmes à partir de photos d’elles portant des vêtements.

Les applications d’IA capables de « déshabiller » les femmes sur des photos voient un plus grand nombre d’utilisateurs, selon les données.

De tels sites et applications de « déshabillage » permettent aux utilisateurs de télécharger l’image d’une personne entièrement habillée. L’IA est ensuite utilisée pour générer une fausse image nue d’eux.

Un groupe de 34 sites Web a attiré plus de 24 millions de visiteurs uniques en septembre, a déclaré la société d’analyse des médias sociaux Graphika dans son rapport de décembre : «Une image révélatrice » Le rapport citait les données du site d’analyse du trafic Similarweb.

Le rapport indique également que le nombre de spams liés aux liens de référence pour ces sites et applications a augmenté de plus de 2 000 % depuis le début de cette année sur des plateformes telles que X et Reddit.

Selon le rapport, 53 autres groupes Telegram utilisés pour accéder à ces services comptent au moins 1 million d’utilisateurs.

Les chercheurs du rapport ont déclaré : « Nous estimons que l’importance croissante et l’accessibilité de ces services entraîneront très probablement de nouveaux cas de préjudices en ligne, tels que la création et la diffusion d’images de nus non consensuelles, le harcèlement ciblé. campagnes, sextorsionet le génération de matériel d’abus sexuel sur des enfants.

Des applications qui créent faux nus, des images modifiées numériquement pour faire apparaître une personne nue sur une photographie, existent depuis plusieurs années. Ils sont généralement créés sans le consentement du sujet et ciblaient auparavant des célébrités et des personnalités en ligne.

En février, le streamer Twitch QTCinderella a été victime du porno deepfake des vidéos d’elle circulent en ligne.

Le lendemain du partage en ligne d’une capture d’écran de la vidéo, le streamer a déclaré dans un post X : « La quantité de dysmorphie corporelle que j’ai ressentie depuis que j’ai vu ces photos m’a ruiné. »

Elle a ajouté : « Ce n’est pas aussi simple que d’être ‘simplement’ violée. C’est bien plus que cela. »

En septembre, de fausses images nues de plus de 20 jeunes filles ont circulé dans plusieurs écoles espagnoles. Les photos ont été traitées par une application d’IA, selon El País.

A lire également