Le chef de l’IA de Biden affirme que le « clonage vocal » est ce qui l’empêche de dormir la nuit
- Le chef de l’IA de Biden, Bruce Reed, s’inquiète des contrefaçons audio.
- Il a déclaré que le « clonage de la voix » était la seule chose qui l’empêchait de dormir la nuit, a rapporté Politico.
- Les plateformes de clonage vocal sont propices à une utilisation abusive en raison de leur accessibilité.
La technologie de l’IA, capable de recréer de manière convaincante les voix humaines, s’annonce comme une préoccupation majeure des législateurs.
« Le clonage vocal est une chose qui m’empêche de dormir la nuit », a déclaré Bruce Reed, chef de cabinet adjoint de la Maison Blanche. dit Politique. Reed, qui a été chargé de diriger la stratégie d’IA de l’administration Biden, a qualifié la technologie de « terriblement bonne », même si elle est encore assez nouvelle.
« La société n’a pas encore réalisé à quel point la notion de fausses voix parfaites pourrait bouleverser nos vies. Personne ne répondra au téléphone s’il ne peut pas être sûr si la voix de l’autre côté est réelle ou fausse », a-t-il déclaré. Politique.
Les fraudeurs téléphoniques, par exemple, ont déjà été exploiter les progrès du clonage vocal technologie pour rendre leurs projets plus crédibles.
En mars, la FTC a déclaré que les escrocs s’appuyaient sur la technologie de l’IA pour « améliorer » leurs escroqueries familiales en cas d’urgence, en utilisant des programmes de clonage vocal pour convaincre les gens que les membres de leur famille étaient en détresse.
En avril, une mère de l’Arizona a reçu un appel d’un escroc qui avait utilisé un logiciel de clonage vocal pour prétendre avoir kidnappé sa fille. « C’était entièrement sa voix. C’était son inflexion », avait-elle déclaré à l’époque à un média local. Les escrocs n’ont besoin que de trois ou quatre secondes de la voix d’une personne pour créer un clone convaincant avec une correspondance à 85 %, selon un rapport à partir du logiciel de sécurité McAfee.
Dans le même temps, le maire de la ville de New York, Eric Adams, affirme que les clones de sa propre voix générés par l’IA l’ont aidé à se connecter avec une partie plus large de la population de la ville.
Depuis l’année dernière, il est appeler automatiquement les résidents dans une poignée de langues qu’il ne parle pas, y compris le mandarin, l’espagnol et le yiddish. Adams affirme que les appels automatisés l’ont aidé à toucher davantage de résidents non anglophones de la ville. Des gens l’ont même arrêté dans la rue pour lui demander s’il parle mandarin. Certains universitaires et experts en matière de protection de la vie privée affirment que l’initiative d’Adam est encore trompeuse, ou du moins souligne le fait que les politiciens doivent établir des règles de base plus claires sur la manière dont ils utilisent l’IA.
Beaucoup de ces plateformes sont prêtes à être utilisées à mauvais escient. Ils sont accessibles et leur utilisation est assez simple.
Adams s’appuie sur une plate-forme de clonage vocal d’ElevenLabs qui est gratuite et nécessite moins d’une minute de l’audio d’un individu pour générer un clone de « haute qualité », selon à son site Internet. Et peu de temps après son lancement en version bêta en janvier, ElevenLabs a publié une déclaration affirmant avoir remarqué un nombre croissant de « cas d’utilisation abusive du clonage vocal ».
ElevenLabs n’a pas fourni de détails spécifiques sur les cas à l’époque, mais Vice signalé que des clips audio deepfake de Joe Rogan, Ben Shapiro et Emma Watson faisant des commentaires racistes, violents et transphobes générés via son logiciel avaient été téléchargés sur le site imageboard 4chan.