Questions et réponses : un conseiller en IA de la Maison Blanche affirme que les États-Unis « rattrapent » leur retard technologique, alors que le nouveau décret de Biden exige de la transparence pour les plus grands modèles d’IA au monde.
- Le président Biden vient de signer un décret concernant le développement et l’utilisation de la technologie de l’IA.
- Elle exige un nouveau niveau de transparence de la part des entreprises développant l’IA, mais elle présente des limites.
- « La technologie a eu un peu d’avance », a déclaré Ben Buchanan, conseiller de la Maison Blanche, à Insider.
Cette séance de questions-réponses est basée sur une conversation avec Ben Buchanan, conseiller du Bureau de la politique scientifique et technologique de la Maison Blanche et de l’administration Biden.
Président Biden a signé lundi un nouveau décret exigeant une plus grande transparence de la part des grandes entreprises technologiques sur le développement de modèles et d’outils d’intelligence artificielle et de nouvelles règles sur la manière dont la technologie est utilisée. C’est peut-être trop peu, trop tard.
Le large décret aborde plus d’une douzaine d’utilisations possibles de l’IA et de l’IA générative qui ont déjà, ou pourraient à l’avenir, avoir un impact direct sur la vie des gens. Comme lorsque la technologie de l’IA est utilisée dans la prise de décisions d’entreprise liées au logement, à l’embauche ou même aux peines de prison. Cela exige également un nouveau niveau de transparence de la part des entreprises engagées dans le création et développement d’outils d’IA.
Tous les grands modèles de langage et outils d’IA associés publiés l’année dernière par Meta, Google, Microsoft, OpenAI et d’autres ne sont pas soumis aux tests de sécurité décrits dans le décret. Le seuil de taille est si élevé qu’actuellement, la plupart des modèles disponibles ne répondent pas aux critères de transparence accrue exigés par le décret de Biden. Bien que toutes les grandes entreprises technologiques aient convenu plus tôt cette année d’adhérer à des normes de responsabilité et de formation dans leur travail en matière d’IA.
Les entreprises qui atteignent le seuil devront informer le gouvernement fédéral de leur travail et partager les résultats des tests de sécurité avant de les rendre publics. L’Institut national des normes et de la technologie a été chargé d’établir des « normes rigoureuses » pour de tels tests, y compris des tests sur la possibilité d’outils d’IA génératifs pour orienter les utilisateurs dans la militarisation des armes biologiques. Le modèle Llama 2 de Meta, par exemple, est déjà capable de dire à un utilisateur comment transformer l’anthrax en arme, comme l’a rapporté Insider.
« La technologie a eu un peu d’avance, mais je pense que nous avons agi très rapidement pour rattraper notre retard », a déclaré à Insider Ben Buchanan, qui travaille à la Maison Blanche de Biden depuis 2021, plus récemment en tant que conseiller spécial sur l’IA. un entretien de 8 minutes.
Pour l’interview complète d’Insider avec Buchanan, éditée pour plus de longueur et de clarté, voir ci-dessous :
À quelle fréquence avez-vous parlé aux dirigeants des grandes entreprises technologiques à l’approche de ce décret ? J’ai entendu, par exemple, que la Maison Blanche s’adressait assez fréquemment à Andrew Bosworth de Meta, plusieurs fois par mois.
Nous avons eu des conversations à haut niveau avec toutes les entreprises, mais pas vraiment à propos de l’EO. Nous avons eu de nombreuses discussions au sein de l’entreprise sur les engagements volontaires que nous avons mis en œuvre en juillet. Je ne pense pas que quiconque ait parlé en particulier à Andrew Bosworth depuis juillet, lorsque nous avons mis en œuvre les engagements volontaires. Mais nous nous sommes engagés à ce niveau et au niveau du PDG lors de la préparation. Depuis lors, nous avons discuté avec les entreprises, mais davantage sur les engagements volontaires que sur l’EO.
Y a-t-il eu quelque chose dans les engagements volontaires, pendant que vous y travailliez, qui a constitué un point de friction pour les entreprises et qui a suscité de nombreuses réactions ?
Nous entretenions une relation assez collaborative et nous avions des normes assez élevées à cet égard. Les entreprises l’ont reconnu et savent qu’elles doivent développer des produits sûrs, sécurisés et dignes de confiance. Je pense que nous sommes arrivés au bon endroit.
Dans l’ordonnance, il est dit que les entreprises qui développent un modèle de fondation qui présente un risque sérieux pour la sécurité nationale devront être plus transparentes et divulguer leurs tests de sécurité, et cetera. Cela couvre-t-il la plupart des personnes développant un LLM, ou y a-t-il une certaine taille ou un certain seuil que quelqu’un doit atteindre pour être tenu de faire cette divulgation ?
Il y a un seuil et nous avons essayé de rendre la fiche d’information un peu plus simple, mais vous verrez dans le décret lui-même lorsque le texte sortira, que le seuil s’applique aux modèles qui utilisent plus de 10 au 26ème FLOP en entraînement.
Ce seuil est réglable par le ministère du Commerce. La technologie évolue très rapidement dans ce domaine, mais c’est le seuil de référence. Et puis, il y a un seuil plus bas s’il s’agit d’un modèle formé principalement sur des données de séquence biologique en raison du risque accru dans cet espace. Il est le 23 10 pour la bio, mais de manière générale, c’est le 26 10.
C’est vraiment gros, énorme. Que se passe-t-il lorsque quelqu’un, hypothétiquement, vous donne des données de formation signalées par une agence fédérale ? Quel est le processus alors ? Est-ce que tout s’arrête et que l’entreprise est en difficulté ?
Une grande partie de cela est encore en développement. Aux ministères, nous expliquons dans l’EO la direction du déplacement ici.
Vous pouvez imaginer qu’il existe une sorte d’autorité légale qui entrerait en jeu, selon le drapeau. Hypothétiquement, s’il y avait un risque nucléaire provenant d’un système, vous impliqueriez la loi sur l’énergie atomique, etc. Il s’agit donc d’obtenir les bonnes informations et de faire intervenir les autorités compétentes.
Vous pourriez également imaginer un monde dans lequel le Congrès adopterait une législation qui s’appuierait sur ce que nous faisons ici et établirait un régime de licences. Et beaucoup de membres du Congrès en ont parlé. Nous ne prenons pas position là-dessus. Mais ce que nous faisons ici, c’est fixer une direction à suivre pour le gouvernement américain, qui doit s’assurer que ces systèmes sont sûrs, sécurisés et dignes de confiance avant leur déploiement.
Une grande partie de l’ordre est une directive invitant ces diverses agences à agir. De combien de temps disposent-ils pour fixer ces normes ?
En ce qui concerne les règlements de la Loi sur la production de défense qui obligent la divulgation, cela fait 90 jours. Les entreprises effectuent déjà de nombreux tests de l’équipe rouge. L’élaboration des normes pourrait être un peu plus longue que cela, mais il existe des orientations provisoires sur les normes dans l’EO lui-même qui reflètent largement ce que nous avons convenu dans les engagements volontaires, disant que c’est le genre de choses pour lesquelles vous devez travailler en équipe rouge. .
La transparence demandée, s’agit-il uniquement des modèles à venir ou des modèles actuels déjà déployés ? Est-ce que cela s’applique rétroactivement d’une manière ou d’une autre ?
Les engagements volontaires s’appliquent aux futurs modèles. C’est difficile à faire comme vous pouvez l’imaginer, difficile de faire des tests préalables à l’équipe rouge pour un modèle qui existe.
Pensez-vous que l’IA est dans un cycle de battage médiatique et que tout le monde réagit de manière excessive à ce que cela va signifier ? Compte tenu du nombre de modèles existants, de leur puissance déjà, et cetera, les régulateurs gouvernementaux du monde entier sont-ils un peu en retard sur la technologie en ce moment ?
Je ne ferai pas de commentaire sur le battage médiatique concernant les domaines dans lesquels vous devriez investir, mais je pense que du point de vue du gouvernement, nous pensons qu’il existe de réelles opportunités ici et nous pensons qu’il existe de réels risques. Nous ne prendrions pas cette mesure globale et accélérée si nous pensions que tout cela allait disparaître en une semaine. C’est une priorité pour le Président et son équipe.
En termes d’être derrière la technologie. La technologie a eu un peu d’avance, mais je pense que nous avons agi très rapidement pour rattraper notre retard.
Une chose que je souligne est que nous avons obtenu un accord du G7 sur le tout premier code de conduite international sur l’IA, qui s’appuie sur les engagements volontaires qui ont été signés par les sept gouvernements du G7. Les États-Unis travaillent en collaboration avec leurs alliés et partenaires et agissent très rapidement.
Utilisez-vous l’IA générative, Ben ? Est-ce que quelqu’un dans votre bureau l’utilise ?
BB : À ma connaissance, nous n’avons pas ChatGPT sur les systèmes ici, mais nous utilisons tous l’IA au quotidien dans notre vie quotidienne.
Vous avez un conseil ou une idée à partager ? Contactez Kali Hays à khays@insider.com, sur l’application de messagerie sécurisée Signal au 949-280-0267, ou via DM sur X à @hayskali. Contactez-nous en utilisant un appareil non professionnel.