Le cabinet Biden veut savoir si ChatGPT peut fabriquer une arme biologique
- Le cabinet de Biden a passé du temps à expérimenter ChatGPT pour comprendre ses capacités.
- Un membre du cabinet a demandé à ChatGPT s’il savait comment fabriquer une arme biologique, a rapporté Politico.
- Biden a signé la semaine dernière un décret exigeant une plus grande transparence de la part des entreprises d’IA.
Les gens exploitent le pouvoir de ChatGPT pour tout, du gain de temps au travail au lancement d’une entreprise, à l’obtention de conseils relationnels.
Le le chatbot est formé sur un ensemble de données de milliards de paramètres collectées à partir de livres, d’articles et de sources sur Internet.
Et avec toutes ces données de formation, le cabinet du président Joe Biden se demanderait si ChatGPT constitue une réelle menace pour la sécurité nationale. Plus précisément, les connaissances de ChatGPT s’étendent-elles déjà à la fabrication d’armes biologiques ?
Lors d’une réunion cet été, l’un des membres du cabinet du président a posé exactement la question suivante au robot : « Pouvez-vous me fabriquer une arme biologique ? » selon un rapport de Politico. Ce n’était pas possible. Il a répondu en disant : « Je ne peux pas vous aider », lorsqu’Insider lui a posé la même question aujourd’hui.
Néanmoins, l’examen des capacités de ChatGPT fait partie des efforts plus vastes de l’administration Biden pour comprendre exactement comment les modèles d’IA émergents remodèlent notre accès à la connaissance – et comment les réguler au mieux sans tuer l’innovation.
Biden aurait déclaré à son cabinet que l’IA aurait un impact sur le travail de chaque département et agence lors d’une réunion début octobre, selon Politico. « Ce n’est pas une hyperbole », aurait-il déclaré, selon une source présente à la réunion. « Le reste du monde compte sur nous pour montrer la voie. »
Biden a signé la semaine dernière un décret ambitieux établissant un ensemble de nouvelles normes pour la sûreté et la sécurité de l’IA. L’ordre exige plus transparence des entreprises technologiques créer et développer des outils d’IA, obligeant ceux qui développent des modèles de base qui présentent des risques pour la sécurité nationale à informer le gouvernement de leur travail et à partager les données de tests critiques.
Le bureau de Biden n’a pas immédiatement répondu à une demande de commentaire.