D’anciens chercheurs d’OpenAI mettent en garde contre des « dommages catastrophiques » après que l’entreprise s’est opposée au projet de loi sur la sécurité de l’IA
Deux anciens chercheurs d’OpenAI dénoncent l’opposition de l’entreprise au SB 1047, un projet de loi californien qui mettrait en œuvre des protocoles de sécurité stricts dans le développement de l’IA, y compris un « kill switch ».
Les anciens employés ont écrit dans une lettre partagé pour la première fois avec Politico au gouverneur de Californie Gavin Newsom et à d’autres législateurs que l’opposition d’OpenAI au projet de loi est décevante mais pas surprenante.
« Nous avons rejoint OpenAI parce que nous voulions garantir la sécurité des systèmes d’IA incroyablement puissants que l’entreprise développe », ont écrit les chercheurs William Saunders et Daniel Kokotajlo dans la lettre. « Mais nous avons démissionné d’OpenAI parce que nous avons perdu confiance dans le fait qu’elle développerait ses systèmes d’IA de manière sûre, honnête et responsable. »
Saunders et Kokotajlo n’ont pas immédiatement répondu aux demandes de commentaires de Trading Insider.
Ils ont poursuivi : « Le développement de modèles d’IA de pointe sans précautions de sécurité adéquates présente des risques prévisibles de dommages catastrophiques pour le public. »
Le PDG d’OpenAI, Sam Altman, a soutenu à plusieurs reprises et publiquement le concept de réglementation de l’IA, ont écrit Saunders et Kokotajlo, citant le témoignage d’Altman devant le Congrès appelant à une intervention du gouvernement, mais « lorsqu’une réglementation réelle est sur la table, il s’y oppose ».
Un porte-parole d’OpenAI a déclaré à BI dans un communiqué : « Nous sommes fortement en désaccord avec la mauvaise interprétation de notre position sur le SB 1047. » Le porte-parole a renvoyé BI vers une lettre distincte écrite par le directeur de la stratégie d’OpenAI, Jason Kwon, au sénateur californien Scott Wiener, qui a présenté le projet de loi, expliquant l’opposition de l’entreprise.
La SB1047 « a suscité un débat approfondi » et OpenAI soutient certaines de ses dispositions de sécurité, peut-on lire dans la lettre de Kwon, datée d’un jour avant l’envoi de la lettre des chercheurs. Cependant, en raison des implications du développement de l’IA sur la sécurité nationale, l’entreprise estime que la réglementation devrait être « élaborée et mise en œuvre au niveau fédéral ».
« Un ensemble de politiques d’IA pilotées par le gouvernement fédéral, plutôt qu’un patchwork de lois étatiques, favorisera l’innovation et positionnera les États-Unis pour diriger le développement de normes mondiales », peut-on lire dans la lettre de Kwon.
Mais Saunders et Kokotajlo ne sont pas convaincus que la pression en faveur d’une législation fédérale soit la seule raison pour laquelle OpenAI s’oppose au projet de loi SB 1047 de Californie, affirmant que les plaintes de l’entreprise concernant le projet de loi « ne sont pas constructives et ne semblent pas de bonne foi ».
« Nous ne pouvons pas attendre que le Congrès agisse – il a explicitement déclaré qu’il n’était pas disposé à adopter une réglementation significative sur l’IA », ont écrit Saunders et Kokotajlo. « S’il le fait un jour, cela pourrait devancer la législation de la Californie. »
Les anciens employés d’OpenAI ont conclu : « Nous espérons que la législature californienne et le gouverneur Newsom feront ce qu’il faut et adopteront la SB 1047. Avec une réglementation appropriée, nous espérons qu’OpenAI pourra encore être à la hauteur de sa mission de construire une AGI en toute sécurité. »
Les représentants de Wiener et Newsom n’ont pas immédiatement répondu aux demandes de commentaires de BI.