Le dernier problème de réputation d’OpenAI : les pirates informatiques
Les coups ne cessent de pleuvoir sur OpenAI, le géant technologique en plein essor. Le dernier problème en date ? Les pirates informatiques.
Malgré son nom, OpenAI a acquis une réputation de secret. Mais il a été surprenant d’apprendre que des pirates informatiques ont réussi à pénétrer dans le système de messagerie interne de l’entreprise dès le début de l’année 2023, volant des informations liées à ses conceptions d’IA, et que l’entreprise n’en a jamais parlé à personne.
Deux personnes au courant de l’incident ont déclaré au New York Times que les dirigeants d’OpenAI avaient décidé de ne pas divulguer publiquement le piratage car aucune information sur les clients ou les partenaires n’avait été compromise. OpenAI n’a pas non plus signalé le piratage à la police ou au FBI.
OpenAI a déclaré à Trading Insider que la société avait « identifié et corrigé » le « problème de sécurité sous-jacent » qui a conduit à la violation. La société a déclaré que le pirate était un particulier sans affiliation gouvernementale et qu’aucun référentiel de code source n’avait été affecté.
Cependant, le piratage a suscité des inquiétudes à l’intérieur et à l’extérieur de l’entreprise selon lesquelles la sécurité d’OpenAI est trop faible, la laissant ouverte à des adversaires étrangers comme la Chine.
Alors que les États-Unis mènent la course mondiale à l’intelligence artificielle, la Chine n’est pas loin derrière. Les responsables américains considèrent que l’utilisation de l’intelligence artificielle par la Chine constitue une menace potentielle majeure pour la sécurité. L’idée que les données et les systèmes d’OpenAI soient accessibles est donc inquiétante.
Les employés de l’entreprise ont également exprimé leur inquiétude quant à l’attention portée à la sécurité. Leopold Aschenbrenner, ancien membre du conseil d’administration d’OpenAI, a déclaré que l’entreprise l’avait licencié en avril après qu’il ait envoyé une note détaillant un « incident de sécurité majeur ». Il a décrit la sécurité de l’entreprise comme « extrêmement insuffisante » pour se protéger contre le vol par des acteurs étrangers.
OpenAI a nié avoir licencié Aschenbrenner pour avoir soulevé des problèmes de sécurité.
Aschenbrenner était membre de l’équipe de « superalignement » de l’entreprise, qui travaillait pour assurer le développement sûr de la technologie d’OpenAI. Un mois après qu’OpenAI a licencié Aschenbrenner, deux autres membres de l’équipe ont démissionné, et l’équipe s’est effectivement dissoute.
L’un d’entre eux était le cofondateur et scientifique en chef d’OpenAI, Ilya Sustkever. Il a annoncé son départ six mois seulement après avoir contribué à l’échec de l’éviction du PDG d’OpenAI, Sam Altman, en partie à cause de désaccords entre les deux hommes sur la sécurité de la technologie. Quelques heures après l’annonce du départ de Sustkever, son collègue Jan Leike a également quitté l’entreprise.
Une fois le drame réglé, OpenAI a créé le mois dernier un nouveau comité de sécurité et de sûreté, en accueillant à sa tête l’ancien directeur de la NSA, Paul Nakasone. Nakasone, désormais le nouveau membre du conseil d’administration d’OpenAI, est l’ancien chef du Cyber Command américain, la division de cybersécurité du ministère de la Défense.
Si la présence de Nakasone indique qu’OpenAI prend la sécurité plus au sérieux, son arrivée n’a pas non plus été sans controverse. Edward Snowden, le lanceur d’alerte américain qui fuite de documents classifiés détaillant la surveillance gouvernementale en 2013, a déclaré dans un publier sur X que l’embauche de Nakosone était une « trahison calculée des droits de chaque personne sur Terre ».