Anthropic affirme être sur le point de soutenir le projet de loi californien sur l’intelligence artificielle après que les législateurs ont apporté quelques modifications. Voici ce qui a changé.

Anthropic affirme être sur le point de soutenir le projet de loi californien sur l'intelligence artificielle après que les législateurs ont apporté quelques modifications. Voici ce qui a changé.

La société d’IA Anthropic soutient désormais un projet de loi controversé connu sous le nom de SB 1047, qui réglementerait l’IA en Californie.

Dans une lettre adressée au gouverneur de Californie Gavin Newsom, le PDG d’Anthropic, Dario Amodei, a déclaré que les « avantages du projet de loi dépassent probablement ses coûts ». Il a toutefois ajouté que « nous n’en sommes pas certains et que certains aspects du projet de loi nous semblent encore préoccupants ou ambigus ».

L’approbation prudente d’Anthropic intervient seulement un mois après que la société a proposé une série d’amendements au projet de loi SB 1047, qui a été présenté pour la première fois à l’assemblée législative de l’État par le sénateur Scott Wiener en février.

Dans une lettre envoyée aux dirigeants des États en juillet, Anthropic a appelé à une plus grande attention portée à la dissuasion des entreprises de construire des modèles dangereux plutôt qu’à l’application de lois strictes avant que des incidents catastrophiques ne se produisent. L’organisation a également suggéré que les entreprises puissent définir leurs propres normes en matière de tests de sécurité au lieu de se conformer aux réglementations prescrites par l’État.

Une version amendée du projet de loi publiée le 19 août comprend plusieurs modifications. Tout d’abord, elle limite la portée des sanctions civiles pour les violations qui n’entraînent pas de préjudice ou de risque imminent, selon un article de Nathan Calvin, conseiller politique principal au Center for AI Safety Action Fund, qui est co-parrain du projet de loi et qui travaille avec Anthropic depuis sa première présentation.

Le texte comporte également quelques modifications importantes. Alors que le projet de loi demandait à l’origine aux entreprises de démontrer une « assurance raisonnable » contre les préjudices potentiels, il leur demande désormais de démontrer une « diligence raisonnable », ce qui « contribue à clarifier l’orientation du projet de loi sur les tests et l’atténuation des risques », selon Calvin. C’est également « la norme la plus courante en matière de responsabilité délictuelle », a-t-il écrit.

La version mise à jour a également réduit la taille d’une nouvelle agence gouvernementale chargée de faire respecter les réglementations en matière d’IA, autrefois appelée Frontier Model Division, à un conseil connu sous le nom de Board of Frontier Models et l’a placé au sein de l’Agence des opérations gouvernementales déjà existante. Ce conseil compte désormais neuf membres au lieu de cinq. Cependant, les exigences en matière de rapports imposées aux entreprises ont également augmenté. Les entreprises doivent publier des rapports de sécurité et envoyer des versions non expurgées au procureur général de l’État.

Le projet de loi mis à jour supprime la sanction du parjure, éliminant ainsi toute responsabilité pénale pour les entreprises et imposant uniquement des responsabilités civiles. Les entreprises sont désormais tenues de soumettre des « déclarations de conformité » au procureur général plutôt que des « certificats de conformité » à la Frontier Model Division.

Selon Amodei, le projet de loi « nous semble désormais être à mi-chemin entre la version que nous suggérons et le projet de loi original ». Les avantages que représentent le développement de protocoles de sécurité et de sûreté accessibles au public, l’atténuation des dommages en aval et le fait de forcer les entreprises à remettre sérieusement en question les risques liés à leurs technologies « amélioreront considérablement » la capacité du secteur à lutter contre les menaces.

Anthropic se présente comme une « entreprise de sécurité et de recherche » et a obtenu un financement d’environ 4 milliards de dollars de la part d’Amazon. En 2021, un groupe d’anciens employés d’OpenAI, dont Dario Amodei et sa sœur Daniela, ont créé l’entreprise parce qu’ils pensaient que l’IA aurait un impact considérable sur le monde et voulaient créer une entreprise qui garantirait qu’elle soit alignée sur les valeurs humaines.

« Wiener a été très heureux de voir le type d’engagement détaillé qu’Anthropic a apporté dans sa lettre de soutien en cas de modification », a déclaré Calvin à Trading Insider. « J’espère vraiment que cela encouragera d’autres entreprises à s’engager également de manière substantielle et à essayer d’aborder certaines de ces questions avec nuance et à se rendre compte que ce genre de faux compromis entre innovation et sécurité ne sera pas dans l’intérêt à long terme de cette industrie. »

D’autres entreprises concernées par la nouvelle législation se sont montrées plus hésitantes. OpenAI a envoyé cette semaine une lettre aux dirigeants de l’État de Californie pour s’opposer au projet de loi. L’une de ses principales préoccupations était que la nouvelle réglementation pousserait les entreprises d’IA hors de Californie. Meta a également fait valoir que le projet de loi « décourageait activement la diffusion d’IA open source ».


A lire également