Le sénateur de l’État de Californie Scott Wiener a présenté mercredi Nouveaux amendements À son dernier projet de loi, SB 53, qui nécessiterait le les plus grandes entreprises d’IA au monde pour publier des protocoles de sécurité et de sécurité et publier des rapports lorsque des incidents de sécurité se produisent.
S’il est signé, la Californie serait le premier État à imposer des exigences de transparence significatives aux principaux développeurs d’IA, y compris probablement OpenAI, Google, Anthropic et XAI.
Sénateur Wiener’s Précédent IA Invoice, SB 1047, Inclus des exigences similaires pour les développeurs de modèles d’IA pour publier des rapports de sécurité. Cependant, la Silicon Valley s’est battu férocement contre ce projet de loi, et c’était finalement opposé opposé au gouverneur Gavin Newsom. Le gouverneur de la Californie a ensuite appelé un groupe de dirigeants de l’IA – y compris le principal chercheur de Stanford et co-fondateur de World Labs, Fei Fei Li – pour former un groupe politique et fixer des objectifs pour les efforts de sécurité de l’IA de l’État.
Le groupe de politiques de l’IA en Californie a récemment publié leur recommandations finalescitant un besoin pour les «exigences de l’industrie pour publier des informations sur leurs systèmes» afin d’établir un «environnement de preuve robuste et clear». Le bureau du sénateur Wiener a déclaré dans un communiqué de presse que les amendements du SB 53 avaient été fortement influencés par ce rapport.
« Le projet de loi proceed d’être un travail en cours, et j’ai hâte de travailler avec toutes les events prenantes dans les prochaines semaines pour affiner cette proposition dans la loi la plus scientifique et la plus équitable potential », a déclaré le sénateur Wiener dans le communiqué.
Le SB 53 vise à trouver un équilibre selon lequel le gouverneur Newsom a affirmé que SB 1047 n’avait pas atteint – idéalement, créant des exigences de transparence significatives pour les plus grands développeurs d’IA sans contrecarrer la croissance rapide de l’industrie de l’IA en Californie.
«Ce sont des inquiétudes dont mon organisation et d’autres parlaient depuis un sure temps», a déclaré Nathan Calvin, vice-président des affaires d’État pour le groupe de sécurité à however non lucratif sur l’IA, Encode, dans une interview avec TechCrunch. «Avoir des entreprises expliquer au public et au gouvernement quelles mesures elles prennent pour faire face à ces risques ressemblent à une étape minimale et raisonnable à franchir.»
Le projet de loi crée également des protections de dénonciation pour les employés des laboratoires d’IA qui croient que la technologie de leur entreprise présente un «risque critique» pour la société – définie dans le projet de loi comme contribuant à la mort ou à la blessure de plus de 100 personnes, soit plus d’un milliard de {dollars} de dégâts.
De plus, le projet de loi vise à créer CalCompute, un cluster public cloud computing pour soutenir les startups et les chercheurs développant une IA à grande échelle.
Contrairement au SB 1047, le nouveau projet de loi du sénateur Wiener ne rend pas les développeurs de modèles d’IA responsables des dommages de leurs modèles d’IA. Le SB 53 a également été conçu pour ne pas poser de fardeau sur les startups et les chercheurs qui a affiner les modèles d’IA des principaux développeurs d’IA ou utiliser des modèles open supply.
Avec les nouveaux amendements, le SB 53 se dirige désormais au Comité de l’Assemblée de l’État de Californie sur la vie privée et la safety des consommateurs pour l’approbation. Si elle s’y adopte, le projet de loi devra également passer par plusieurs autres organismes législatifs avant d’atteindre le bureau du gouverneur Newsom.
De l’autre côté des États-Unis, la gouverneur de New York Kathy Hochul est maintenant Compte tenu d’une facture de sécurité d’IA similaire, La Loi sur l’augmentation, qui obligerait également les grands développeurs d’IA à publier des rapports de sécurité et de sécurité.
Le type des lois sur l’IA de l’État comme la loi sur la relance et le SB 53 étaient brièvement en hazard comme Les législateurs fédéraux ont considéré un moratoire d’IA de 10 ans sur la réglementation de l’IA de l’État – Une tentative de limiter un «patchwork» des lois sur l’IA que les entreprises devraient naviguer. Cependant, cette proposition Échec dans un Sénat 99-1 Votez plus tôt en juillet.
« La garantie de l’IA est développée en toute sécurité ne devrait pas être controversée – elle devrait être fondamentale », a déclaré Geoff Ralston, l’ancien président de Y Combinator, dans une déclaration à TechCrunch. «Le Congrès devrait diriger, exiger la transparence et la responsabilité des entreprises qui construisent des modèles frontaliers. Mais sans motion fédérale sérieuse en vue, les États doivent intensifier.
Jusqu’à présent, les législateurs n’ont pas réussi à faire participer les sociétés en matière d’IA avec des exigences de transparence d’État. Anthropic a largement approuvé La nécessité d’une transparence accrue dans les entreprises d’IAet même exprimé Optimisme modeste sur les recommandations du groupe politique de l’IA en Californie. Mais des entreprises telles que OpenAI, Google et Meta ont été plus résistantes à ces efforts.
Les principaux développeurs de modèles d’IA publient généralement des rapports de sécurité pour leurs modèles d’IA, mais ils ont été moins cohérents ces derniers mois. Google, par exemple, a décidé Pour ne pas publier un rapport de sécurité pour son modèle d’IA le plus avancé jamais sorti, Gemini 2.5 Professional, jusqu’à des mois après sa mise à disposition. Openai a également décidé ne pas publier un rapport de sécurité pour son modèle GPT-4.1. Plus tard, une étude tierce est sortie qui suggérait que cela pourrait être Moins aligné que les modèles d’IA précédents.
Le SB 53 représente une model atténuée des précédentes factures de sécurité de l’IA, mais elle pourrait toujours forcer les entreprises de l’IA à publier plus d’informations qu’aujourd’hui. Pour l’immediate, ils surveilleront de près le sénateur Wiener teste à nouveau ces limites.