O senador estadual Scott Wiener, na Califórnia, introduziu novas mudanças em seu último projeto de lei na quarta -feira, SB 53, que exigiria as maiores empresas de IA do mundo para publicar protocolos de segurança e proteção e emitir relatórios quando ocorrem incidentes de segurança.
Se assinado na lei, a Califórnia seria o primeiro estado a impor exigências significativas de transparência aos principais desenvolvedores de IA, incluindo OpenAI, Google, Anthrópica e Xai.
O projeto anterior de IA do senador Wiener, SB 1047, incluiu requisitos semelhantes para os desenvolvedores de modelos de IA publicarem relatórios de segurança. O Vale do Silício, no entanto, lutou contra a luta contra esse projeto de lei, e foi veto pelo governador Gavin Newsom. O governador da Califórnia solicitou um grupo de líderes de IA-e sob o principal pesquisador e co-fundador de Stanford, da World Labs, a Fei Fei Li-om para formar um grupo de políticas e estabelecer metas para os investimentos em segurança da IA do estado.
O Grupo de Políticas de AI da Califórnia publicou recentemente suas recomendações finais, referindo -se à necessidade de “requisitos para o setor publicar informações sobre seus sistemas” para estabelecer um “ambiente de evidência robusto e transparente”. O escritório do senador Wiener disse em um comunicado à imprensa que as emendas do SB 53 foram fortemente influenciadas por este relatório.
“O projeto continua sendo um trabalho em andamento e estou ansioso para trabalhar com todas as partes interessadas nas próximas semanas para refinar essa proposta à lei mais científica e honesta”, disse o senador Wiener no comunicado.
O SB 53 quer encontrar um equilíbrio que o governador Newsom alegou que o SB 1047 não atingiu -se, criando requisitos significativos de transparência para os maiores desenvolvedores de IA sem impedir o rápido crescimento da indústria de IA da Califórnia.
“Essas são as preocupações de que minha organização e outras pessoas falam há um tempo”, diz Nathan Calvin, vice -presidente de assuntos estatais do Grupo de Segurança da IA sem fins lucrativos, codifica, em entrevista ao TechCrunch. “Ter as empresas explicarem ao público e ao governo quais medidas eles tomam para enfrentar esses riscos parecem um passo mínimo absoluto e razoável a ser tomado”.
O projeto de lei também cria proteção de denunciantes para os funcionários dos laboratórios de IA que acreditam que a tecnologia de sua empresa é um “risco crítico” para a sociedade – definido no projeto de lei como contribuições para a morte ou lesão de mais de 100 pessoas, ou mais de US $ 1 bilhão em danos.
Além disso, a conta deseja fazer do Calcumple, um cluster de computação em nuvem pública para oferecer suporte a startups e pesquisadores que desenvolvem IA em larga escala.
Em contraste com o SB 1047, o novo relato do senador Wiener não torna os desenvolvedores de modelos de IA responsáveis pelos danos de seus modelos de IA. O SB 53 também foi projetado para não formar um ônus para startups e pesquisadores que refinam os modelos de IA dos principais desenvolvedores de IA ou usam modelos de código aberto.
Com as novas mudanças, o SB 53 está agora a caminho do Comitê de Assembléia Estadual da Califórnia sobre Privacidade e Proteção ao Consumidor para Aprovamento. Se passar para lá, o projeto também deve passar por vários outros órgãos legislativos antes de chegar ao cargo do governador Newsom.
Do outro lado dos EUA, o governador de Nova York Kathy Hochul está agora considerando uma conta de segurança de IA semelhante, a Lei Raise, que também exigiria que grandes desenvolvedores de IA publicassem relatórios de segurança.
O destino das leis de IA, como o Raise Act e o SB 53, estava brevemente em perigo, porque os legisladores federais consideraram uma moratória de IA de 10 anos sobre o regulamento da IA do Estado tentou limitar uma “retalhos” das leis de IA que deveriam navegar nas empresas. No entanto, essa proposta falhou em julho em uma voz de 99-1 no Senado.
“Garantir que a IA seja segura, não deve ser controversa – deve ser fundamental”, diz Geoff Ralston, ex -presidente da Y Combinator, em comunicado à TechCrunch. “O Congresso deve liderar, exigir transparência e responsabilidade das empresas que constroem modelos de fronteira. Mas sem uma ação federal séria à vista, os estados devem aumentar. O SB 53 da Califórnia é um exemplo bem considerado e bem estruturado de liderança estadual”.
Até agora, os legisladores não conseguiram colocar as empresas de IA a bordo com os requisitos de transparência exigidos pelo Estado. Anthrópica endossou e pronunciou um otimismo modesto sobre as recomendações do grupo de políticas de IA na Califórnia. Mas empresas como OpenAI, Google e Meta são mais resistentes a esses esforços.
Os principais desenvolvedores de modelos de IA geralmente publicam relatórios de segurança para seus modelos de IA, mas foram menos consistentes nos últimos meses. Por exemplo, o Google decidiu não publicar um relatório de segurança para o modelo de IA mais avançado já lançado, Gemini 2.5 Pro, até meses após a disponibilização. O Openai também decidiu não publicar um relatório de segurança para seu modelo GPT-4.1. Mais tarde, surgiu um estudo de terceiros que sugeria que poderia estar menos alinhado do que os modelos anteriores de IA.
O SB 53 representa uma versão coordenada das contas de segurança de IA anteriores, mas ainda pode forçar as empresas de IA a publicar mais informações do que hoje. Por enquanto, eles ficarão de olho no senador Wiener testes que fronteira novamente.