Início Tecnologia Legislador californiano por trás do SB 1047 Reignites Push to obrigatório relatórios...

Legislador californiano por trás do SB 1047 Reignites Push to obrigatório relatórios de segurança da IA

30
0
dome of California State Capitol Building, Sacramento

O senador estadual Scott Wiener, na Califórnia, introduziu novas mudanças em seu último projeto de lei na quarta -feira, SB 53, que exigiria as maiores empresas de IA do mundo para publicar protocolos de segurança e proteção e emitir relatórios quando ocorrem incidentes de segurança.

Se assinado na lei, a Califórnia seria o primeiro estado a impor exigências significativas de transparência aos principais desenvolvedores de IA, incluindo OpenAI, Google, Anthrópica e Xai.

O projeto anterior de IA do senador Wiener, SB 1047, incluiu requisitos semelhantes para os desenvolvedores de modelos de IA publicarem relatórios de segurança. O Vale do Silício, no entanto, lutou contra a luta contra esse projeto de lei, e foi veto pelo governador Gavin Newsom. O governador da Califórnia solicitou um grupo de líderes de IA-e sob o principal pesquisador e co-fundador de Stanford, da World Labs, a Fei Fei Li-om para formar um grupo de políticas e estabelecer metas para os investimentos em segurança da IA ​​do estado.

O Grupo de Políticas de AI da Califórnia publicou recentemente suas recomendações finais, referindo -se à necessidade de “requisitos para o setor publicar informações sobre seus sistemas” para estabelecer um “ambiente de evidência robusto e transparente”. O escritório do senador Wiener disse em um comunicado à imprensa que as emendas do SB 53 foram fortemente influenciadas por este relatório.

“O projeto continua sendo um trabalho em andamento e estou ansioso para trabalhar com todas as partes interessadas nas próximas semanas para refinar essa proposta à lei mais científica e honesta”, disse o senador Wiener no comunicado.

O SB 53 quer encontrar um equilíbrio que o governador Newsom alegou que o SB 1047 não atingiu -se, criando requisitos significativos de transparência para os maiores desenvolvedores de IA sem impedir o rápido crescimento da indústria de IA da Califórnia.

“Essas são as preocupações de que minha organização e outras pessoas falam há um tempo”, diz Nathan Calvin, vice -presidente de assuntos estatais do Grupo de Segurança da IA ​​sem fins lucrativos, codifica, em entrevista ao TechCrunch. “Ter as empresas explicarem ao público e ao governo quais medidas eles tomam para enfrentar esses riscos parecem um passo mínimo absoluto e razoável a ser tomado”.

O projeto de lei também cria proteção de denunciantes para os funcionários dos laboratórios de IA que acreditam que a tecnologia de sua empresa é um “risco crítico” para a sociedade – definido no projeto de lei como contribuições para a morte ou lesão de mais de 100 pessoas, ou mais de US $ 1 bilhão em danos.

Além disso, a conta deseja fazer do Calcumple, um cluster de computação em nuvem pública para oferecer suporte a startups e pesquisadores que desenvolvem IA em larga escala.

Em contraste com o SB 1047, o novo relato do senador Wiener não torna os desenvolvedores de modelos de IA responsáveis ​​pelos danos de seus modelos de IA. O SB 53 também foi projetado para não formar um ônus para startups e pesquisadores que refinam os modelos de IA dos principais desenvolvedores de IA ou usam modelos de código aberto.

Com as novas mudanças, o SB 53 está agora a caminho do Comitê de Assembléia Estadual da Califórnia sobre Privacidade e Proteção ao Consumidor para Aprovamento. Se passar para lá, o projeto também deve passar por vários outros órgãos legislativos antes de chegar ao cargo do governador Newsom.

Do outro lado dos EUA, o governador de Nova York Kathy Hochul está agora considerando uma conta de segurança de IA semelhante, a Lei Raise, que também exigiria que grandes desenvolvedores de IA publicassem relatórios de segurança.

O destino das leis de IA, como o Raise Act e o SB 53, estava brevemente em perigo, porque os legisladores federais consideraram uma moratória de IA de 10 anos sobre o regulamento da IA ​​do Estado tentou limitar uma “retalhos” das leis de IA que deveriam navegar nas empresas. No entanto, essa proposta falhou em julho em uma voz de 99-1 no Senado.

“Garantir que a IA seja segura, não deve ser controversa – deve ser fundamental”, diz Geoff Ralston, ex -presidente da Y Combinator, em comunicado à TechCrunch. “O Congresso deve liderar, exigir transparência e responsabilidade das empresas que constroem modelos de fronteira. Mas sem uma ação federal séria à vista, os estados devem aumentar. O SB 53 da Califórnia é um exemplo bem considerado e bem estruturado de liderança estadual”.

Até agora, os legisladores não conseguiram colocar as empresas de IA a bordo com os requisitos de transparência exigidos pelo Estado. Anthrópica endossou e pronunciou um otimismo modesto sobre as recomendações do grupo de políticas de IA na Califórnia. Mas empresas como OpenAI, Google e Meta são mais resistentes a esses esforços.

Os principais desenvolvedores de modelos de IA geralmente publicam relatórios de segurança para seus modelos de IA, mas foram menos consistentes nos últimos meses. Por exemplo, o Google decidiu não publicar um relatório de segurança para o modelo de IA mais avançado já lançado, Gemini 2.5 Pro, até meses após a disponibilização. O Openai também decidiu não publicar um relatório de segurança para seu modelo GPT-4.1. Mais tarde, surgiu um estudo de terceiros que sugeria que poderia estar menos alinhado do que os modelos anteriores de IA.

O SB 53 representa uma versão coordenada das contas de segurança de IA anteriores, mas ainda pode forçar as empresas de IA a publicar mais informações do que hoje. Por enquanto, eles ficarão de olho no senador Wiener testes que fronteira novamente.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here