Início Tecnologia A corrida para regulamentar a IA gerou um confronto federal x estadual

A corrida para regulamentar a IA gerou um confronto federal x estadual

20
0
O presidente dos EUA, Donald Trump, exibe uma ordem executiva sobre inteligência artificial que assinou no

Pela primeira vez, Washington está perto de decidir como regular a inteligência artificial. E a luta que está se formando não é sobre tecnologia, mas sobre quem faz a regulamentação.

Na ausência de um padrão federal significativo de IA que se concentre na segurança do consumidor, os estados introduziram dezenas de projetos de lei para proteger os residentes contra danos relacionados à IA, incluindo o projeto de lei de segurança de IA da Califórnia, SB-53, e a Lei de Governança de IA Responsável do Texas, que proíbe o uso indevido intencional de sistemas de IA.

Os gigantes da tecnologia e as startups nascidas no Vale do Silício argumentam que tais leis criam uma colcha de retalhos impraticável que ameaça a inovação.

“Isso vai nos atrasar na corrida contra a China”, disse Josh Vlasto, cofundador do pró-AI PAC Leading the Future, ao TechCrunch.

A indústria, e vários dos seus transplantes na Casa Branca, está a pressionar por um padrão nacional ou mesmo por nenhum. Nas trincheiras dessa batalha do tudo ou nada, surgiram novos esforços para proibir os estados de promulgar a sua própria legislação sobre IA.

Os legisladores da Câmara estão supostamente tentando usar a Lei de Autorização de Defesa Nacional (NDAA) para bloquear as leis estaduais de IA. Ao mesmo tempo, um rascunho vazado de uma ordem executiva da Casa Branca também demonstra um forte apoio à antecipação dos esforços estatais para regular a IA.

Uma preempção abrangente que retiraria aos estados o direito de regular a IA é impopular no Congresso, que votou esmagadoramente contra uma moratória semelhante no início deste ano. Os legisladores argumentaram que, sem um padrão federal em vigor, o bloqueio dos estados deixará os consumidores expostos a danos e as empresas de tecnologia livres para operar sem supervisão.

Evento Techcrunch

São Francisco
|
13 a 15 de outubro de 2026

Para criar esse padrão nacional, o deputado Ted Lieu (D-CA) e a força-tarefa bipartidária de IA da Câmara estão preparando um pacote de projetos de lei federais de IA que cobrem uma série de proteções ao consumidor, incluindo fraude, cuidados de saúde, transparência, segurança infantil e risco catastrófico. Um megaprojeto como este levará provavelmente meses, senão anos, a tornar-se lei, sublinhando a razão pela qual a atual pressa para limitar a autoridade do Estado se tornou uma das lutas mais controversas na política de IA.

As linhas de batalha: NDAA e o EO

Trump exibe uma ordem executiva sobre IA que assinou em 23 de julho de 2025. (Foto de ANDREW CABALLERO-REYNOLDS / AFP) Créditos da imagem:ANDREW CABALLERO-REYNOLDS/AFP/Getty Images

Os esforços para impedir que os estados regulamentem a IA aumentaram nas últimas semanas.

A Câmara considerou incluir uma linguagem no NDAA que impediria os estados de regulamentar a IA, disse o líder da maioria Steve Scalise (R-LA) ao Punchbowl News. O Congresso estaria trabalhando para finalizar um acordo sobre o projeto de defesa antes do Dia de Ação de Graças, informou o Politico. Uma fonte familiarizada com o assunto disse ao TechCrunch que as negociações se concentraram em estreitar o escopo para potencialmente preservar a autoridade do Estado em áreas como segurança e transparência das crianças.

Entretanto, um projecto de EO da Casa Branca que vazou revela a potencial estratégia de preempção da própria administração. A EO, que teria sido colocada em espera, criaria uma “Força-Tarefa de Litígios de IA” para desafiar as leis estaduais de IA em tribunal, orientar as agências para avaliar as leis estaduais consideradas “onerosas” e pressionar a Comissão Federal de Comunicações e a Comissão Federal de Comércio em direção a padrões nacionais que substituem as regras estaduais.

Notavelmente, o EO daria a David Sacks – AI e Crypto Czar de Trump e cofundador da empresa de capital de risco Craft Ventures – autoridade co-líder na criação de uma estrutura jurídica uniforme. Isto daria a Sacks influência direta sobre a política de IA que substituiria o papel típico do Gabinete de Política Científica e Tecnológica da Casa Branca e do seu chefe Michael Kratsios.

Sacks defendeu publicamente o bloqueio da regulamentação estatal e a manutenção da supervisão federal servil, favorecendo a auto-regulação da indústria para “maximizar o crescimento”.

O argumento dos retalhos

A posição de Sacks reflete o ponto de vista de grande parte da indústria de IA. Vários super PACs pró-IA surgiram nos últimos meses, investindo centenas de milhões de dólares em eleições locais e estaduais para se oporem a candidatos que apoiam a regulamentação da IA.

Leading the Future – apoiado por Andreessen Horowitz, o presidente da OpenAI, Greg Brockman, Perplexity e o cofundador da Palantir, Joe Lonsdale – arrecadou mais de US$ 100 milhões. Esta semana, Leading the Future lançou uma campanha de US$ 10 milhões pressionando o Congresso a elaborar uma política nacional de IA que anule as leis estaduais.

“Quando você está tentando impulsionar a inovação no setor de tecnologia, você não pode ter uma situação em que todas essas leis continuem surgindo de pessoas que não têm necessariamente o conhecimento técnico”, disse Vlasto ao TechCrunch.

Ele argumentou que uma colcha de retalhos de regulamentações estatais “nos atrasará na corrida contra a China”.

Nathan Leamer, diretor executivo da Build American AI, o braço de defesa do PAC, confirmou que o grupo apoia a preempção sem que existam proteções federais ao consumidor específicas da IA. Leamer argumentou que as leis existentes, como as que tratam da fraude ou da responsabilidade do produto, são suficientes para lidar com os danos da IA. Enquanto as leis estatais procuram frequentemente prevenir problemas antes que estes surjam, Leamer favorece uma abordagem mais reactiva: deixar as empresas agirem rapidamente, resolver os problemas em tribunal mais tarde.

Não há preempção sem representação

Alex Bores falando em evento em Washington, DC, em 17 de novembro de 2025.Alex Bores falando em evento em Washington, DC, em 17 de novembro de 2025. Créditos da imagem:TechCrunch

Alex Bores, membro da Assembleia de Nova Iorque que concorre ao Congresso, é um dos primeiros alvos do Leading the Future. Ele patrocinou a Lei RAISE, que exige que grandes laboratórios de IA tenham planos de segurança para evitar danos críticos.

“Acredito no poder da IA ​​e é por isso que é tão importante ter regulamentações razoáveis”, disse Bores ao TechCrunch. “Em última análise, a IA que vencerá no mercado será uma IA confiável e, muitas vezes, o mercado subvaloriza ou coloca incentivos de curto prazo inadequados no investimento em segurança.”

Bores apoia uma política nacional de IA, mas argumenta que os estados podem agir mais rapidamente para enfrentar os riscos emergentes.

E é verdade que os estados se movem mais rapidamente.

Em novembro de 2025, 38 estados adotaram mais de 100 leis relacionadas à IA este ano, visando principalmente deepfakes, transparência e divulgação, e uso governamental de IA. (Um estudo recente descobriu que 69% dessas leis não impõem quaisquer requisitos aos desenvolvedores de IA.)

A actividade no Congresso fornece mais provas do argumento mais lento do que os estados. Centenas de projetos de lei sobre IA foram apresentados, mas poucos foram aprovados. Desde 2015, o Rep. Lieu apresentou 67 projetos de lei ao Comitê Científico da Câmara. Apenas um se tornou lei.

Mais de 200 legisladores assinaram uma carta aberta opondo-se à preempção na NDAA, argumentando que “os estados servem como laboratórios de democracias” que devem “manter a flexibilidade para enfrentar novos desafios digitais à medida que estes surgem”. Quase 40 procuradores-gerais estaduais também enviaram uma carta aberta se opondo à proibição da regulamentação estadual de IA.

O especialista em segurança cibernética Bruce Schneier e o cientista de dados Nathan E. Sanders – autores de Rewiring Democracy: How AI Will Transform Our Politics, Government, and Citizenship – argumentam que a reclamação dos retalhos é exagerada.

As empresas de IA já cumprem regulamentações mais rigorosas da UE, observam, e a maioria das indústrias encontra uma forma de operar sob diversas leis estaduais. O verdadeiro motivo, dizem eles, é evitar a responsabilização.

Como seria um padrão federal?

Lieu está redigindo um megaprojeto de mais de 200 páginas que espera apresentar em dezembro. Abrange uma série de questões, como penalidades por fraude, proteções contra deepfakes, proteções para denunciantes, recursos computacionais para o meio acadêmico e testes e divulgação obrigatórios para grandes empresas de modelos de linguagem.

Esta última disposição exigiria que os laboratórios de IA testassem os seus modelos e publicassem os resultados – algo que a maioria faz agora voluntariamente. Lieu ainda não apresentou o projeto de lei, mas disse que não orienta nenhuma agência federal a revisar diretamente os modelos de IA. Isso difere de um projeto de lei semelhante apresentado pelos Sens Josh Hawley (R-MS) e Richard Blumenthal (D-CN), que exigiria um programa de avaliação administrado pelo governo para sistemas avançados de IA antes de serem implantados.

Lieu reconheceu que seu projeto de lei não seria tão rigoroso, mas disse que teria mais chances de ser transformado em lei.

“Meu objetivo é transformar algo em lei neste mandato”, disse Lieu, observando que o líder da maioria na Câmara, Scalise, é abertamente hostil à regulamentação da IA. “Não estou redigindo um projeto de lei que teria feito se fosse rei. Estou tentando redigir um projeto de lei que possa ser aprovado por uma Câmara controlada pelos republicanos, um Senado controlado pelos republicanos e uma Casa Branca controlada pelos republicanos.”

Fuente