Início Tecnologia Anthropic processa Pentágono enquanto downloads de Claude disparam

Anthropic processa Pentágono enquanto downloads de Claude disparam

17
0
Anthropic processa Pentágono enquanto downloads de Claude disparam

O aplicativo de IA da Anthropic, Claude, está chegando ao topo das paradas de downloads globais – enquanto a empresa trava uma batalha legal contra o Pentágono por considerá-lo um risco à segurança nacional.

Em uma queixa apresentada na segunda-feira no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia, a Anthropic afirma que o governo federal lançou uma campanha sem precedentes contra a empresa depois que ela manteve suas restrições de segurança. A Anthropic diz que não quer que sua IA seja usada para guerra autônoma letal ou vigilância em massa dos americanos.

“A Antrópica move esta ação porque o governo federal retaliou por expressar esse princípio”, afirma a denúncia. “Quando a Anthropic manteve firme seu julgamento de que Claude não pode ser usado com segurança ou confiabilidade para guerra letal autônoma e vigilância em massa dos americanos, o presidente instruiu todas as agências federais a ‘CESSAR IMEDIATAMENTE todo o uso da tecnologia da Anthropic’.”

VEJA TAMBÉM:

Tudo o que sabemos sobre a iminente proibição dos drones DJI nos Estados Unidos

As consequências foram rápidas e abrangentes. A Administração de Serviços Gerais rescindiu o contrato governamental da Antrópico. O Departamento do Tesouro, a Agência Federal de Financiamento da Habitação, o Departamento de Estado e outras agências governamentais anunciaram que estavam cortando relações com a empresa.

No entanto, a controvérsia parece ter feito pouco para diminuir o entusiasmo do público pelos produtos da Antrópico. Na verdade, os usuários estão mais entusiasmados agora que a Anthropic está enfrentando a administração Trump.

A empresa afirma que agora está adicionando mais de um milhão de novos usuários todos os dias em todo o mundo – quebrando seus próprios recordes de inscrição todos os dias desde o início da disputa.

Velocidade da luz mashável

Claude atualmente ocupa o primeiro lugar na App Store da Apple em 16 países, superando o ChatGPT da OpenAI e o Gemini do Google em mais de 20 mercados, de acordo com dados da AppFigures.

O processo marca o culminar das crescentes tensões entre a Anthropic e o Departamento de Defesa, que a administração Trump chama de Departamento de Guerra. A empresa tinha um contrato importante que tornou os seus sistemas generativos de IA os mais utilizados em todo o Pentágono.

Essa relação desmoronou quando o secretário da Defesa, Pete Hegseth, pressionou para expandir dramaticamente o papel da IA ​​em todas as forças armadas e quis acesso irrestrito às tecnologias de IA. O esforço exigiu que todas as empresas de IA com contratos com o Pentágono renegociassem os seus acordos.

Mas como a Anthropic se tornou o fornecedor dominante de IA para os militares – sendo Claude supostamente o único modelo avançado autorizado a operar em sistemas classificados – a empresa viu-se no centro de um impasse controverso com Hegseth e Trump.

O colapso teve tanto a ver com personalidades conflitantes quanto com princípios concorrentes, de acordo com o New York Times. O diretor de tecnologia do Pentágono, Emil Michael, ex-executivo do Uber, ficou cada vez mais frustrado com o CEO da Anthropic, Dario Amodei, ao longo de semanas de negociações.

À medida que as negociações se deterioravam, Michael começou a negociar um acordo alternativo com a OpenAI – uma empresa cujo CEO, Sam Altman, vinha cortejando ativamente a administração Trump. Horas depois de o prazo do Pentágono ter passado sem acordo, Altman anunciou que a OpenAI havia chegado a um acordo com o Departamento de Defesa.

O processo argumenta que as ações do governo – incluindo a diretiva de Trump ordenando que todas as agências federais parem imediatamente de usar a IA da Antrópico, e a designação da empresa pela secretária Hegseth como um risco na cadeia de abastecimento – violam a Primeira Emenda, bem como as proteções do devido processo da Quinta Emenda, e a Lei de Procedimento Administrativo.

O documento da Antrópico observa que o rótulo de risco da cadeia de abastecimento tem sido historicamente reservado para empresas estrangeiras que se acredita representarem uma ameaça à segurança nacional. Nunca antes foi aplicado a uma empresa americana. A empresa está pedindo ao tribunal que declare ilegais as ações do governo e emita uma liminar permanente bloqueando sua aplicação.

Tópicos
Governo de Inteligência Artificial

Fuente