Início Tecnologia A batalha Antrópico-Pentágono mostra como a grande tecnologia reverteu o curso da...

A batalha Antrópico-Pentágono mostra como a grande tecnologia reverteu o curso da IA ​​e da guerra

23
0
A batalha Antrópico-Pentágono mostra como a grande tecnologia reverteu o curso da IA ​​e da guerra

O impasse entre a Anthropic e o Pentágono forçou a indústria tecnológica a enfrentar mais uma vez a questão de como os seus produtos são utilizados para a guerra – e que limites não irá ultrapassar. No meio da viragem à direita de Silicon Valley sob Donald Trump e da assinatura de lucrativos contratos de defesa, a resposta das grandes tecnologias parece muito diferente da que era há menos de uma década.

A rivalidade da Antrópico com a administração Trump aumentou há três dias, quando a empresa de IA processou o Departamento de Defesa, alegando que a decisão do governo de colocá-la na lista negra do trabalho governamental violou seus direitos da Primeira Emenda. A empresa e o Pentágono estão envolvidos num impasse que dura há meses, com a Anthropic a tentar proibir o seu modelo de IA de ser utilizado para vigilância doméstica em massa ou para armas letais totalmente autónomas.

A Anthropic considerou que ceder às exigências do DoD para permitir “qualquer utilização legal” da sua tecnologia violaria os seus princípios de segurança fundadores e abriria a sua tecnologia a potenciais abusos, estabelecendo um limite ético que outros na indústria devem decidir se querem ultrapassar.

Embora a recusa da Anthropic em remover as barreiras de segurança e a subsequente retaliação do Pentágono tenham realçado preocupações de longa data sobre o uso da IA ​​para conflitos, a luta mostrou o quanto os postes da baliza mudaram quando se trata dos laços das grandes tecnologias com os militares.

“Se as pessoas procuram mocinhos e bandidos, onde um mocinho é alguém que não apoia a guerra”, disse Margaret Mitchell, pesquisadora de IA e cientista-chefe de ética da empresa de tecnologia Hugging Face. “Então eles não vão encontrar isso aqui.”

Protestos antimilitares contra contratos militares

Há uma série de fatores que contribuem para a recente adoção do militarismo pelas grandes tecnologias. O seu alinhamento com a administração Trump, que incluiu demonstrações de lealdade a Trump por parte dos principais CEO, vinculou as empresas tecnológicas ao desejo do governo de expandir as suas capacidades militares. A promessa da administração de reformar as agências federais que utilizam inteligência artificial também sinalizou especificamente uma oportunidade para as empresas de IA integrarem os seus produtos em operações governamentais e militares de uma forma que poderia garantir receitas nos próximos anos. Aparecendo em segundo plano, a preocupação com o avanço tecnológico da China e um aumento nos gastos internacionais com defesa também mudaram as atitudes na indústria.

Não faz muito tempo, porém, que trabalhar com os militares em tecnologias potencialmente prejudiciais era visto como uma linha vermelha para muitos grandes trabalhadores da tecnologia. Em 2018, milhares de funcionários do Google lançaram um protesto contra um programa para analisar imagens de drones para o DoD, chamado Projeto Maven.

“Acreditamos que o Google não deveria estar no negócio da guerra”, afirmaram mais de 3.000 trabalhadores numa carta aberta na altura. O Google decidiu não renovar o Projeto Maven após os protestos e políticas publicadas que proibiam a busca por tecnologia que pudesse “causar ou facilitar diretamente ferimentos às pessoas”.

No entanto, nos anos que se seguiram ao protesto do Project Maven, a Google reprimiu o activismo dos funcionários, removeu a linguagem de 2018 das suas políticas que proibia a criação de tecnologia para armas e assinou vários contratos que permitem que os militares utilizem os seus produtos. Em 2024, a gigante tecnológica despediu mais de 50 funcionários em resposta aos protestos contra os laços militares da empresa com o governo israelita. O presidente-executivo, Sundar Pichai, enviou um memorando aos funcionários após as demissões afirmando que o Google era uma empresa e não um lugar para “lutar por questões perturbadoras ou debater política”.

O Google anunciou esta semana que forneceria sua inteligência artificial Gemini para fornecer aos militares uma plataforma para a criação de agentes de IA para trabalhar em projetos não confidenciais.

A OpenAI também proibiu totalmente o acesso de qualquer militar aos seus modelos antes de 2024, mas desde então e agora tem o seu diretor de produto servindo como tenente-coronel no “corpo executivo de inovação” das forças armadas dos EUA. A startup, juntamente com Google, Anthropic e xAI, assinou um contrato de até US$ 200 milhões com o DoD no ano passado para integrar sua tecnologia em sistemas militares. No dia em que Pete Hegseth, o secretário da Defesa, declarou o Antrópico um risco para a cadeia de abastecimento, a OpenAI garantiu um acordo com o DoD permitindo que a sua tecnologia fosse utilizada em sistemas militares classificados.

Noutras partes da indústria tecnológica, mais empresas hawkish, como a empresa de tecnologia de defesa Anduril, fundada um ano antes dos protestos do Google Maven, e o fabricante de tecnologia de vigilância Palantir, fizeram da parceria com o DoD uma pedra angular dos seus negócios e tentaram influenciar a política de Silicon Valley no sentido da sua visão do mundo. A Palantir tem estado à frente no trabalho com os militares, contratando a inteligência militar para mapear explosivos plantados no Afeganistão no início da década de 2010. O presidente-executivo, Alex Karp, publicou no ano passado um livro dedicado em grande parte à defesa de uma integração mais estreita da indústria tecnológica e da IA ​​com os militares dos EUA, numa passagem acusando os trabalhadores da Google que protestaram em 2018 de serem niilistas.

Depois que o Google cancelou o contrato do Project Maven em 2019, Palantir assumiu o controle. Maven é agora o nome do sistema classificado que os militares usam para acessar Claude da Anthropic, de acordo com o Washington Post.

Antrópico vai para a guerra

Embora a Anthropic tenha recebido elogios públicos no seu impasse com o Pentágono, o seu cofundador e executivo-chefe, Dario Amodei, enfatizou que a empresa de IA e o governo desejam em grande parte as mesmas coisas.

“A Antrópico tem muito mais em comum com o Departamento de Guerra do que diferenças”, escreveu Amodei em um blog na quinta-feira passada.

Embora a Casa Branca tenha acusado a Anthropic de ser “uma empresa radical de esquerda e acordada”, as opiniões de Amodei sobre a utilização da IA ​​em conflitos e os receios da sua utilização indevida estão longe de ser um pacifismo radical. Num longo ensaio publicado em Janeiro, Amodei alertou contra os potenciais danos da IA, como a criação de armas biológicas mortais e as ameaças da China que utilizam maliciosamente a tecnologia. Simultaneamente, ele acredita que as empresas devem armar os governos e as forças armadas democráticas com a IA mais avançada possível para combater adversários autocráticos.

Ele expressou menos preocupação com o facto de a IA tornar mais fácil matar pessoas ou conduzir guerras e mais com a fiabilidade da tecnologia e a ameaça de ela ser consolidada por um número demasiado pequeno de pessoas com “dedos no botão” que poderiam controlar um exército autónomo de drones.

O ensaio de Amodei também prenunciou algumas das questões centrais envolvidas na sua luta com o Pentágono, incluindo o potencial da IA ​​como ferramenta de vigilância em massa. Ao defender baluartes contra o abuso da IA, afirmou que a sua formulação era que não havia problema em utilizar a tecnologia para a defesa nacional “de todas as formas, excepto aquelas que nos tornariam mais parecidos com os nossos adversários autocráticos”.

Embora Amodei até agora tenha seguido os limites da empresa, ele também afirmou repetidamente que deseja que a Anthropic continue trabalhando com o Departamento de Defesa. O processo da empresa contra o DoD mostra até que ponto a empresa tem estado disposta a trabalhar com os militares e a alterar os seus produtos para a sua utilização.

“A Antrópico não impõe as mesmas restrições ao uso de Claude pelos militares como impõe aos clientes civis”, afirmou o processo da Antrópico na Califórnia. “Claude Gov é menos propenso a recusar pedidos que seriam proibidos no contexto civil, como usar Claude para lidar com documentos confidenciais, operações militares ou análise de ameaças.”

O governo tem usado Claude para seleção e análise de alvos na sua campanha de bombardeamento contra o Irão, um caso de uso com o qual a Anthropic não deu nenhuma indicação de que tenha problemas. Em sua postagem no site da Anthropic na semana passada, Amodei afirmou não acreditar que sua empresa tivesse qualquer papel na tomada de decisões operacionais dos militares. Ele afirmou que a Anthropic apoia os combatentes americanos da linha de frente e continua comprometida em fornecer-lhes tecnologia.

“Dissemos ao departamento de guerra que aceitamos todos os casos de uso”, disse Amodei à CBS News na semana passada. “Basicamente 98 ou 99% dos casos de uso que eles desejam realizar, exceto dois.”

Fuente