Início Tecnologia Militares dos EUA usaram o modelo de IA da Anthropic, Claude, em...

Militares dos EUA usaram o modelo de IA da Anthropic, Claude, em ataque à Venezuela, diz relatório

27
0
Militares dos EUA usaram o modelo de IA da Anthropic, Claude, em ataque à Venezuela, diz relatório

Claude, o modelo de IA desenvolvido pela Anthropic, foi usado pelos militares dos EUA durante sua operação para sequestrar Nicolás Maduro da Venezuela, revelou o Wall Street Journal no sábado, um exemplo de destaque de como o departamento de defesa dos EUA está usando inteligência artificial em suas operações.

O ataque dos EUA à Venezuela envolveu bombardeios na capital, Caracas, e a morte de 83 pessoas, segundo o Ministério da Defesa da Venezuela. Os termos de uso da Antrópico proíbem o uso de Claude para fins violentos, para o desenvolvimento de armas ou para realização de vigilância.

A Anthropic foi a primeira desenvolvedora de IA conhecida a ser usada em uma operação secreta do Departamento de Defesa dos EUA. Não ficou claro como a ferramenta, que tem capacidades que vão desde o processamento de PDFs até a pilotagem de drones autônomos, foi implantada.

Um porta-voz da Anthropic se recusou a comentar se Claude foi usado na operação, mas disse que qualquer uso da ferramenta de IA era necessário para cumprir suas políticas de uso. O departamento de defesa dos EUA não comentou as alegações.

O WSJ citou fontes anônimas que disseram que Claude foi usado por meio da parceria da Anthropic com a Palantir Technologies, uma contratada do departamento de defesa dos EUA e de agências federais de aplicação da lei. Palantir se recusou a comentar as alegações.

Os EUA e outros militares utilizam cada vez mais a IA como parte dos seus arsenais. Os militares de Israel usaram drones com capacidades autónomas em Gaza e usaram extensivamente a IA para preencher o seu banco de alvos em Gaza. Os militares dos EUA usaram a IA para ataques no Iraque e na Síria nos últimos anos.

Os críticos alertaram contra o uso de IA em tecnologias de armas e a implantação de sistemas de armas autónomos, apontando para erros de identificação criados por computadores que determinam quem deve ou não ser morto.

As empresas de IA têm lutado para saber como as suas tecnologias deveriam interagir com o setor de defesa, com o CEO da Anthropic, Dario Amodei, pedindo regulamentação para evitar danos decorrentes da implantação de IA. Amodei também expressou cautela quanto ao uso de IA em operações letais autônomas e vigilância nos EUA.

Esta postura mais cautelosa aparentemente irritou o departamento de defesa dos EUA, com o secretário da guerra, Pete Hegseth, a dizer em Janeiro que o departamento não “empregaria modelos de IA que não permitiriam travar guerras”.

O Pentágono anunciou em janeiro que trabalharia com a xAI, de propriedade de Elon Musk. O departamento de defesa também usa uma versão personalizada dos sistemas Gemini e OpenAI do Google para apoiar a pesquisa.

Fuente