Início Tecnologia O que a rivalidade dos militares dos EUA com a Antrópica significa...

O que a rivalidade dos militares dos EUA com a Antrópica significa para a IA usada na guerra?

19
0
O que a rivalidade dos militares dos EUA com a Antrópica significa para a IA usada na guerra?

UMA luta contínua da nthropic com o Departamento de Defesa sobre as restrições de segurança que pode impor aos seus modelos de inteligência artificial cativou a indústria tecnológica, agindo como um teste à forma como a IA pode ser usada na guerra e ao poder do governo para coagir as empresas a satisfazer as suas exigências.

As negociações giraram em torno da recusa da Anthropic em permitir que o governo federal utilizasse a sua IA Claude para vigilância doméstica em massa ou sistemas de armas autónomos, mas a disputa também reflecte a natureza confusa do que acontece quando as empresas tecnológicas têm os seus produtos integrados em conflitos. O Pentágono declarou esta semana que a Antrópico é um risco para a cadeia de abastecimento por sua recusa em concordar com os termos do governo, enquanto a Antrópico prometeu contestar a designação em tribunal.

O Guardian conversou com Sarah Kreps, professora e diretora do Tech Policy Institute da Cornell University, que serviu anteriormente na Força Aérea dos Estados Unidos, sobre como a rivalidade se desenrolou.

Você trabalhou por um tempo sobre problemas em torno da “tecnologia de dupla utilização“. O que acontece quando há uma tecnologia de consumo que também é usada para fins confidenciais ou militares?

Tenho pensado muito nisso porque estive no exército e estava do lado dos militares que desenvolviam e adquiriam novas tecnologias. Estávamos sempre recebendo críticas sobre por que demorava tanto, e agora, observando o que está acontecendo, percebo por que demora tanto.

O que você desenvolveria para contextos classificados e militares é muito diferente do que a Anthropic desenvolveu quando uso Claude. O desafio para os militares é que estas tecnologias são tão úteis que mal podem esperar até que uma versão de nível militar esteja disponível. Eles precisam agir rapidamente devido ao valor dessas ferramentas, mas não é surpreendente que tenham encontrado diferenças culturais não apenas entre uma plataforma de IA e os militares, mas também uma plataforma de IA que tentou cultivar uma reputação de ser mais consciente em termos de segurança.

Um elemento nesta rivalidade é que a Anthropic se autodenomina uma empresa voltada para a segurança, mas depois assinou um acordo com os militares.

Sim, é surpreendente que a Anthropic fique surpresa com o destino disso. Parte do desafio é que a Anthropic parece ter tomado a decisão há um ou dois anos de que o ChatGPT seria para usuários individuais e a Anthropic tentaria monopolizar o mercado corporativo. Isso significa que eles estão tentando fazer negócios com organizações, em vez de tentar vender planos individuais.

O enigma para mim é que eles estavam então a fazer negócios com o Pentágono e a Palantir, que se dedica a utilizar a IA para fins que algumas pessoas diriam serem questionáveis. Então essa decisão foi surpreendente para mim porque estava em desacordo com a marca que a Anthropic estava tentando curar.

Parece que o Antrópico foi OK com um uso bastante amplo de sua tecnologia, mas havia uma linha vermelha que alcançaram com vigilância doméstica em massa e armas autônomas letais.

Existem algumas possibilidades. Uma é que parte disto teve a ver com as relações entre as pessoas da Antrópico e a administração Trump, o que levou a uma espiral descendente de desconfiança.

Em segundo lugar, houve a situação na Venezuela e depois a política em torno das actividades do ICE. Existe a questão de o que realmente significa usar essas tecnologias legalmente? A definição de legalidade de uma pessoa pode parecer muito diferente da de outra.

O argumento do Pentágono foi, em parte, que se houver uma questão de defesa nacional não deveríamos ter que ligar Dario Amodei para obter aprovação. Parece que há aqui uma questão real sobre qual o papel que as empresas privadas de tecnologia têm na tomada de decisões de segurança nacional.

Se você se lembra do caso do iPhone do assassino de San Bernardino, as autoridades estavam preocupadas que se tratasse de uma situação de bomba-relógio e precisavam que a Apple entrasse no telefone. (Em 2016, o FBI exigiu que a Apple criasse um backdoor para conceder-lhes acesso ao telefone de um atirador em massa. A Apple recusou por motivos de privacidade, resultando na procura de um terceiro independente para invadir o dispositivo).

A diferença aqui com a IA da Anthropic é que, depois de entregá-la aos militares, você não precisa mais da aprovação da Anthropic para usá-la como achar melhor. É a diferença entre hardware e software. Você pode redirecionar esse software e usá-lo de maneiras que talvez não fizessem parte do acordo explícito, mas agora você pode justificá-lo com base na segurança nacional. Então a Anthropic perdeu toda a sua influência porque está nas mãos desses profissionais de segurança nacional.

E a Anthropic não saberia dizer para que está sendo usada, correto?

Sim, exatamente certo. Ele entra não apenas em uma caixa preta, mas também em Black Ops e sistemas classificados que estão fechados.

Achei interessante esta semana que parece que muitas questões antigas sobre o uso de IA nas forças armadas estão chegando ao auge. Você acompanha esses assuntos há muito tempo, o que acha de assistir essa luta atual?

Quando eu ouvia o CEO da Anthropic falar, ele falava sobre esses riscos existenciais e a apropriação indébita da IA ​​para o bioterrorismo. Sempre pensei que eles estavam muito distantes ou muito fora de alcance. Achei que esse tipo de caso mais mundano era mais arriscado.

Há também pessoas que prenunciam há muito tempo estas questões sobre armas autónomas. O desafio é como saber se há realmente um humano no circuito. Essa era uma preocupação da Anthropic – como saber se esses sistemas estão sendo utilizados de forma totalmente autônoma? Os EUA dizem que não vamos usar a IA de forma totalmente autónoma, mas não está claro como será esse processo para garantir que isso não aconteça. Isso demoraria algum tempo, mas acho que era inevitável seguirmos nessa direção, só porque a tecnologia está cada vez mais sofisticada. O fato de agora estar envolvido em um conflito apenas acelera esses prazos.

Falamos muito sobre ameaças da IA ​​e sobre essas linhas vermelhas das quais as pessoas recuaram, mas como a IA já está sendo usada na guerra?

Você pode ver como isso é extremamente útil em um ambiente militar. Fiz alguns trabalhos na parte de inteligência e um dos desafios não é a falta de conteúdo, é a relação sinal-ruído. Você tem um grande volume de informações, mas pode ser muito difícil conectar os pontos, e isso é algo em que a IA é muito boa. Você o alimenta com grandes quantidades de informações e ele gera resultados que ajudam a identificar qual é o sinal.

Se você está procurando reconhecimento de padrões, a IA é realmente boa no reconhecimento de padrões. Você pode identificar quais são os tipos de correlatos ou características que você está procurando e então ele pode sair e identificar coisas, digamos, um navio da marinha iraniana, com base no que você o programou para identificar. Isso não tem sido muito controverso em alguns aspectos, porque essas metas são bastante concretas.

As pessoas ficam mais desconfortáveis ​​num cenário em que os EUA, por exemplo, realizariam ataques antiterroristas. Você tem um indivíduo no local que não possui muitas características identificáveis ​​e, portanto, essa é uma situação muito mais precária para a IA, onde você realmente gostaria de ter certeza de que está verificando três vezes. Ele poderia ser um combatente, ele poderia ser um civil. Não é uma embarcação naval ou um míssil terra-ar, onde é mais difícil errar.

Fuente