“Nalguma vez no futuro iremos avançar tão lentamente como estamos a avançar agora”, alertou esta semana o secretário-geral da ONU, António Guterres, abordando a necessidade urgente de moldar a utilização da inteligência artificial. A velocidade do desenvolvimento tecnológico – bem como a turbulência geopolítica – está a destruir a distinção entre argumentos teóricos e acontecimentos do mundo real. sobre as capacidades de IA dos militares dos EUA coincide com a sua utilização sem precedentes na crise do Irão.
A empresa de IA Anthropic insistiu que não poderia remover as salvaguardas que impediam o Departamento de Defesa de utilizar a sua tecnologia para vigilância doméstica em massa ou armas letais autónomas. O Pentágono disse que não tinha interesse em tais usos – mas que tais decisões não deveriam ser tomadas pelas empresas. Escandalosamente, o governo não apenas demitiu a Anthropic, mas também a colocou na lista negra como um risco para a cadeia de abastecimento. A OpenAI interveio, ao mesmo tempo em que insistiu que havia mantido as linhas vermelhas declaradas pela Anthropic. No entanto, numa resposta interna à reação dos utilizadores e dos funcionários, o seu CEO, Sam Altman, reconheceu que não controla a utilização dos seus produtos pelo Pentágono e que o tratamento do acordo fez com que a OpenAI parecesse “oportunista e desleixada”.
Mas como Nicole van Rooijen, diretora executiva da Stop Killer Robots – que faz campanha pelo controlo humano no uso da força – alertou: “A questão não é apenas se estas armas serão utilizadas, mas como os seus sistemas precursores já estão a transformar a forma como as guerras são travadas… O controlo humano corre o risco de se tornar uma reflexão tardia ou uma mera formalidade.”
A mudança de paradigma já começou. Apesar da disputa, Claude da Anthropic teria facilitado a ofensiva massiva e intensificada que já matou cerca de mil civis no Irão. Esta é uma era de bombardeamentos “mais rápidos do que a velocidade do pensamento”, disseram especialistas ao Guardian esta semana, com a IA a identificar e a priorizar alvos, a recomendar armamento e a avaliar os fundamentos legais para um ataque.
A IA não é um pré-requisito para mortes de civis, erros militares ou irresponsabilidade. O secretário da Defesa dos EUA, Pete Hegseth, gaba-se de ter afrouxado as regras de combate. São os humanos no Pentágono que se esquivam às perguntas sobre a morte de 165 estudantes no que parece ter sido um ataque dos EUA a uma escola no Irão, em 28 de Fevereiro.
Mas – mesmo sem considerar questões de imprecisão e preconceitos da IA – os impactos são óbvios para os seus utilizadores. Uma fonte dos serviços secretos israelitas comentou sobre a sua utilização na guerra em Gaza: “Os alvos nunca terminam. Temos mais 36 mil à espera.” Outro disse que passou 20 segundos avaliando cada alvo, afirmando: “Tive zero valor agregado como ser humano, além de ser um selo de aprovação”. Os assassinatos em massa são facilitados em todos os sentidos, com maior distanciamento moral e emocional e redução da responsabilização.
A supervisão democrática e as restrições multilaterais, em vez de deixar as decisões aos empresários e aos departamentos de defesa, são essenciais. Enquanto as bombas choviam sobre o Irão, os estados reuniram-se em Genebra para abordar sistemas de armas letais autónomos; o projecto de texto que consideraram seria uma base sólida para um tratado que é extremamente necessário. A maioria dos governos pretende orientações claras sobre a utilização militar da IA. São os maiores jogadores que resistem – embora pelo menos estejam presentes. O ritmo da guerra impulsionada pela IA significa que a cautela pode assemelhar-se a entregar o controlo aos adversários. No entanto, como os próprios trabalhadores da tecnologia e os próprios responsáveis militares estão a perceber, os perigos de uma expansão descontrolada são muito maiores.
-
Você tem uma opinião sobre as questões levantadas neste artigo? Se desejar enviar uma resposta de até 300 palavras por e-mail para ser considerada para publicação em nossa seção de cartas, clique aqui.



