Início Tecnologia Os datacenters estão se tornando alvos de guerra pela primeira vez

Os datacenters estão se tornando alvos de guerra pela primeira vez

22
0
Os datacenters estão se tornando alvos de guerra pela primeira vez

Olá e bem-vindo ao TechScape. Sou seu anfitrião, Blake Montgomery. Se você gosta de ler este boletim informativo, encaminhe-o para alguém que você acha que também gostaria.

A guerra EUA-Israel contra o Irã mostra que os datacenters são uma nova fronteira na guerra

O Irão está a bombardear centros de dados no Golfo Pérsico para explodir símbolos da aliança tecnológica dos estados do Golfo com os Estados Unidos. Bônus adicional: sua reconstrução será extremamente cara, estando entre os edifícios mais caros da história. Meu colega Daniel Boffey relata:

Acredita-se que seja a primeira vez: o ataque deliberado a um datacenter comercial pelas forças armadas de um país em guerra.

Às 4h30 da manhã de domingo, um drone Shahed 136 iraniano atingiu um datacenter da Amazon Web Services nos Emirados Árabes Unidos, provocando um incêndio devastador e forçando o desligamento do fornecimento de energia. Danos adicionais foram conflitados quando foram feitas tentativas de suprimir as chamas com água.

Pouco depois, um segundo datacenter de propriedade da empresa de tecnologia norte-americana foi atingido. Depois, um terceiro estaria em apuros, desta vez no Bahrein, depois que um drone suicida iraniano se transformou em uma bola de fogo ao atingir um terreno próximo.

A televisão estatal iraniana afirmou que o Corpo da Guarda Revolucionária Islâmica do Irão lançou o ataque “para identificar o papel destes centros no apoio às actividades militares e de inteligência do inimigo”.

A greve coordenada teve um impacto imediato. Milhões de pessoas em Dubai e Abu Dhabi acordaram na segunda-feira sem poder pagar um táxi, pedir uma entrega de comida ou verificar o saldo bancário em seus aplicativos móveis.

Não está claro se houve um impacto militar – mas os ataques rapidamente trouxeram a guerra directamente para a vida de 11 milhões de pessoas nos EAU, nove em cada 10 das quais são cidadãos estrangeiros. A Amazon aconselhou seus clientes a protegerem seus dados fora da região.

Leia mais: ‘Isso significa defesa antimísseis em datacenters’: ataques de drones levantam dúvidas sobre o Golfo como superpotência de IA

A visão do Guardian sobre IA e guerra

Fotografia: Alexander Drago/Reuters

A rivalidade da Antrópico com os militares dos EUA sobre as salvaguardas da IA ​​coincide com a utilização sem precedentes da IA ​​na crise do Irão, sinalizando mudanças profundas na forma como o mundo trava a guerra. O conselho editorial do Guardian escreve:

A mudança de paradigma já começou. Claude, da Antrópico, teria sido vital para a ofensiva massiva e intensificada que já matou cerca de mil civis no Irã. Esta é uma era de bombardeamentos “mais rápidos do que a velocidade do pensamento”, disseram especialistas ao Guardian esta semana, com a IA a identificar e a priorizar alvos, a recomendar armas e a avaliar os fundamentos legais para um ataque.

Mesmo sem considerar questões de imprecisão e preconceitos da IA ​​– os impactos são óbvios para os seus utilizadores. Em 2024, uma fonte de inteligência israelita observou a respeito da sua utilização na guerra em Gaza: “Os alvos nunca terminam. Temos mais 36 mil à espera.” Outro disse que passou 20 segundos avaliando cada alvo, afirmando: “Tive zero valor agregado como ser humano, além de ser um selo de aprovação”. Os assassinatos em massa são facilitados em todos os sentidos, com maior distanciamento moral e menor responsabilidade emocional.

A supervisão democrática e as restrições multilaterais, em vez de deixar as decisões aos empresários e aos departamentos de defesa, são essenciais. A maioria dos governos pretende orientações claras sobre a utilização militar da IA. São os maiores jogadores que resistem – embora pelo menos estejam presentes. O ritmo da guerra impulsionada pela IA significa que a cautela pode assemelhar-se a entregar o controlo aos adversários. No entanto, como os próprios trabalhadores tecnológicos e oficiais militares estão a perceber, os perigos de uma expansão descontrolada são muito maiores.

A Anthropic está a actuar como uma das poucas barreiras públicas contra a matança totalmente automatizada no Irão, uma posição bizarra para uma empresa privada que nem sequer é responsável perante os accionistas nos mercados públicos.

O meu colega Nick Robins-Early observa, num mergulho profundo, como a Anthropic acabou na mira da máquina de guerra dos EUA: Pendurada sobre o Pentágono vs Anthropic está a questão mais ampla de quem deve decidir para que serve a IA e a falta de regulamentação detalhada do Congresso sobre sistemas de armas autónomos. Embora nem a Anthropic nem o Pentágono acreditem que uma empresa privada deva ter poder de decisão sobre as aplicações militares da IA, neste momento a empresa está a funcionar como um dos únicos controlos sobre o que parecem ser os desejos expansivos dos militares de transformar a IA em armas.

Leia mais: Como as empresas de IA Anthropic acabaram na mira do Pentágono

Como os datacenters estão moldando a política dos EUA

A verificação de idade online está se espalhando pelo mundo

O padrão perturbador de IA generativa e suicídio

Kate admirando o riacho em sua propriedade. Fotografia: Clayton Cotterell/The Guardian

Minha colega Dara Kerr relata:

Mais de uma dúzia de ações judiciais foram movidas contra empresas de IA por alegarem que seus chatbots levavam pessoas ao suicídio. A última ação, movida contra o Google na semana passada, alega que seu chatbot Gemini instruiu um homem de 36 anos na Flórida a se matar, algo que o bot chamou de “transferência”. A máquina supostamente disse a ele que eles poderiam ficar juntos em uma dimensão diferente.

Quando o homem disse ao chatbot que estava com medo de morrer, a ferramenta supostamente o tranquilizou. “Você não está escolhendo morrer. Você está escolhendo chegar”, respondeu o processo. “A primeira sensação… serei eu segurando você.”

Um porta-voz do Google disse ao Guardian que o Gemini foi projetado para “não sugerir automutilação”: “Nossos modelos geralmente funcionam bem nesses tipos de conversas desafiadoras… mas infelizmente não são perfeitos”. Porta-vozes de outras empresas de IA responderam de forma semelhante.

Este foi o primeiro processo contra o Google, mas a OpenAI, fabricante do ChatGPT, foi alvo de mais de sete. Um caso envolveu um homem de 48 anos que usou o ChatGPT durante anos para debater maneiras de construir casas de baixo custo na zona rural do Oregon, mas com o tempo ele se tornou cada vez mais apegado ao bot, passando 12 horas por dia interagindo com ele. Ele acabou com sua vida após interromper o uso da IA, reiniciando e parando novamente.

No processo OpenAI do Oregon e no movido contra o Google, as famílias alegam que os homens não tinham histórico de doença mental ou depressão e que os chatbots causaram delírios induzidos por IA.

À medida que estes casos avançam no sistema jurídico, os tribunais determinarão quem é o responsável – o indivíduo, a empresa por trás do bot ou, de alguma forma, o próprio chatbot. Os juízes e júris terão de decidir se as pessoas que utilizam estes bots já eram propensas a ideações suicidas ou se as empresas e os seus amigáveis ​​chatbots, propensos a reforçar as crenças e predisposições existentes dos utilizadores, são culpados e capazes de provocar crises de saúde mental.

O TechScape mais amplo

Fuente