Um agente de IA instruiu um engenheiro a tomar medidas que expuseram uma grande quantidade de dados confidenciais da Meta a alguns de seus funcionários, no exemplo mais recente de IA que causou transtornos em uma grande empresa de tecnologia.
O vazamento, confirmado pela Meta, aconteceu quando um funcionário pediu orientação sobre um problema de engenharia em um fórum interno. Um agente de IA respondeu com uma solução, que o funcionário implementou – fazendo com que uma grande quantidade de dados confidenciais de usuários e da empresa fossem expostos aos seus engenheiros por duas horas.
“Nenhum dado do usuário foi maltratado”, disse um porta-voz da Meta, e eles enfatizaram que um ser humano também poderia dar conselhos errados. O incidente, relatado pela primeira vez pelo The Information, desencadeou um grande alerta de segurança interna dentro da Meta, que a empresa disse ser uma indicação de quão seriamente leva a proteção de dados.
Esta violação é um dos vários incidentes recentes de grande repercussão causados pelo uso crescente de agentes de IA nas empresas de tecnologia dos EUA. No mês passado, um relatório do Financial Times disse que a Amazon sofreu pelo menos duas interrupções relacionadas à implantação de suas ferramentas internas de IA.
Mais de meia dúzia de funcionários da Amazon falaram mais tarde ao Guardian sobre o esforço aleatório da empresa para integrar a IA em todos os elementos do seu trabalho, levando, segundo eles, a erros flagrantes, códigos desleixados e produtividade reduzida.
A tecnologia subjacente a todos estes incidentes, a IA de agência, evoluiu rapidamente nos últimos meses. Em dezembro, os desenvolvimentos na ferramenta de codificação de IA da Anthropic, Claude Code, provocaram um rebuliço generalizado sobre a sua capacidade de reservar bilhetes de teatro de forma autónoma, gerir finanças pessoais e até cultivar plantas.
Pouco depois veio o advento do OpenClaw, um assistente pessoal viral de IA que funcionava com base em agentes como ClaudeCode, mas que podia operar de forma totalmente autónoma – negociando milhões de dólares em criptomoedas, por exemplo, ou eliminando em massa e-mails de utilizadores – levando a conversas inebriantes sobre o advento da AGI, ou inteligência artificial geral, um termo abrangente para IA que é capaz de substituir humanos num grande número de tarefas.
Nas semanas que se seguiram, os mercados bolsistas oscilaram devido ao receio de que os agentes da IA destruíssem as empresas de software, remodelassem a economia e substituíssem os trabalhadores humanos.
Tarek Nseir, cofundador de uma empresa de consultoria focada em como as empresas usam IA, disse que esses incidentes mostraram que Meta e Amazon estavam em “fases experimentais” de implantação de IA agente.
“Eles não estão realmente se afastando dessas coisas e realmente fazendo uma avaliação de risco apropriada. Se você colocar um estagiário júnior nessas coisas, você nunca daria a esse estagiário júnior acesso a todos os seus dados de RH de gravidade crítica”, disse ele.
“A vulnerabilidade teria sido muito, muito óbvia para Meta em retrospecto, se não no momento. E o que posso dizer e direi é que isso é Meta experimentando em grande escala. É Meta sendo ousado.”
Jamieson O’Reilly, especialista em segurança que se concentra na construção de IA ofensiva, disse que os agentes de IA introduziram um certo tipo de erro que os humanos não cometeram – e isso pode explicar o incidente em Meta.
Um ser humano conhece o “contexto” de uma tarefa – o conhecimento implícito de que não se deve, por exemplo, colocar fogo no sofá para aquecer a sala, ou apagar um arquivo pouco usado, mas crucial, ou tomar uma ação que exporia os dados do usuário posteriormente.
Para agentes de IA, isso é mais complicado. Eles possuem “janelas de contexto” – uma espécie de memória de trabalho – nas quais carregam instruções, mas estas falham, levando ao erro.
“Um engenheiro humano que trabalha em algum lugar há dois anos anda por aí com uma noção acumulada do que é importante, o que quebra às 2 da manhã, qual é o custo do tempo de inatividade, quais sistemas afetam os clientes. Esse contexto vive neles, em sua memória de longo prazo, mesmo que não esteja na mente”, disse O’Reilly.
“O agente, por outro lado, não tem nada disso, a menos que você coloque explicitamente no prompt, e mesmo assim começa a desaparecer, a menos que esteja nos dados de treinamento.”
Nseir disse: “Inevitavelmente haverá mais erros”.



