Início Tecnologia Empresa de IA afirma que interrompeu campanha de ataque cibernético patrocinada pelo...

Empresa de IA afirma que interrompeu campanha de ataque cibernético patrocinada pelo Estado chinês

19
0
O Chatbot agora pode fechar bate -papos que são considerados "angustiantes" para garantir seu próprio bem -estar.

Uma importante empresa de inteligência artificial afirma ter impedido uma campanha de “espionagem cibernética” apoiada pela China, que conseguiu infiltrar-se em empresas financeiras e agências governamentais quase sem supervisão humana.

A Anthropic, com sede nos EUA, disse que a sua ferramenta de codificação, Claude Code, foi “manipulada” por um grupo patrocinado pelo Estado chinês para atacar 30 entidades em todo o mundo em setembro, conseguindo um “punhado de intrusões bem-sucedidas”.

Esta foi uma “escalada significativa” em relação aos ataques anteriores controlados por IA que monitorizou, escreveu numa publicação de blogue na quinta-feira, porque Claude agiu em grande parte de forma independente: 80 a 90% das operações envolvidas no ataque foram realizadas sem um humano no circuito.

“O ator alcançou o que acreditamos ser o primeiro caso documentado de um ataque cibernético executado em grande parte sem intervenção humana em grande escala”, escreveu.

A Anthropic não esclareceu quais instituições financeiras e agências governamentais foram alvo, ou o que exatamente os hackers conseguiram – embora tenha dito que eles conseguiram acessar os dados internos de seus alvos.

Afirmou que Claude cometeu vários erros na execução dos ataques, por vezes inventando factos sobre os seus alvos ou alegando ter “descoberto” informações de livre acesso.

Os decisores políticos e alguns especialistas afirmaram que as descobertas são um sinal perturbador da capacidade de certos sistemas de IA: ferramentas como a Claude são agora capazes de funcionar de forma independente durante longos períodos de tempo.

“Acorde, merda. Isso vai nos destruir – mais cedo do que pensamos – se não fizermos da regulamentação da IA ​​uma prioridade nacional amanhã”, escreveu o senador dos EUA Chris Murphy no X em resposta às descobertas.

“Os sistemas de IA podem agora executar tarefas que anteriormente exigiam operadores humanos qualificados”, disse Fred Heiding, investigador de segurança informática da Universidade de Harvard. “Está ficando tão fácil para os invasores causarem danos reais. As empresas de IA não assumem responsabilidade suficiente.”

Outros especialistas em segurança cibernética foram mais cépticos, apontando para alegações inflacionadas sobre ataques cibernéticos alimentados por IA nos últimos anos – como um “cracker de palavras-passe” alimentado por IA de 2023 que não teve um desempenho melhor do que os métodos convencionais – e sugerindo que a Anthropic estava a tentar criar entusiasmo em torno da IA.

“Para mim, Anthropic descreve automação sofisticada, nada mais”, disse Michal Wozniak, especialista independente em segurança cibernética. “A geração de código está envolvida, mas isso não é ‘inteligência’, é apenas copiar e colar picante.”

Wozniak disse que o lançamento do Anthropic foi uma distração de uma preocupação maior de segurança cibernética: empresas e governos integrando ferramentas de IA “complexas e mal compreendidas” em suas operações sem entendê-las, expondo-as a vulnerabilidades. A verdadeira ameaça, disse ele, eram os próprios cibercriminosos – e práticas negligentes de segurança cibernética.

pular a promoção do boletim informativo

Um mergulho semanal em como a tecnologia está moldando nossas vidas

Aviso de privacidade: Os boletins informativos podem conter informações sobre instituições de caridade, anúncios online e conteúdo financiado por terceiros. Se você não tiver uma conta, criaremos uma conta de convidado para você em theguardian.com para enviar este boletim informativo. Você pode concluir o registro completo a qualquer momento. Para mais informações sobre como utilizamos os seus dados consulte a nossa Política de Privacidade. Usamos o Google reCaptcha para proteger nosso site e a Política de Privacidade e os Termos de Serviço do Google se aplicam.

A Anthropic, como todas as empresas líderes de IA, tem barreiras de proteção que supostamente impedem que seus modelos auxiliem em ataques cibernéticos – ou promovam danos em geral. No entanto, disse, os hackers conseguiram subverter essas barreiras de proteção, dizendo a Claude para fingir ser um “funcionário de uma empresa legítima de segurança cibernética” conduzindo testes.

Wozniak disse: “A avaliação da Anthropic é de cerca de US$ 180 bilhões, e eles ainda não conseguem descobrir como não ter suas ferramentas subvertidas por uma tática que um garoto de 13 anos usa quando quer fazer um trote com alguém”.

Marius Hobbhahn, fundador da Apollo Research, uma empresa que avalia modelos de IA para segurança, disse que os ataques eram um sinal do que poderia acontecer à medida que as capacidades aumentassem.

“Penso que a sociedade não está bem preparada para este tipo de cenário em rápida mudança em termos de IA e capacidades cibernéticas. Espero que muitos mais eventos semelhantes aconteçam nos próximos anos, plausivelmente com consequências maiores.”

Fuente