Início Notícias Um ponto de inflexão perigoso? Alegações de hacking de IA dividem especialistas...

Um ponto de inflexão perigoso? Alegações de hacking de IA dividem especialistas em segurança cibernética

16
0
Um ponto de inflexão perigoso? Alegações de hacking de IA dividem especialistas em segurança cibernética

Um divisor de águas alarmante para a inteligência artificial ou uma ameaça exagerada?

O recente anúncio da startup de IA Antrópico de que detectou a primeira campanha de hackers liderada por inteligência artificial do mundo gerou uma infinidade de respostas de especialistas em segurança cibernética.

Histórias recomendadas

lista de 4 itensfim da lista

Embora alguns observadores tenham dado o alarme sobre a tão temida chegada de um perigoso ponto de inflexão, outros saudaram as afirmações com ceticismo, argumentando que o relato da startup deixa de fora detalhes cruciais e levanta mais perguntas do que respostas.

Num relatório divulgado na sexta-feira, a Anthropic disse que o seu assistente Claude Code foi manipulado para realizar 80-90 por cento de um ataque cibernético de “grande escala” e “altamente sofisticado”, sendo a intervenção humana necessária “apenas esporadicamente”.

A Anthropic, criadora do popular chatbot Claude, disse que o ataque teve como objetivo se infiltrar em agências governamentais, instituições financeiras, empresas de tecnologia e empresas de fabricação de produtos químicos, embora a operação só tenha tido sucesso em um pequeno número de casos.

A empresa sediada em São Francisco, que atribuiu o ataque a hackers patrocinados pelo Estado chinês, não especificou como descobriu a operação, nem identificou as “cerca” de 30 entidades que disse terem sido alvo.

Roman V Yampolskiy, especialista em IA e segurança cibernética da Universidade de Louisville, disse que não há dúvida de que o hacking assistido por IA representa uma ameaça séria, embora seja difícil verificar os detalhes precisos da conta da Anthropic.

“Os modelos modernos podem escrever e adaptar códigos de exploração, examinar enormes volumes de dados roubados e orquestrar ferramentas de forma mais rápida e barata do que as equipes humanas”, disse Yampolskiy à Al Jazeera.

“Eles reduzem a barreira de competências à entrada e aumentam a escala em que intervenientes com bons recursos podem operar. Estamos efetivamente a colocar uma equipa júnior de operações cibernéticas na nuvem, que pode ser alugada por hora.”

Yampolskiy disse esperar que a IA aumente tanto a frequência quanto a gravidade dos ataques.

Jaime Sevilla, diretor da Epoch AI, disse que não viu muitas novidades no relatório da Anthropic, mas a experiência anterior ditou que os ataques assistidos por IA eram viáveis ​​e provavelmente se tornariam cada vez mais comuns.

“Isso provavelmente afetará mais fortemente as empresas de médio porte e agências governamentais”, disse Sevilla à Al Jazeera.

“Historicamente, não eram alvos valiosos o suficiente para campanhas dedicadas e muitas vezes subinvestidos em segurança cibernética, mas a IA torna-os alvos lucrativos. Espero que muitas destas organizações se adaptem contratando especialistas em segurança cibernética, lançando programas de recompensa por vulnerabilidades e usando IA para detectar e corrigir pontos fracos internamente.”

Embora muitos analistas tenham expressado o desejo de obter mais informações da Antrópico, alguns rejeitaram as suas reivindicações.

Depois que o senador dos Estados Unidos, Chris Murphy, alertou que os ataques liderados pela IA “nos destruiriam” se a regulamentação não se tornasse uma prioridade, o cientista-chefe da Meta AI, Yann LeCun, criticou o legislador por ter sido “jogado” por uma empresa que buscava a captura regulatória.

“Eles estão assustando todo mundo com estudos duvidosos para que os modelos de código aberto sejam regulamentados e deixem de existir”, disse LeCun em um post no X.

A Antrópico não respondeu a um pedido de comentário.

Um porta-voz da embaixada chinesa em Washington, DC, disse que a China se opôs “de forma consistente e resoluta” a todas as formas de ataques cibernéticos.

“Esperamos que as partes relevantes adotem uma atitude profissional e responsável, baseando a sua caracterização de incidentes cibernéticos em provas suficientes, em vez de especulações e acusações infundadas”, disse Liu Pengyu à Al Jazeera.

Toby Murray, especialista em segurança informática da Universidade de Melbourne, disse que a Anthropic tinha incentivos comerciais para destacar tanto os perigos de tais ataques como a sua capacidade de os combater.

“Algumas pessoas questionaram as alegações da Anthropic que sugerem que os atacantes conseguiram fazer com que Claude AI executasse tarefas altamente complexas com menos supervisão humana do que normalmente é necessário”, disse Murray à Al Jazeera.

“Infelizmente, eles não nos fornecem evidências concretas para dizer exatamente quais tarefas foram executadas ou que supervisão foi fornecida. Portanto, é difícil julgar de uma forma ou de outra essas afirmações.”

Ainda assim, Murray disse que não achou o relatório particularmente surpreendente, considerando a eficácia de alguns assistentes de IA em tarefas como codificação.

“Não vejo hackers alimentados por IA mudando os tipos de hacks que ocorrerão”, disse ele.

“No entanto, isso pode levar a uma mudança de escala. Devemos esperar ver mais hacks alimentados por IA no futuro, e que esses hacks se tornem mais bem-sucedidos.”

Embora a IA represente riscos crescentes para a segurança cibernética, também será fundamental para reforçar as defesas, dizem os analistas.

Fred Heiding, pesquisador da Universidade de Harvard especializado em segurança de computadores e segurança de IA, disse acreditar que a IA proporcionará uma “vantagem significativa” aos especialistas em segurança cibernética no longo prazo.

“Hoje, muitas operações cibernéticas são prejudicadas pela escassez de profissionais cibernéticos humanos. A IA nos ajudará a superar esse gargalo, permitindo-nos testar todos os nossos sistemas em escala”, disse Heiding à Al Jazeera.

Heiding, que descreveu o relato da Anthropic como amplamente credível, mas “exagerado”, disse que o grande perigo é que os hackers tenham uma janela de oportunidade para enlouquecer enquanto os especialistas em segurança lutam para acompanhar a sua exploração de IA cada vez mais avançada.

“Infelizmente, a comunidade defensiva provavelmente será muito lenta para implementar a nova tecnologia em testes automatizados de segurança e soluções de correção”, disse ele.

“Se for esse o caso, os invasores causarão estragos em nossos sistemas com o apertar de um botão, antes que nossas defesas tenham tempo de alcançá-los.”

Fuente