Início Tecnologia IA permite que hackers identifiquem contas anônimas de mídia social, segundo estudo

IA permite que hackers identifiquem contas anônimas de mídia social, segundo estudo

44
0
IA permite que hackers identifiquem contas anônimas de mídia social, segundo estudo

A IA tornou muito mais fácil para hackers mal-intencionados identificarem contas anônimas de mídia social, alertou um novo estudo.

Na maioria dos cenários de teste, os grandes modelos de linguagem (LLMs) – a tecnologia por trás de plataformas como o ChatGPT – combinaram com sucesso utilizadores online anónimos com as suas identidades reais noutras plataformas, com base nas informações que publicaram.

Os pesquisadores de IA Simon Lermen e Daniel Paleka disseram que os LLMs tornam rentável a realização de ataques sofisticados à privacidade, forçando uma “reavaliação fundamental do que pode ser considerado privado online”.

Em seu experimento, os pesquisadores alimentaram contas anônimas em uma IA e fizeram com que ela coletasse todas as informações possíveis. Eles deram um exemplo hipotético de um usuário falando sobre dificuldades na escola e passeando com seu cachorro Biscuit por um “parque Dolores”.

Nesse caso hipotético, a IA procurou esses detalhes em outro lugar e combinou @anon_user42 com a identidade conhecida com um alto grau de confiança.

Embora este exemplo seja fictício, os autores do artigo destacaram cenários em que os governos utilizam a IA para vigiar dissidentes e ativistas que publicam anonimamente, ou em que hackers são capazes de lançar fraudes “altamente personalizadas”.

A vigilância por IA é um campo em rápido desenvolvimento que está causando alarme entre cientistas da computação e especialistas em privacidade. Ele usa LLMs para sintetizar informações sobre um indivíduo on-line, o que seria impraticável para a maioria das pessoas fazer manualmente.

As informações sobre membros do público que estão prontamente disponíveis online já podem ser “utilizadas indevidamente” para fraudes, disse Lermen, incluindo spear-phishing, onde um hacker se apresenta como um amigo de confiança para fazer com que as vítimas sigam um link malicioso em sua caixa de entrada.

Com a exigência de experiência para realizar ataques mais desenvolvidos agora muito menor, os hackers só precisam de acesso a modelos de linguagem disponíveis publicamente e de uma conexão com a Internet.

Peter Bentley, professor de ciência da computação na UCL, disse que há preocupações sobre os usos comerciais da tecnologia “se e quando os produtos forem lançados para desanonimização”.

Um problema é que os LLMs muitas vezes cometem erros ao vincular contas. “As pessoas serão acusadas de coisas que não fizeram”, alertou Bentley.

Outra preocupação, levantada pelo Prof Marc Juárez, professor de cibersegurança na Universidade de Edimburgo, é que os LLMs podem utilizar dados públicos para além das redes sociais: registos hospitalares, dados de internamentos e várias outras divulgações estatísticas podem ficar aquém do elevado padrão de anonimização necessário na era da IA.

“É bastante alarmante. Acho que este documento mostra que deveríamos reconsiderar as nossas práticas”, disse Juarez.

A IA não é uma arma mágica contra o anonimato online. Embora os LLMs possam desanonimizar os registos em muitas situações, por vezes não há informações suficientes para tirar conclusões. Em muitos casos, o número de possíveis correspondências é demasiado grande para ser restringido.

“Eles só podem se conectar entre plataformas onde alguém compartilha consistentemente as mesmas informações em ambos os lugares”, disse o professor Marti Hearst, da escola de informação da UC Berkeley.

Embora a tecnologia não seja perfeita, os cientistas pedem agora às instituições e aos indivíduos que repensem a forma como anonimizam os dados no mundo da IA.

Lersten recomendou que as plataformas restrinjam o acesso aos dados como um primeiro passo: impondo limites de taxa nos downloads de dados do usuário, detectando raspagem automatizada e restringindo as exportações em massa de dados. Mas ele também observou que os usuários individuais podem tomar maiores precauções em relação às informações que compartilham online.

Fuente