Início Tecnologia Fraude deepfake ocorrendo em escala industrial, revela estudo

Fraude deepfake ocorrendo em escala industrial, revela estudo

23
0
Fraude deepfake ocorrendo em escala industrial, revela estudo

A fraude deepfake se tornou “industrial”, disse uma análise publicada por especialistas em IA.

As ferramentas para criar fraudes à medida e até mesmo personalizadas – aproveitando, por exemplo, vídeos deepfake de jornalistas suecos ou do presidente de Chipre – já não são um nicho, mas são baratas e fáceis de implementar em grande escala, afirma a análise da base de dados de incidentes de IA.

Catalogou mais de uma dúzia de exemplos recentes de “falsificação de identidade com fins lucrativos”, incluindo um vídeo deepfake do primeiro-ministro da Austrália Ocidental, Robert Cook, apregoando um esquema de investimento, e médicos deepfake promovendo cremes para a pele.

Esses exemplos fazem parte de uma tendência em que os golpistas estão usando ferramentas de IA amplamente disponíveis para perpetuar assaltos cada vez mais direcionados. No ano passado, um diretor financeiro de uma multinacional de Singapura pagou quase US$ 500 mil a golpistas durante o que ele acreditava ser uma videochamada com a liderança da empresa. Estima-se que os consumidores do Reino Unido tenham perdido £ 9,4 bilhões em fraudes nos nove meses até novembro de 2025.

“As capacidades atingiram repentinamente aquele nível em que conteúdo falso pode ser produzido por praticamente qualquer pessoa”, disse Simon Mylius, pesquisador do MIT que trabalha em um projeto vinculado ao banco de dados de incidentes de IA.

Ele calcula que “fraudes, golpes e manipulação direcionada” representaram a maior proporção de incidentes relatados ao banco de dados em 11 dos últimos 12 meses. Ele disse: “Tornou-se muito acessível a um ponto em que não há efetivamente nenhuma barreira à entrada”.

“A escala está mudando”, disse Fred Heiding, pesquisador de Harvard que estuda golpes baseados em IA. “Está se tornando tão barato que quase qualquer pessoa pode usá-lo agora. Os modelos estão ficando realmente bons – estão se tornando muito mais rápidos do que a maioria dos especialistas pensa.”

No início de janeiro, Jason Rebholz, executivo-chefe da Evoke, uma empresa de segurança de IA, publicou uma oferta de emprego no LinkedIn e foi imediatamente contatado por um estranho em sua rede, que recomendou um candidato.

Em poucos dias, ele estava trocando e-mails com alguém que, no papel, parecia ser um engenheiro talentoso.

“Eu olhei para o currículo e pensei, este é realmente um currículo muito bom. E então pensei, mesmo que houvesse alguns sinais de alerta, deixe-me apenas conversar.”

Então as coisas ficaram estranhas. Os e-mails do candidato foram diretamente para o spam. Seu currículo tinha peculiaridades. Mas Rebholz já havia lidado com candidatos incomuns e decidiu prosseguir com a entrevista.

Então, quando Rebholz atendeu a ligação, o vídeo do candidato demorou quase um minuto para aparecer.

“O pano de fundo era extremamente falso”, disse ele. “Parecia super, super falso. E estava realmente lutando para lidar com (a área) ao redor das bordas do indivíduo. Como se parte de seu corpo estivesse entrando e saindo… E então, quando estou olhando para o rosto dele, é muito suave nas bordas.”

Rebholz continuou a conversa, não querendo enfrentar o constrangimento de perguntar diretamente ao candidato se se tratava, de fato, de um golpe elaborado. Depois, ele enviou uma gravação para um contato de uma empresa de detecção de deepfake, que lhe disse que a imagem de vídeo do candidato foi gerada por IA. Ele rejeitou o candidato.

Rebholz ainda não sabe o que o golpista queria – um salário de engenheiro ou segredos comerciais. Embora tenha havido relatos de hackers norte-coreanos tentando conseguir empregos na Amazon, a Evoke é uma startup, não um grande player.

“É como se estivéssemos sendo alvo disso, todos seriam alvo disso”, disse Rebholz.

Heiding disse que o pior estava por vir. Atualmente, a tecnologia de clonagem de voz deepfake é excelente – tornando mais fácil para os golpistas se passarem, por exemplo, por um neto em perigo por telefone. Os vídeos deepfake, por outro lado, ainda podem ser melhorados.

Isto poderá ter consequências extremas: para as contratações, para as eleições e para a sociedade em geral. Heiding acrescentou: “Esse será o grande problema aqui, a total falta de confiança nas instituições digitais, e nas instituições e materiais em geral”.

Fuente