Início Tecnologia ‘Eles parecem verdadeiros’: os deepfakes políticos estão ganhando influência – mesmo que...

‘Eles parecem verdadeiros’: os deepfakes políticos estão ganhando influência – mesmo que as pessoas saibam que não são reais

25
0
'Eles parecem verdadeiros': os deepfakes políticos estão ganhando influência - mesmo que as pessoas saibam que não são reais

SOBREOs criadores de conteúdo online não estão apenas construindo imagens e vídeos falsos de figuras públicas proeminentes, eles também estão fabricando pessoas e usando-as em contextos militares, o que pode lhes render dinheiro e até mesmo servir como propaganda eficaz, de acordo com pesquisadores de inteligência artificial.

Alguns destes avatares online são imagens sexualizadas de mulheres usando trajes camuflados que geraram um público significativo e ajudaram a criar uma imagem idealizada de figuras políticas como Donald Trump, mesmo que o espectador saiba que o conteúdo não é real, segundo especialistas.

“Estamos misturando os limites entre cartoons políticos e realidade”, disse Daniel Schiff, professor assistente de política tecnológica na Purdue University e codiretor do Laboratório de Governança e IA Responsável (Grail). “Muitas pessoas sentem que essas imagens, vídeos ou as histórias que eles transmitem parecem verdadeiros.”

A quantidade de deepfakes políticos aumentou dramaticamente nos últimos anos, de acordo com um banco de dados do Graal. Desde o início de 2025, a organização catalogou mais de 1.000 postagens em mídias sociais em inglês apresentando imagens ou vídeos falsos de figuras políticas proeminentes e questões e eventos sociais politicamente importantes.

Nos oito anos anteriores combinados, a organização registrou 1.344 incidentes desse tipo.

Esse aumento deve-se em grande parte ao facto da tecnologia generativa de IA ter melhorado, o que permitiu às pessoas criar rapidamente esse tipo de conteúdo, disse Schiff.

Tornamos “trivialmente fácil gerar uma cena que parece bastante realista e colocar indivíduos reais em cenas”, disse Sam Gregory, diretor executivo da Witness, uma organização dedicada aos direitos humanos e ao combate à IA enganosa.

Mas os avatares falsos – que imitam pessoas comuns reais em vez de figuras conhecidas – são outra vez uma questão diferente.

Mulheres AI de uniforme, Trump e … fotos de pés?

Em dezembro de 2025, uma conta de Jessica Foster, uma mulher loira gerada por IA, muitas vezes em uniforme militar dos EUA, foi ao ar no Instagram e começou a compartilhar fotos de Foster em cima de um beliche no quartel; sentada em uma cadeira de escritório com os pés apoiados em uma mesa; e andando na pista de salto alto ao lado de Trump, de acordo com a Fast Company.

Os criadores usaram esse calçado intencionalmente e fizeram com que seus pés aparecessem com destaque.

As imagens de Foster, que não é uma pessoa real, atraíram mais de 1 milhão de seguidores no Instagram. As postagens foram então vinculadas a uma conta no OnlyFans, uma plataforma amplamente usada por criadores de pornografia, onde os visitantes podiam comprar fotos de pés supostamente de Foster.

“Por que você NUNCA responde?” um usuário perguntou ao perfil de Foster no Instagram, de acordo com o Washington Post.

A conta foi removida nos últimos dias.

“Grande parte da geração de IA visa basicamente obter cliques e dinheiro ou levar as pessoas a um lugar mais lucrativo”, disse Gregory.

Mas tais ferramentas também podem servir um propósito político. Durante a guerra no Irão, uma enxurrada de vídeos apareceu nas redes sociais apresentando falsas mulheres soldados iranianas que diziam: “Habibi, venha para o Irão”, informou a BBC.

Uma das vantagens foi que o Irão proíbe as mulheres de servirem em funções de combate.

Os criadores também criaram uma policial feminina gerada por IA que tem mais de 26.000 seguidores no TikTok. Um vídeo mostra-o sorrindo com o texto: “O presidente Trump deportou mais de 2,5 milhões de pessoas para fora do país. Foi nisso que você votou? Sim.”

Recebeu mais de 200 curtidas e 23 comentários, incluindo: “absolutamente sim”.

Durante a eleição de 2024, Trump também compartilhou imagens geradas por IA que retratavam fãs de Taylor Swift apoiando-o. Desde 2024, Trump e a Casa Branca compartilharam pelo menos 18 deepfakes nas redes sociais, de acordo com o banco de dados do Graal.

Mas a questão não se limita ao direito. O governador da Califórnia, Gavin Newsom, que muitos prevêem que concorrerá à presidência em 2028, também começou a compartilhar deepfakes direcionados a Trump, incluindo um que mostra o presidente sorrindo para um holograma de Jeffrey Epstein.

Os pesquisadores de IA disseram que os deepfakes políticos ainda podem ser persuasivos, mesmo que os consumidores saibam que não são reais.

Foster está “andando de salto alto, com uniforme militar, seu distintivo militar está completamente errado. Não há razão para ela sair com o presidente Trump e Nicolás Maduro”, disse Gregory. “Nada disso, se você pensar bem, faz muito sentido ou resiste a um exame minucioso. Mas as pessoas não estão necessariamente procurando por coisas que sejam reais; elas estão procurando por coisas que representem suas crenças.”

Os deepfakes tornam menos provável que as pessoas os reconsiderem, disse Valerie Wirtschafter, bolsista da Brookings Institution em sua iniciativa de inteligência artificial e tecnologia emergente.

Os deepfakes são “apenas mais uma camada acrescentada em termos deste processo de reforçar, em vez de revisitar, o que as pessoas acreditam ser verdade”, disse Wirtschafter.

‘É como uma fazenda de trolls’

Os pesquisadores temem que as coisas só piorem. A tecnologia utilizada para construir Foster também poderia ser usada para produzir o que os investigadores descreveram como “enxames de IA”, capazes de “coordenar de forma autónoma, infiltrar-se em comunidades e fabricar consenso de forma eficiente”, de acordo com um estudo recente na Science.

“É como uma fazenda de trolls sem a necessidade de mais pessoas”, disse Wirtschafter.

Mas os humanos ainda podem impedir que agentes maliciosos utilizem a IA para desestabilizar a sociedade, disseram os investigadores.

A Coalizão para Proveniência e Autenticidade de Conteúdo desenvolveu um “padrão técnico para editores, criadores e consumidores estabelecerem a origem e edições de conteúdo digital”, segundo o grupo.

Ele está “incorporado em uma foto que você tira com uma câmera ou em um conteúdo criado com uma ferramenta de IA ou editado com uma ferramenta de IA e depois distribuído em uma plataforma, portanto, deve ser um conjunto de metadados assinados criptograficamente”, disse Gregory.

As empresas de tecnologia precisam então usar essas informações para identificar se o conteúdo inclui IA, disse Gregory.

LinkedIn, Pinterest, TikTok e YouTube estão todos comprometidos em rotular o conteúdo gerado por IA. Mas um investigador do Indicator, um meio de comunicação, publicou recentemente 200 imagens e vídeos gerados por IA nessas plataformas para determinar se eles realmente as marcaram. Ele descobriu que os mais diligentes – LinkedIn e Pinterest – ainda rotulavam apenas 67% desse conteúdo; O Instagram rotulou apenas 15 das 105 imagens falsas.

O conselho de supervisão da Meta declarou recentemente que estava preocupado com relatos de que a empresa estava “implementando de forma inconsistente” os padrões da Coalizão “mesmo no conteúdo gerado por suas próprias ferramentas de IA, e que apenas uma parte de tal produção recebe rotulagem adequada”.

Gregory disse que a rotulagem inconsistente se deve a uma “falha de vontade política nos níveis superiores” das grandes empresas de tecnologia.

“Não precisamos desistir da capacidade de discernir o que é real e o que é sintético”, disse ele. “Mas precisamos agir rápido.”

Fuente