Milhões de pessoas em todo o mundo estão a criar e a partilhar nudes deepfake na aplicação de mensagens seguras Telegram, mostrou uma análise do Guardian, à medida que a disseminação de ferramentas avançadas de IA industrializa o abuso online de mulheres.
O Guardian identificou pelo menos 150 canais do Telegram – grandes chats em grupo criptografados, populares por sua comunicação segura – que parecem ter usuários em muitos países, do Reino Unido ao Brasil, da China à Nigéria, da Rússia à Índia. Alguns deles oferecem fotos ou vídeos “nudificados” mediante o pagamento de uma taxa: os usuários podem enviar uma foto de qualquer mulher, e a IA produzirá um vídeo dessa mulher realizando atos sexuais. Muitos outros oferecem um feed de imagens – de celebridades, influenciadores de redes sociais e mulheres comuns – nuas ou feitas para realizar atos sexuais pela IA. Os seguidores também estão utilizando os canais para compartilhar dicas sobre as ferramentas deepfake disponíveis.
Embora existam há muito tempo canais do Telegram dedicados à distribuição de imagens nuas não consensuais de mulheres, a ampla disponibilidade de ferramentas de IA significa que qualquer pessoa pode tornar-se instantaneamente alvo de conteúdo sexual gráfico visível por milhões de pessoas.
Em um canal do Telegram em russo que anunciava “vazamentos de blogueiros” e “vazamentos de celebridades” deepfake, uma postagem sobre um bot do Telegram de nudificação de IA prometia “uma rede neural que não conhece a palavra ‘não’”.
“Escolha posições, formas e locais. Faça com ela tudo o que você não pode fazer na vida real”, dizia.
Num canal do Telegram em chinês com quase 25 mil inscritos, homens compartilharam vídeos de seus “primeiros amores” ou da “melhor amiga de sua namorada”, feitos para tirar a roupa usando IA.
Uma rede de canais do Telegram direcionados a usuários nigerianos dissemina deepfakes junto com centenas de nus roubados e imagens íntimas.
Telegram é um aplicativo de mensagens seguro que permite aos usuários criar grupos ou canais para transmitir conteúdo para contatos ilimitados. De acordo com os termos de serviço da plataforma, os usuários não podem postar “conteúdo pornográfico ilegal” em canais e bots “visíveis publicamente”, ou “se envolver em atividades que são reconhecidas como ilegais na maioria dos países”.
Uma análise dos dados do serviço independente de análise e banco de dados Telemetr.io, que possui um índice desses canais, indica que o Telegram fechou vários canais de nudificação.
O Telegram disse ao Guardian que a pornografia deepfake e as ferramentas para criá-la são explicitamente proibidas pelos seus termos de serviço, acrescentando que “esse conteúdo é removido rotineiramente sempre que descoberto. Moderadores capacitados com ferramentas de IA personalizadas monitoram proativamente as partes públicas da plataforma e aceitam relatórios para remover conteúdo que viole nossos termos de serviço, incluindo o incentivo à criação de pornografia deepfake”.
Em seu comunicado, o Telegram disse que removeu mais de 952 mil peças de material ofensivo em 2025.
Nas últimas semanas, a utilização de ferramentas de IA para criar deepfakes sexualizados e humilhar mulheres explodiu no discurso público, depois de Grok, o chatbot generativo de IA na plataforma de redes sociais X de Elon Musk, ter sido solicitado a criar milhares de imagens de mulheres de biquíni ou com roupas mínimas, sem consentimento.
A indignação resultante levou a empresa de inteligência artificial de Musk, xAI, a anunciar que deixaria de permitir que Grok editasse fotos de pessoas reais em biquínis. O regulador de mídia do Reino Unido, Ofcom, também anunciou uma investigação sobre X.
Mas existe um conjunto de fóruns, websites e aplicações, incluindo o Telegram, que permitem a milhões de pessoas aceder facilmente a conteúdos gráficos e não consensuais – e gerar e partilhar esses conteúdos a pedido, sem o conhecimento das mulheres que estão a ser violadas por eles. Um relatório divulgado na terça-feira pelo Tech Transparency Project descobriu que dezenas de aplicativos de nudificação estão disponíveis na Google Play Store e na Apple App Store e que, coletivamente, eles tiveram 705 milhões de downloads.
O órgão de fiscalização da mídia do Reino Unido, Ofcom, está conduzindo uma investigação formal sobre o X de Elon Musk sobre o uso da ferramenta Grok AI. Fotografia: Yui Mok/PA
Um porta-voz da Apple disse que a empresa removeu 28 dos 47 aplicativos de nudificação identificados pelo Tech Transparency Project em sua investigação, enquanto um porta-voz do Google disse que “a maioria dos aplicativos” em seu serviço foram suspensos e que uma investigação estava em andamento.
Os canais de telegrama são um dos pilares de um ecossistema mais amplo da Internet dedicado à criação e disseminação de imagens íntimas não consensuais, disse Anne Craanen, investigadora focada na violência baseada no género no Instituto para o Diálogo Estratégico, com sede em Londres.
Eles permitem que os usuários evitem os controles de plataformas maiores, como o Google, e compartilhem dicas sobre como contornar as salvaguardas que impedem os modelos de IA de gerar esse conteúdo. Mas a “divulgação e celebração deste material é outra parte”, disse. “Que divulgá-lo com outros homens e se gabar disso, e esse aspecto de celebração, também é muito importante. Isso realmente mostra os tons misóginos disso. Eles estão tentando punir as mulheres ou silenciá-las.”
No ano passado, Meta fechou um grupo italiano no Facebook no qual homens compartilhavam imagens íntimas de suas parceiras e de mulheres inocentes. Antes de ser removido, o grupo Mia Moglie (que significa “minha esposa”) tinha aproximadamente 32.000 membros.
No entanto, o boletim informativo investigativo Indicator descobriu que a Meta não conseguiu impedir o fluxo de anúncios de ferramentas de nudificação de IA nas suas plataformas e identificou pelo menos 4.431 anúncios de nudificação nas suas plataformas desde 4 de dezembro do ano passado, embora alguns parecessem ser fraudes. Um porta-voz da Meta disse que remove anúncios que violam suas políticas.
As ferramentas de IA intensificaram o aumento global da violência online contra as mulheres, permitindo que quase qualquer pessoa crie e partilhe imagens abusivas. Em muitas jurisdições, incluindo grande parte do Sul global, existem poucas vias legais para responsabilizar os perpetradores. Menos de 40% dos países têm leis que protegem as mulheres e as raparigas do assédio cibernético ou da perseguição cibernética, de acordo com dados de 2024 do Banco Mundial. A ONU estima que 1,8 mil milhões de mulheres e raparigas ainda carecem de proteção legal contra o assédio online e outras formas de abuso facilitadas pela tecnologia.
A falta de regulamentação é apenas uma das razões pelas quais as mulheres e as raparigas nos países de baixos rendimentos são particularmente vulneráveis, dizem os ativistas. Questões como a fraca literacia digital e a pobreza podem aumentar os riscos. Ugochi Ihe, associada da TechHer, uma organização com sede na Nigéria que incentiva mulheres e meninas a aprender e trabalhar com tecnologia, diz que se deparou com casos em que mulheres que pediram dinheiro emprestado a aplicações de empréstimo foram vítimas de chantagem de “homens sem escrúpulos que usam IA. A cada dia que passa o abuso está a tornar-se mais criativo”.
As consequências do abuso digital na vida real são devastadoras, incluindo dificuldades de saúde mental, isolamento e perda de trabalho.
“Essas coisas podem destruir a vida de uma jovem”, disse Mercy Mutemi, uma advogada queniana que representa quatro vítimas de abuso deepfake. Alguns de seus clientes tiveram empregos negados e foram submetidos a audiências disciplinares na escola, disse ela, tudo por causa de imagens falsas que circularam sem o seu consentimento.
Ihe disse que sua organização atendeu reclamações de mulheres que foram condenadas ao ostracismo por suas famílias após serem ameaçadas com imagens íntimas e nuas obtidas nos canais do Telegram.
“Uma vez divulgado, não há como recuperar sua dignidade, sua identidade. Mesmo que o perpetrador diga: ‘Ah, isso foi uma deepfake’, você não pode dizer quantas pessoas o viram. O dano à reputação é irrecuperável.”



