As vítimas de abuso de imagens deepfake pediram uma proteção mais forte contra imagens explícitas geradas por IA, à medida que a lei que criminaliza a criação de imagens íntimas não consensuais entra em vigor.
Os ativistas do Stop Image-Based Abuse entregaram uma petição a Downing Street com mais de 73.000 assinaturas, instando o governo a introduzir vias civis para a justiça, como ordens de remoção de imagens abusivas em plataformas e dispositivos.
“Hoje é um dia realmente importante”, disse Jodie, vítima de abuso deepfake que usa um pseudônimo.
“Estamos realmente satisfeitos por o governo ter transformado estas alterações em lei que irão certamente proteger mais mulheres e raparigas. Foram vitórias duramente conquistadas pelos activistas, especialmente o seu elemento baseado no consentimento”, acrescentou ela.
Na petição, os ativistas também pedem melhores relacionamentos e educação sexual, bem como financiamento adequado para serviços especializados, como a Revenge Porn Helpline, que apoia vítimas de abuso de imagem íntima.
Jodie, que está na casa dos 20 anos, descobriu imagens dela sendo usada como pornografia deepfake em 2021. Ela e outras 15 mulheres testemunharam contra o perpetrador, Alex Woolf, de 26 anos, depois que ele postou imagens de mulheres nas redes sociais em sites pornográficos. Ele foi condenado e sentenciado a 20 semanas de prisão.
“Tive um caminho muito difícil para conseguir justiça porque simplesmente não havia uma lei que realmente abrangesse o que eu sentia que tinha sido feito comigo”, disse Jodie.
O delito contra a criação de imagens deepfake explícitas foi introduzido como uma emenda à Lei de Dados (Uso e Acesso) de 2025. Embora a lei tenha recebido aprovação real em julho passado, o delito só foi aplicado na sexta-feira.
Muitos ativistas, incluindo Jodie, ficaram frustrados com os atrasos na entrada em vigor da lei. “Tínhamos essas emendas prontas para serem aprovadas pela realeza antes do Natal”, disse Jodie. “Eles deveriam tê-las trazido imediatamente. O atraso fez com que milhões de mulheres se tornassem vítimas, e elas não conseguirão obter a justiça que desejam desesperadamente.”
Em janeiro, a polícia de Leicestershire abriu uma investigação sobre um caso envolvendo imagens deepfake sexualmente explícitas criadas pela Grok AI.
Madelaine Thomas, trabalhadora do sexo e fundadora da empresa de tecnologia forense Image Angel, que renunciou ao seu direito ao anonimato, disse que foi “um dia muito emocionante” para ela e outras vítimas. No entanto, ela disse que a lei não protege as trabalhadoras do sexo do abuso de imagem íntima.
“Quando imagens sexuais comerciais são mal utilizadas, elas são vistas apenas como uma violação de direitos autorais. Eu respeito isso”, disse Thomas. “No entanto, a proporção de respostas disponíveis não corresponde ao dano que ocorre quando você o experimenta. Ao desconsiderar o abuso de imagem íntima comercializado, você não está dando às pessoas que estão passando por um inferno absoluto a oportunidade de obter a ajuda de que precisam.”
Nos últimos sete anos, imagens íntimas dela foram compartilhadas sem o seu consentimento quase todos os dias. “Quando descobri que minhas imagens íntimas foram compartilhadas, senti-me suicida, francamente, e demorei muito para me recuperar disso.”
Uma em cada três mulheres no Reino Unido sofreu abuso online, de acordo com a organização de violência doméstica Refuge.
Stop Image-Based Abuse é um movimento composto pela End Violence Against Women Coalition, o grupo de campanha de vítimas #NotYourPorn, Glamour UK e Clare McGlynn, professora de direito na Universidade de Durham.
Um porta-voz do Ministério da Justiça disse: “Usar tecnologia armamentista para atingir e explorar pessoas é completamente abominável. Já é ilegal compartilhar deepfakes íntimos – e a partir de ontem, criá-los também é um crime.
“Mas não vamos parar por aí. Estamos perseguindo as empresas por trás desses aplicativos de ‘nudificação’, banindo-os completamente para que possamos acabar com esse abuso na fonte.
“O secretário de tecnologia também confirmou que a criação de deepfakes sexuais não consensuais se tornará um crime prioritário de acordo com a Lei de Segurança Online, impondo tarefas extras às plataformas para impedir proativamente a exibição desse conteúdo.”



