A quantidade de material de abuso sexual gerado por IA encontrado online aumentou 14% no ano passado, com a maioria dos vídeos mostrando o tipo de conteúdo mais extremo, de acordo com um órgão de vigilância de segurança.
A Internet Watch Foundation disse que identificou 8.029 imagens e vídeos feitos por IA de material realista de abuso sexual infantil (CSAM) em 2025. Acrescentou que houve um aumento de mais de 260 vezes no número de vídeos.
A IWF disse que 65% dos 3.443 vídeos foram classificados na categoria A, o termo para o material mais grave segundo a lei do Reino Unido. O número correspondente para vídeos sem IA foi de 43%, disse o órgão de fiscalização, mostrando que a tecnologia estava sendo usada para criar conteúdo mais violento.
Kerry Smith, diretor executivo da IWF, disse: “Os avanços na tecnologia nunca devem ocorrer às custas da segurança e do bem-estar de uma criança. Embora a IA possa oferecer muito num sentido positivo, é horrível considerar que o seu poder pode ser usado para devastar a vida de uma criança. Este material é perigoso.”
Um analista da IWF disse que as conversas entre pedófilos na dark web mostraram que as inovações na tecnologia foram “consideradas com entusiasmo” pelos usuários do CSAM. As discussões centram-se nos resultados cada vez mais realistas dos sistemas de IA e, à medida que melhoram, na sua capacidade de adicionar áudio ao vídeo ou de manipular com sucesso imagens de uma criança real conhecida de um infrator.
A IWF, sediada no Reino Unido, opera uma linha direta e tem um mandato global para monitorizar conteúdos de abuso sexual infantil. Afirmou que os infratores também estavam discutindo as possibilidades de utilização de sistemas “agenticos”, que podem realizar tarefas de forma autônoma.
As empresas de tecnologia e as agências de proteção infantil estão recebendo no Reino Unido o poder de testar se as ferramentas de IA podem produzir CSAM, em uma medida que os ministros disseram no ano passado era para impedir o abuso antes que acontecesse.
De acordo com a mudança, o governo dará permissão às empresas de IA designadas e às organizações de segurança infantil para examinarem modelos generativos de inteligência artificial – a tecnologia subjacente para chatbots como o ChatGPT e geradores de imagens como o Veo 3 do Google – e garantir que tenham salvaguardas para impedi-los de criar tal material.
“As crianças, as vítimas e os sobreviventes não podem permitir-nos ser complacentes”, disse Smith. “A nova tecnologia deve ser mantida no mais alto padrão. Em alguns casos, vidas estão em risco.”
A quantidade de CSAM verificada pela IWF aumentou acentuadamente à medida que a proficiência e a disponibilidade dos sistemas aumentaram, especialmente com o aumento dos vídeos.
A IWF também publicou pesquisas que mostraram que oito em cada 10 adultos do Reino Unido queriam que o governo do Reino Unido introduzisse legislação que garantisse que os sistemas de IA fossem desenvolvidos com a segurança como prioridade e “protegidos para o futuro contra danos”. No ano passado, o governo anunciou a proibição de possuir, criar ou distribuir modelos de IA concebidos para gerar material de abuso sexual infantil.



