O número de vídeos on -line de abuso sexual de crianças geradas pela inteligência artificial aumentou porque os pedófilos foram embalados nos desenvolvimentos em tecnologia.
A Internet Watch Foundation disse que os vídeos de abuso da IA ”haviam cruzado o limiar” para se distinguirem de “imagens reais” e este ano aumentou acentuadamente na prevalência on -line.
Nos primeiros seis meses de 2025, o Internet Safety Waakhond, com sede no Reino Unido, verificou 1.286 IA visa com material de abuso sexual de crianças (CSAM) que quebraram a lei em comparação com duas no mesmo período do ano passado.
A IWF disse que pouco mais de 1.000 dos vídeos continham abuso de categoria A, a classificação para o tipo de material mais grave.
A organização disse que o investimento em investimento de bilhões de dólares em IA produziu modelos disponíveis em larga escala que foram manipulados por pedófilos.
“É uma indústria muito competitiva. Muito dinheiro continua, então infelizmente há muitas opções para os autores”, disse um analista da IWF.
Os vídeos foram encontrados como parte de um aumento de 400% nos URLs com abuso sexual de crianças nos primeiros seis meses de 2025. A IWF recebeu relatos de tais URLs, em comparação com 42 no ano passado, com cada página contendo centenas de imagens, incluindo o pico no conteúdo de vídeo.
O IWF viu uma mensagem em um fórum da Web Dark, onde um pedófilo se referiu à velocidade das melhorias na IA e disse como eles tinham uma ferramenta de IA sob o joelho para “algo novo e melhor para aparecer”.
Os analistas da IWF disseram que as imagens pareciam ter sido feitas ao fazer um modelo básico de IA básico disponível e “refiná -lo” com o CSAM para produzir vídeos realistas. Em alguns casos, esses modelos foram refinados com alguns vídeos do CSAM, disse o IWF.
Os vídeos de abuso de IA mais realistas que foram vistos este ano foram baseados em vítimas reais, disse o cão de guarda.
Derek Ray-Hill, o executivo-chefe interino da IWF, disse que o crescimento da capacidade dos modelos de IA, sua ampla disponibilidade e a possibilidade de ajustá-los para fins criminais pode levar a uma explosão de CSAM fabricada on-line.
“Existe um risco incrível de que o CSAM gerado pela IA leve a uma explosão absoluta que sobrecarrega a rede clara”, disse ele, acrescentando que um crescimento desse conteúdo pode alimentar atividades criminosas relacionadas ao tráfico de crianças, abuso sexual de crianças e escravidão moderna.
O uso de vítimas existentes de abuso sexual em imagens geradas pela IA significava que os pedófilos expandiram consideravelmente o volume de CSAM on -line sem ter que confiar em novas vítimas, acrescentou.
O governo britânico está citando a CSAM gerada pela IA, tornando ilegal possuir, criar ou distribuir ferramentas de IA projetadas para criar conteúdo de abuso. As pessoas que violaram a nova lei serão presas até cinco anos.
Os ministros também proíbem a posse de manuais que aprendem em potenciais autores como usar as ferramentas de IA para fazer imagens ofensivas ou para ajudá -los a abusar das crianças. Os autores podem enfrentar uma sentença de prisão de até três anos.
As mudanças em fevereiro anunciam o ministro do interior, Yvette Cooper, que era vital que “abordamos o abuso sexual de crianças e offline para a criança”.
O CSAM gerado pela IA é ilegal sob a Lei de Proteção das Crianças de 1978, que a criminaliza, distribuição e posse de uma “foto indecente ou pseudo-foto” de uma criança.