Início Tecnologia Empresas de tecnologia e agências de segurança infantil do Reino Unido testarão...

Empresas de tecnologia e agências de segurança infantil do Reino Unido testarão a capacidade das ferramentas de IA de criar imagens de abuso

15
0
Empresas de tecnologia e agências de segurança infantil do Reino Unido testarão a capacidade das ferramentas de IA de criar imagens de abuso

As empresas tecnológicas e as agências de proteção infantil terão o poder de testar se as ferramentas de inteligência artificial podem produzir imagens de abuso infantil ao abrigo de uma nova lei do Reino Unido.

O anúncio foi feito quando um órgão de vigilância de segurança revelou que os relatos de material de abuso sexual infantil gerado por IA (CSAM) mais que duplicaram no ano passado, de 199 em 2024 para 426 em 2025.

De acordo com a mudança, o governo dará permissão às empresas de IA e às organizações de segurança infantil designadas para examinar modelos de IA – a tecnologia subjacente a chatbots como o ChatGPT e geradores de imagens como o Veo 3 do Google – e garantir que tenham salvaguardas para evitar que criem imagens de abuso sexual infantil.

Kanishka Narayan, ministro da IA ​​​​e segurança online, disse que a medida “em última análise visa impedir o abuso antes que aconteça”, acrescentando: “Os especialistas, sob condições estritas, podem agora detectar precocemente o risco nos modelos de IA”.

As alterações foram introduzidas porque é ilegal criar e possuir CSAM, o que significa que os desenvolvedores de IA e outros não podem criar tais imagens como parte de um regime de testes. Até agora, as autoridades tiveram que esperar até que o CSAM gerado por IA fosse carregado online antes de lidar com o assunto. Esta lei visa evitar esse problema, ajudando a prevenir a criação dessas imagens na fonte.

As alterações estão a ser introduzidas pelo governo como alterações à lei sobre criminalidade e policiamento, legislação que também introduz uma proibição de posse, criação ou distribuição de modelos de IA concebidos para gerar material de abuso sexual infantil.

Esta semana, Narayan visitou a base londrina da Childline, uma linha de apoio para crianças, e ouviu uma maquete de uma chamada para conselheiros apresentando uma denúncia de abuso baseado em IA. A ligação retratava um adolescente buscando ajuda depois de ter sido chantageado por uma falsificação sexualizada de si mesmo, construída usando IA.

“Quando ouço falar de crianças que sofrem chantagem online, isso é uma fonte de extrema raiva para mim e de raiva legítima entre os pais”, disse ele.

A Internet Watch Foundation, que monitora CSAM online, disse que os relatos de material de abuso gerado por IA – como uma página da Web que pode conter várias imagens – mais que dobraram este ano até agora. Os casos de material de categoria A – a forma mais grave de abuso – aumentaram de 2.621 imagens ou vídeos para 3.086.

As meninas foram esmagadoramente visadas, representando 94% das imagens ilegais de IA em 2025, enquanto as representações de recém-nascidos a crianças de dois anos aumentaram de cinco em 2024 para 92 em 2025.

Kerry Smith, presidente-executivo da Internet Watch Foundation, disse que a mudança na lei poderia ser “um passo vital para garantir que os produtos de IA sejam seguros antes de serem lançados”.

“As ferramentas de IA permitiram que os sobreviventes pudessem ser vítimas novamente com apenas alguns cliques, dando aos criminosos a capacidade de produzir quantidades potencialmente ilimitadas de material sofisticado e fotorrealista de abuso sexual infantil”, disse ela. “Material que mercantiliza ainda mais o sofrimento das vítimas e torna as crianças, especialmente as meninas, menos seguras dentro e fora da linha.”

Childline também divulgou detalhes de sessões de aconselhamento onde a IA foi mencionada. Os danos da IA ​​mencionados nas conversas incluem: usar a IA para avaliar peso, corpo e aparência; chatbots dissuadindo as crianças de falar com adultos seguros sobre abuso; sofrer bullying online com conteúdo gerado por IA; e chantagem online usando imagens falsificadas por IA.

Entre abril e setembro deste ano, a Childline realizou 367 sessões de aconselhamento onde foram mencionados IA, chatbots e termos relacionados, quatro vezes mais do que no mesmo período do ano passado. Metade das menções à IA nas sessões de 2025 estavam relacionadas à saúde mental e ao bem-estar, incluindo o uso de chatbots para suporte e aplicativos de terapia de IA.

Fuente