Início Tecnologia Grok AI gerou cerca de 3 milhões de imagens sexualizadas este mês,...

Grok AI gerou cerca de 3 milhões de imagens sexualizadas este mês, diz pesquisa

23
0
Grok AI gerou cerca de 3 milhões de imagens sexualizadas este mês, diz pesquisa

A Grok AI gerou cerca de 3 milhões de imagens sexualizadas em menos de duas semanas, incluindo 23 mil que parecem representar crianças, segundo investigadores que afirmaram que a IA “se tornou numa máquina à escala industrial para a produção de material de abuso sexual”.

A estimativa foi feita pelo Centro de Combate ao Ódio Digital (CCDH) depois que a ferramenta de geração de imagens de IA de Elon Musk provocou indignação internacional quando permitiu aos usuários fazer upload de fotos de estranhos e celebridades, despi-los digitalmente até ficarem de cueca ou biquíni, colocá-los em poses provocantes e postar as imagens no X.

A tendência tornou-se viral no ano novo, atingindo o pico a 2 de janeiro, com 199.612 pedidos individuais, de acordo com uma análise realizada pela Peryton Intelligence, uma empresa de inteligência digital especializada em ódio online.

Uma avaliação mais completa do resultado do recurso, desde o seu lançamento em 29 de dezembro de 2025 até 8 de janeiro de 2026, foi agora feita pelo CCDH. Isso sugere que o impacto da tecnologia pode ter sido mais amplo do que se pensava anteriormente. As figuras públicas identificadas nas imagens sexualizadas analisadas incluem Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande, Ice Spice, Nicki Minaj, Christina Hendricks, Millie Bobby Brown, a vice-primeira-ministra sueca Ebba Busch e a ex-vice-presidente dos EUA Kamala Harris.

O recurso foi restrito a usuários pagos em 9 de janeiro e novas restrições se seguiram depois que o primeiro-ministro do Reino Unido, Keir Starmer, chamou a situação de “nojenta” e “vergonhosa”. Outros países, incluindo a Indonésia e a Malásia, anunciaram bloqueios à ferramenta de IA.

A CCDH estimou que durante o período de 11 dias, Grok ajudou a criar imagens sexualizadas de crianças a cada 41 segundos. Isso incluía uma selfie enviada por uma estudante despida por Grok, transformando uma “selfie antes da escola” em uma imagem dela de biquíni.

“O que descobrimos foi claro e perturbador: naquele período, Grok tornou-se uma máquina em escala industrial para a produção de material de abuso sexual”, disse Imran Ahmed, presidente-executivo da CCDH. “Tirar a roupa de uma mulher sem a permissão dela é abuso sexual. Durante todo esse período, Elon estava exaltando o produto, mesmo quando estava claro para o mundo que ele estava sendo usado dessa maneira. O que Elon estava criando era controvérsia, atenção, envolvimento e usuários. Foi profundamente perturbador.”

Ele acrescentou: “Isso se tornou um manual padrão para o Vale do Silício, e em particular para mídias sociais e plataformas de IA. Os incentivos estão todos desalinhados. Eles lucram com essa indignação. Não se trata pessoalmente de Musk. Trata-se de um sistema (com) incentivos perversos e sem salvaguardas mínimas prescritas por lei. E até que os reguladores e legisladores façam seu trabalho e criem uma expectativa mínima de segurança, isso continuará a acontecer.”

X anunciou que interrompeu seu recurso Grok de editar fotos de pessoas reais para mostrá-las em roupas reveladoras, inclusive para assinantes premium, em 14 de janeiro.

X referiu-se à sua declaração da semana passada, que dizia: “Continuamos empenhados em tornar o X uma plataforma segura para todos e continuamos a ter tolerância zero para quaisquer formas de exploração sexual infantil, nudez não consensual e conteúdo sexual indesejado.

“Tomamos medidas para remover conteúdo violador de alta prioridade, incluindo material de abuso sexual infantil e nudez não consensual, tomando as medidas apropriadas contra contas que violam nossas regras X. Também denunciamos contas que buscam materiais de exploração sexual infantil às autoridades policiais, conforme necessário.”

Fuente