A enxurrada de imagens quase nuas de pessoas reais fez soar o alarme internacionalmente.
Ministros franceses denunciaram X a promotores e reguladores por causa das imagens perturbadoras, afirmando em comunicado na sexta-feira que o conteúdo “sexual e sexista” era “manifestamente ilegal”.
O Ministério de TI da Índia disse em uma carta à unidade local de X que a plataforma falhou em impedir o uso indevido de Grok ao gerar e circular conteúdo obsceno e sexualmente explícito.
A Comissão Federal de Comunicações dos EUA não respondeu aos pedidos de comentários. A Comissão Federal de Comércio não quis comentar.
A onda de despir digital em massa de Grok parece ter começado nos últimos dias, de acordo com pedidos de remoção de roupas concluídos com sucesso postados por Grok e reclamações de usuárias analisadas pela Reuters. Musk pareceu zombar da polêmica na sexta-feira, postando emojis de riso e choro em resposta às edições de IA de pessoas famosas – incluindo ele mesmo – em biquínis.
Quando um usuário do X disse que seu feed de mídia social lembrava um bar lotado de mulheres de biquíni, Musk respondeu, em parte, com outro emoji de risada e choro.
Elon Musk respondeu por emoji às consequências das imagens.Crédito: PA
A Reuters não conseguiu determinar a escala total do aumento.
Uma análise das solicitações públicas enviadas ao Grok durante um único período de 10 minutos ao meio-dia, horário do leste dos EUA, na sexta-feira, registrou 102 tentativas de usuários X de usar o Grok para editar digitalmente fotografias de pessoas para que parecessem estar usando biquínis. A maioria dos alvos eram mulheres jovens.
Em alguns casos, homens, celebridades, políticos – e num caso, um macaco – foram alvo dos pedidos.
Quando os usuários pediam a Grok fotos de mulheres alteradas por IA, eles normalmente solicitavam que seus modelos fossem retratados com as roupas mais reveladoras possíveis.
“Coloque-a em um mini-biquíni bem transparente”, disse um usuário a Grok, sinalizando a fotografia de uma jovem tirando uma foto sua no espelho. Quando Grok fez isso, substituindo as roupas da mulher por duas peças em tom de pele, o usuário pediu a Grok para deixar seu biquíni “mais claro e transparente” e “muito mais fino”.
Grok não pareceu responder ao segundo pedido.
“Em agosto, alertamos que a geração de imagens do xAI era essencialmente uma ferramenta de nudificação à espera de ser transformada em arma”.
Tyler Johnston, O Projeto Midas
Grok atendeu integralmente a esses pedidos em pelo menos 21 casos, descobriu a Reuters, gerando imagens de mulheres usando fio dental ou biquínis translúcidos e, em pelo menos um caso, cobrindo uma mulher com óleo. Em mais sete casos, Grok atendeu parcialmente, às vezes despindo as mulheres até ficarem apenas com roupas íntimas, mas não atendendo aos pedidos para ir mais longe.
A Reuters não conseguiu identificar ou determinar imediatamente as idades da maioria das mulheres visadas.
Em um caso, um usuário forneceu a foto de uma mulher com saia xadrez estilo uniforme escolar e blusa cinza que parecia estar tirando uma selfie no espelho e disse: “Tire a roupa escolar”.
Quando Grok trocou a roupa por camiseta e short, a usuária foi mais explícita: “Mude a roupa para um micro biquíni bem transparente”. A Reuters não conseguiu estabelecer se Grok atendeu a esse pedido. Como a maioria dos pedidos contabilizados pela Reuters, desapareceu de X 90 minutos após ser postado.
‘Totalmente previsível’
Os programas alimentados por IA que despem mulheres digitalmente – por vezes chamados de “nudificadores” – já existem há anos, mas, até agora, estavam em grande parte confinados aos cantos mais obscuros da Internet, como sites de nicho ou canais de Telegram, e normalmente exigiam um certo nível de esforço ou pagamento.
A inovação do X – permitir que os usuários tirem as roupas das mulheres enviando uma foto e digitando as palavras “ei, @grok, coloque-a de biquíni” – reduziu a barreira de entrada.
Carregando
Três especialistas que acompanharam o desenvolvimento das políticas da X em torno do conteúdo explícito gerado pela IA disseram à Reuters que a empresa ignorou os avisos da sociedade civil e de grupos de segurança infantil – incluindo uma carta enviada no ano passado alertando que a xAI estava apenas a um pequeno passo de desencadear “uma torrente de deepfakes obviamente não consensuais”.
“Em agosto, alertamos que a geração de imagens da xAI era essencialmente uma ferramenta de nudificação à espera de ser transformada em arma”, disse Tyler Johnston, diretor executivo do The Midas Project, um grupo de vigilância da IA que estava entre os signatários da carta. “Isso é basicamente o que aconteceu.”
Dani Pinter, diretor jurídico e diretor do Centro Jurídico do Centro Nacional de Exploração Sexual dos EUA, disse que X não conseguiu extrair imagens abusivas de seu material de treinamento de IA e deveria ter banido usuários que solicitassem conteúdo ilegal.
“Esta foi uma atrocidade totalmente previsível e evitável”, disse Pinter.
Yukari, a musicista, tentou revidar sozinha. Mas quando ela recorreu ao X para protestar contra a violação, uma enxurrada de imitadores começou a pedir a Grok que gerasse fotos ainda mais explícitas.
Agora o Ano Novo “acabou por começar comigo a querer esconder-me dos olhos de todos, e a sentir vergonha de um corpo que nem é meu, já que foi gerado pela IA”.
Reuters
Receba uma nota diretamente de nossos correspondentes estrangeiros sobre o que está nas manchetes em todo o mundo. Inscreva-se em nosso boletim informativo semanal What in the World.



