Horas depois de uma coalizão de organizações de direitos digitais, segurança infantil e direitos das mulheres ter pedido à Apple para “tomar medidas imediatas” contra X e Grok AI, xAI confirmou que Grok não editará mais “imagens de pessoas reais em roupas reveladoras, como biquínis”, com recortes significativos. Aqui estão os detalhes.
Apple enfrenta pressão renovada para remover X e Grok da App Store
Nos últimos dias, inúmeros usuários do X e do Grok têm pedido ao chatbot do xAI para despir mulheres e até meninas menores de idade, com base em fotos postadas no X.
Embora a xAI inicialmente tenha definido a situação como “lapsos nas salvaguardas”, Grok continuou atendendo a várias solicitações para editar imagens dessa forma. Isso, por sua vez, levou o X a ser bloqueado em vários países e o xAI a se tornar alvo de investigações em outros.
Enquanto isso, a Apple tem enfrentado pressão renovada para remover os aplicativos X e Grok da App Store, tanto por parte de senadores quanto de usuários. Hoje cedo, uma coalizão de 28 organizações de direitos digitais, segurança infantil e direitos das mulheres enviou cartas abertas à Apple e ao Google, pedindo a ambas as empresas “que tomem medidas imediatas para banir Grok, o modelo de linguagem grande (LLM) alimentado por xAI”, de suas lojas de aplicativos.
Da carta aberta:
Nós, as organizações abaixo assinadas, escrevemos para instar a liderança da Apple a tomar medidas imediatas para banir o Grok, o modelo de linguagem grande (LLM) desenvolvido com xAI, da loja de aplicativos da Apple. Grok está sendo usado para criar grandes quantidades de imagens íntimas não consensuais (NCII), incluindo material de abuso sexual infantil (CSAM) – conteúdo que é ao mesmo tempo um crime e uma violação direta das Diretrizes de revisão de aplicativos da Apple. Como o Grok está disponível no aplicativo Grok e diretamente integrado ao X, apelamos à liderança da Apple para remover imediatamente o acesso a ambos os aplicativos.
E
Do jeito que está, a Apple não está apenas habilitando NCII e CSAM, mas lucrando com isso. Como uma coligação de organizações comprometidas com a segurança e o bem-estar online de todos – especialmente mulheres e crianças – bem como com a aplicação ética da inteligência artificial (IA), exigimos que a liderança da Apple remova urgentemente Grok e X da App Store para evitar mais abusos e atividades criminosas.
xAI diz que Grok vai parar de editar imagens, mais ou menos
Embora a Apple e o Google tenham permanecido em silêncio desde o início do problema, gerando duras críticas, bem como especulações de que temiam irritar Elon Musk e até mesmo o presidente Trump, a xAI confirmou hoje que atualizará a conta Grok no X para resolver o problema, pelo menos em parte:
Atualizações na conta @Grok
Implementamos medidas tecnológicas para evitar que a conta Grok permita a edição de imagens de pessoas reais em roupas reveladoras, como biquínis. Esta restrição se aplica a todos os usuários, incluindo assinantes pagos.
Além disso, a criação de imagens e a capacidade de editar imagens através da conta Grok na plataforma X agora estão disponíveis apenas para assinantes pagos. Isso adiciona uma camada extra de proteção, ajudando a garantir que os indivíduos que tentarem abusar da conta Grok para violar a lei ou nossas políticas possam ser responsabilizados.
Atualização do bloqueio geográfico
Agora bloqueamos geograficamente a capacidade de todos os usuários gerarem imagens de pessoas reais em biquínis, roupas íntimas e trajes semelhantes por meio da conta Grok e no Grok in X nas jurisdições onde isso é ilegal.
Não é novidade que uma rápida pesquisa nas menções de Grok revela que vários assinantes do X já estão tentando contornar as restrições recentemente impostas, com algum sucesso. Ao mesmo tempo, a maioria dos não assinantes recebe a seguinte mensagem:
A geração e edição de imagens estão atualmente limitadas a assinantes Premium verificados. Você pode se inscrever para desbloquear esses recursos.
A opinião de 9to5Mac
À medida que o xAI ajusta os novos filtros e regras, resta saber se isso será suficiente para encerrar o caso.
A história mostra que os trolls podem ser incansavelmente criativos ao tentar contornar as restrições de segurança, especialmente quando se trata de atacar mulheres online.
E considerando as múltiplas lacunas no anúncio da xAI, incluindo o facto de algumas das regras se aplicarem apenas à conta de Grok no X, é mais provável que isto não seja o fim de tudo, especialmente para as vítimas.
Seja como for, uma coisa é certa: foi extremamente decepcionante ver a Apple resolver o problema (pelo menos publicamente), esperando que ele desaparecesse por conta própria.
Com cada novo biquíni não consensual e imagem CSAM amplamente acessível a menores através do aplicativo iOS do X nas últimas semanas, a Apple não apenas minou seu argumento de que se esforça para promover um ambiente seguro na App Store, mas também reforçou a noção (às vezes injusta) de que perdeu completamente a coragem nos últimos anos.
Ofertas de acessórios na Amazon


FTC: Usamos links de afiliados automotivos para geração de renda. Mais.




