Início Tecnologia Enquanto 37 estados dos EUA respondem ao problema Grok CSAM, a Apple...

Enquanto 37 estados dos EUA respondem ao problema Grok CSAM, a Apple realmente precisa agir

21
0
Enquanto 37 estados dos EUA respondem ao problema Grok CSAM, a Apple realmente precisa agir | Imagem conceitual de criança escondida

Pelo menos 37 procuradores-gerais dos estados dos EUA estão respondendo ao problema contínuo do chatbot Grok criar materiais de abuso sexual infantil (CSAM).

Isso ocorre após o aplicativo ser banido em dois países e investigações serem abertas no Reino Unido e na UE, mas tanto a Apple quanto o Google ignoraram até agora os pedidos para remover temporariamente Grok e X de suas respectivas lojas de aplicativos…

O problema do Grok CSAM

A maioria dos chatbots de IA hoje em dia são capazes de gerar imagens a partir de prompts de texto, e o Grok da xAI não é exceção. Isso pode ser feito diretamente no aplicativo, na web ou por meio do X.

O que é excepcional, entretanto, são as grades de proteção extremamente frouxas de Grok. Isso fez com que ele fosse usado para gerar imagens não consensuais de nudez efetiva de indivíduos reais, incluindo crianças. Uma estimativa dizia que foram geradas cerca de 23.000 imagens CSAM em um período de apenas 11 dias.

Dois países bloquearam o aplicativo, com investigações em andamento no Reino Unido e na UE.

37 estados dos EUA respondem

A Wired relata que pelo menos 37 estados e territórios dos EUA estão agora pedindo à empresa que resolva o problema após uma carta aberta assinada pela maioria deles.

Pelo menos 37 procuradores-gerais dos estados e territórios dos EUA estão tomando medidas contra a xAI depois que pessoas usaram seu chatbot, Grok, para gerar uma enxurrada de imagens sexualizadas no início deste ano (…) Além de (os 35) que assinaram a carta, os procuradores-gerais da Califórnia e da Flórida disseram à WIRED que também tomaram medidas.

A carta pede que o xAI execute seis etapas:

  • tomar todas as medidas necessárias para garantir que Grok não seja mais capaz de produzir imagens íntimas não consensuais (incluindo imagens não consensuais que não representem nudez completa ou conduta sexual explícita, mas que retratam pessoas de biquínis, roupas íntimas, roupas reveladoras ou poses sugestivas) e material de abuso sexual infantil;
  • eliminar conteúdos já produzidos;
  • suspender usuários que criaram esses materiais;
  • quando aplicável, denunciar esses criadores e utilizadores às autoridades competentes;
  • conceder aos usuários X controle sobre se seu conteúdo pode ser editado pelo Grok, incluindo, no mínimo, a capacidade de proibir facilmente a conta @Grok de responder às suas postagens ou editar suas imagens quando solicitado por outro usuário; e
  • garanta que as salvaguardas que você anunciou recentemente não apenas coloquem a criação de NCII atrás de um acesso pago, mas na verdade mitiguem sua produção em todo o X e na plataforma Grok.

Apple e Google precisam agir

No início deste mês, três senadores dos EUA pediram ao CEO da Apple, Tim Cook, que removesse temporariamente X e Grok da App Store devido à “geração de conteúdo repugnante”. A empresa ainda não o fez.

Agora está bastante claro que o xAI não tomará nenhuma ação significativa até que sua mão seja forçada. De longe, a maneira mais eficaz de pressionar é a Apple e o Google removerem temporariamente os aplicativos Grok e X de suas respectivas lojas de aplicativos.

Adicione 9to5Mac como fonte preferencial no Google
Adicione 9to5Mac como fonte preferencial no Google

FTC: Usamos links de afiliados automotivos para geração de renda. Mais.



Fuente