O Tech Transparency Project (TTP) deu continuidade ao seu relatório de janeiro que revelou dezenas de aplicativos “nudificados” na App Store com uma nova investigação focada em como os próprios sistemas de busca e anúncios da Apple podem estar ajudando os usuários a encontrá-los. Aqui estão os detalhes.
Aplicativos Nudify continuam sendo um problema nas lojas de aplicativos
De acordo com o novo relatório, tanto a App Store quanto a Google Play Store “estão ajudando os usuários a encontrar aplicativos que criam imagens falsas de mulheres nuas”, às vezes por meio de resultados de pesquisa promovidos e sugestões de pesquisa de preenchimento automático.
No relatório, a TTP afirma que a Apple e o Google ainda não estão conseguindo impedir que aplicativos de nudificação apareçam em suas lojas de aplicativos, alguns dos quais parecem adequados para menores. O grupo descobriu que quase 40% dos 10 principais aplicativos retornados para pesquisas como “nudificar”, “despir-se” e “nude profundo” poderiam “renderizar mulheres nuas ou com pouca roupa”.
Além disso, algumas pesquisas apresentaram resultados patrocinados para esses aplicativos. Do relatório:
“(…) o primeiro resultado de uma pesquisa na App Store por “deepfake” foi um anúncio do FaceSwap Video da DuoFace. O aplicativo permite que os usuários troquem o rosto de qualquer pessoa de uma imagem estática para um vídeo. Para testar o aplicativo, a TTP carregou uma imagem de uma mulher com um suéter branco parada na calçada e um vídeo de uma mulher de topless. Depois de exibir primeiro um pequeno anúncio, o aplicativo gerou um vídeo mostrando o rosto da mulher vestida no corpo da mulher nua.
E
“Outra pesquisa na App Store pelo termo “troca de rosto” resultou em um anúncio de um aplicativo chamado AI Face Swap. O aplicativo oferece modelos predefinidos de troca de rosto e permite que os usuários troquem rostos em imagens que eles próprios carregam. A TTP carregou uma foto de uma mulher com um suéter azul em pé em uma sala de estar e uma imagem de uma mulher de topless, e o aplicativo trocou seus rostos sem restrições.”
Vantajosamente, além de contatar a Apple e o Google sobre essas descobertas, a TPP também contatou os desenvolvedores de vários desses aplicativos. Em pelo menos um caso, o desenvolvedor do aplicativo confirmou que estava usando o Grok para geração de imagens, mas afirmou que “não tinha ideia de que ele era capaz de produzir conteúdo tão extremo”. O desenvolvedor se comprometeu a restringir as configurações de moderação para geração de imagens.
Voltando ao relatório, a TTP observou que digitar “AI NS” como parte de uma pesquisa que poderia levar a “AI NSFW” levou a App Store a sugerir “imagem para vídeo ai nsfw”. Essa pesquisa, por sua vez, retornou vários aplicativos de nudificação entre os dez primeiros resultados.
Apesar de se recusar a comentar o pedido do TTP, a Apple respondeu ao relatório removendo a maioria dos aplicativos identificados pelo TTP.
Para ler o relatório completo do TTP, siga este link.
Vale a pena conferir na Amazon


FTC: Usamos links de afiliados automotivos para geração de renda. Mais.




