Uma nova investigação afirma que as lojas de aplicativos da Apple e do Google hospedavam dezenas dos chamados aplicativos de IA “nudificados”, apesar de tais aplicativos violarem as regras das empresas.
O Transparency Project (TTP), um grupo afiliado à Kennedy School of Government da Universidade de Harvard, encontrou dezenas de aplicativos em ambas as lojas que removem roupas digitalmente, deixando os sujeitos nus ou quase nus. Foram encontrados 55 desses aplicativos na Google Play Store e 47 na Apple App Store.
Escreveu TTP:
“Os aplicativos identificados pela TTP foram baixados coletivamente mais de 705 milhões de vezes em todo o mundo e geraram US$ 117 milhões em receitas, de acordo com a AppMagic, uma empresa de análise de aplicativos. Como o Google e a Apple ficam com uma parte dessa receita, eles estão lucrando diretamente com a atividade desses aplicativos.”
Ambos os gigantes da tecnologia responderam ao relatório TTP. A Apple disse à CNBC que removeu 28 aplicativos identificados no relatório TTP, enquanto o Google disse ao meio de comunicação que havia “suspendido vários aplicativos”, embora observasse que sua investigação estava em andamento.
Velocidade da luz mashável
No entanto, o TTP conclui que ambas as App Stores precisam fazer mais para impedir deepfakes não consensuais.
VEJA TAMBÉM:
Deepfakes explícitos são traumáticos. Como lidar com a dor.
“As descobertas da TTP mostram que o Google e a Apple não conseguiram acompanhar a disseminação de aplicativos deepfake de IA que podem ‘nudificar’ as pessoas sem sua permissão”, afirma o relatório. “Ambas as empresas dizem que se dedicam à segurança dos usuários, mas hospedam uma coleção de aplicativos que podem transformar uma foto inócua de uma mulher em uma imagem abusiva e sexualizada”.
O relatório da TTP surge na sequência da controvérsia em torno de Elon Musk e Grok da xAI, que está sob investigação em vários países por criar imagens sexualizadas e não consensuais. Uma investigação do Mashable descobriu que Grok carece de proteções básicas de segurança para evitar deepfakes. Além disso, os pesquisadores dizem que Grok criou mais de 3 milhões de imagens sexualizadas – incluindo mais de 20 mil que pareciam retratar crianças – durante um período de 11 dias entre 29 de dezembro e 8 de janeiro.
Com o surgimento da era da IA, os deepfakes sexuais continuarão a ser um grande problema para o avanço das empresas de tecnologia.


