Início Tecnologia Relatório afirma que a App Store hospeda aplicativos generalizados de despir IA...

Relatório afirma que a App Store hospeda aplicativos generalizados de despir IA não consensuais

13
0
loja de aplicativos

Hoje, o Tech Transparency Project divulgou um relatório concluindo que os aplicativos “nudificar” estão amplamente disponíveis e são facilmente encontrados na App Store e na Play Store do Google. Aqui estão os detalhes.

Alguns aplicativos nudificantes até anunciam na App Store

Embora Grok tenha recentemente chamado a atenção para imagens sexualizadas não consensuais geradas por IA, incluindo casos envolvendo menores, o problema em si não é novo.

Na verdade, o problema é obviamente anterior à IA generativa, uma vez que as ferramentas tradicionais de edição de imagens já permitem há muito tempo a criação deste tipo de conteúdo abusivo. O que mudou nos últimos anos foi a escala e o facto de a barreira para gerar tais imagens em segundos ser agora quase inexistente.

Não é novidade que muitos aplicativos passaram os últimos anos tentando capitalizar esse novo recurso, com alguns anunciando-o abertamente.

Tudo isso aconteceu enquanto a Apple lutava contra a Epic Games e outros desenvolvedores de aplicativos em ações antitruste, onde a Apple insistia que parte do motivo pelo qual cobra até 30% em comissões é para tornar a App Store mais segura por meio de sistemas automatizados e manuais de revisão de aplicativos.

E embora a Apple trabalhe para evitar fraudes, abusos e outras violações das diretrizes da App Store, às vezes aplicativos e categorias inteiras de aplicativos podem falhar. No ano passado, 9to5Mac destacou um grande número de aplicativos que pretendem (ou sugerem fortemente) ser o aplicativo Sora 2 da OpenAI, alguns dos quais cobram taxas de assinatura semanais exorbitantes.

Agora, dada a atenção renovada que Grok trouxe às ferramentas de nudificação alimentadas por IA, o Tech Transparency Project (TTP) publicou um relatório detalhando como eles encontraram facilmente aplicativos de despir na App Store e no Google Play.

Do relatório:

Os aplicativos identificados pela TTP foram baixados coletivamente mais de 705 milhões de vezes em todo o mundo e geraram US$ 117 milhões em receitas, de acordo com a AppMagic, uma empresa de análise de aplicativos. Como o Google e a Apple ficam com uma parte dessa receita, eles estão lucrando diretamente com a atividade desses aplicativos.

O Google e a Apple estão oferecendo esses aplicativos, apesar de sua aparente violação das políticas da loja de aplicativos. A Google Play Store proíbe “representações de nudez sexual ou poses sexualmente sugestivas em que o sujeito esteja nu” ou “minimamente vestido”. Também proíbe aplicativos que “degradam ou objetificam as pessoas, como aplicativos que afirmam despir as pessoas ou ver através das roupas, mesmo que sejam rotulados como aplicativos de pegadinhas ou de entretenimento”.

O relatório também observa que pesquisas simples por termos como “nudificar” ou “despir-se” são suficientes para trazer à tona aplicativos de despir, alguns dos quais anunciam explicitamente em torno dessas palavras-chave.

Imagens: Projeto de Transparência Tecnológica

O TTP afirma que os aplicativos incluídos neste relatório “se enquadram em duas categorias gerais: aplicativos que usam IA para gerar vídeos ou imagens com base em um prompt do usuário e aplicativos de ‘troca de rosto’ que usam IA para sobrepor o rosto de uma pessoa ao corpo de outra”.

Para testar esses aplicativos, o TTP usou imagens de mulheres falsas geradas por IA e limitou seus testes aos recursos gratuitos de cada aplicativo. Como resultado, 55 aplicativos Android e 47 aplicativos iOS atenderam às solicitações. Pelo menos um desses aplicativos foi classificado para maiores de 9 anos na App Store.

O relatório do TTP explica em detalhes a facilidade com que criaram essas imagens e mostra uma ampla variedade de resultados censurados para defender seu caso.

Aqui está um relato de seus testes em um dos aplicativos:

“Com a versão iOS, o aplicativo, quando recebeu a mesma solicitação de texto para remover a blusa da mulher, não conseguiu gerar uma imagem e emitiu um aviso de conteúdo confidencial. Mas uma segunda solicitação para mostrar a mulher dançando de biquíni foi bem-sucedida. A tela inicial das versões iOS e Google Play do aplicativo oferece vários modelos de vídeo de IA, incluindo “rasgar roupas”, “dança de sacudir o peito” e “curvar-se”.

O relatório conclui que, embora as aplicações citadas no relatório possam representar “apenas uma fração” do que está disponível, “sugerem que as empresas não estão a policiar eficazmente as suas plataformas ou a aplicar as suas próprias políticas quando se trata deste tipo de aplicações”.

Para ler o relatório completo, acesse este link.

Ofertas de acessórios na Amazon

Adicione 9to5Mac como fonte preferencial no Google
Adicione 9to5Mac como fonte preferencial no Google

FTC: Usamos links de afiliados automotivos para geração de renda. Mais.



Fuente