Um novo relatório diz que o governo britânico pedirá à Apple e ao Google que bloqueiem a captura e o compartilhamento de fotos nuas, a menos que seja verificado que o usuário é adulto.
Além disso, o relatório diz que o governo quer que o iOS e o Android evitem até mesmo que imagens de nudez sejam exibidas no dispositivo, a menos que o usuário tenha sido verificado como adulto…
Propostas de verificação de idade
Temos relatado um apoio crescente à ideia de que as lojas de aplicativos, e não os desenvolvedores individuais, deveriam ser responsabilizadas legalmente pela verificação da idade dos usuários. Nos EUA, isso levou a uma nova proposta de lei, a App Store Accountability Act.
Em vez de os usuários terem que provar sua idade para um monte de desenvolvedores individuais cada vez que baixam um aplicativo com um requisito de idade mínima, a ideia é que faríamos isso uma vez para a Apple ou para o Google, e a empresa então restringiria a idade dos aplicativos conforme apropriado.
A Apple tem feito lobby contra isso até agora, mas argumentamos na semana passada que esta seria realmente a melhor solução.
Apple e Google serão solicitados a bloquear fotos nuas
No mais recente desenvolvimento, o Financial Times informa que o governo britânico vai pedir à Apple e ao Google que protejam as crianças de tirar e ver fotos nuas.
Os ministros querem que empresas como a Apple e a Google incorporem algoritmos de deteção de nudez nos sistemas operativos dos seus dispositivos para impedir que os utilizadores tirem fotografias ou partilhem imagens de órgãos genitais, a menos que sejam verificados como adultos (…)
(Além disso,) o Ministério do Interior deseja ver sistemas operacionais que impeçam a exibição de qualquer nudez na tela, a menos que o usuário tenha verificado que é adulto por meio de métodos como verificações biométricas ou identidade oficial.
O relatório diz que um anúncio deve ser feito nos próximos dias. A redação sugere que se tratará de um pedido e não de uma exigência legal, pelo menos por enquanto.
Atualmente, a Apple oferece algumas proteções no aplicativo Mensagens. Se uma criança de um grupo familiar do iCloud receber uma imagem sexualmente explícita, ela inicialmente ficará desfocada e uma mensagem de aviso será exibida. Se a criança tocar no botão Ver foto, ela verá um pop-up informando por que a mensagem é considerada confidencial e pedindo que confirme se deseja visualizá-la. O pop-up também explica que o pai definido como administrador do grupo será notificado.
A opinião de 9to5Mac
Esta é a proposta de verificação de idade mais controversa que já vimos. A ideia de a Apple e o Google espionarem essencialmente as fotos e qualquer material visualizado em qualquer aplicativo parece totalmente inviável do ponto de vista da privacidade, mesmo que seja realizada no dispositivo.
Ao mesmo tempo, há um problema crescente com criminosos sexuais que preparam crianças para partilharem CSAM – em particular, fazendo-se passar por adolescentes para encorajar adolescentes genuínos a partilhar fotos e vídeos comprometedores. O padrão típico aqui é uma escalada em que as vítimas são chantageadas com imagens existentes para enviarem imagens cada vez mais explícitas. Vários suicídios de adolescentes têm sido associados a isso.
Parece útil que esta proposta pelo menos suscite a discussão do problema, a fim de explorar se podem ser encontradas soluções mais realistas e razoáveis.
Acessórios em destaque
Foto de Logan Voss no Unsplash
FTC: Usamos links de afiliados automotivos para geração de renda. Mais.




