Na verdade, a União Europeia descobriu que tanto o Meta quanto o TikTok falharam em proteger crianças de maneira eficaz, dificultando a denúncia da existência de produtos de agressão sexual infantil (CSAM) em seus aplicativos.
Separadamente, a Meta encontrou um obstáculo na proteção de processos apresentados por vários estados dos EUA, implicando a empresa de tornar propositalmente seus aplicativos viciantes, independentemente de saber que eram perigosos para jovens adultos…
Tanto Meta quanto TikTok são culpados de violar as diretrizes de segurança infantil descobertas na Lei de Soluções Digitais (DSA), de acordo com o que a UE chamou de pesquisas iniciais.
Especificamente, descobriu-se que ambas as empresas colocaram obstáculos injustificadamente no caminho dos cientistas que buscam informações sobre se as crianças estão sujeitas a conteúdo ilegal ou perigoso da Internet.
Hoje, a Compensação Europeia descobriu preliminarmente que tanto o TikTok como o Meta violavam o seu compromisso de dar aos cientistas acessibilidade adequada à informação pública ao abrigo da Lei de Soluções Digitais (DSA) (…)
As pesquisas iniciais da Comissão revelam que Facebook, Instagram e TikTok podem ter implementado tratamentos e dispositivos desafiadores para os cientistas exigirem acesso à informação pública. Isto normalmente deixa-os com informações parciais ou instáveis, afetando a sua capacidade de realizar estudos, como por exemplo se os clientes, constituídos por menores, estão sujeitos a conteúdos web ilegais ou perigosos.
Além disso, descobriu-se que o Meta tornava difícil para os clientes denunciar conteúdo ilegal da web, como CSAM.
Nem o Facebook nem o Instagram aparecem para fornecer um sistema de “Notificação e Atividade” simples e convenientemente disponível para os clientes sinalizarem conteúdo ilegal da web, como produtos de agressão sexual infantil e conteúdo terrorista da web.
Pior ainda, Meta foi acusado de fazer uso de supostos padrões obscuros para tornar propositalmente o envio de tais registros complicado e complexo.
O Facebook e o Instagram parecem fazer uso de supostos ‘padrões obscuros’, ou estilos de interface de usuário enganosos, quando se trata de sistemas de ‘Notificação e Atividade’.
Ambas as empresas certamente terão atualmente a oportunidade de verificar os registros e submeter ações. Caso as ações sejam consideradas indesejáveis, as empresas podem ser multadas em até 6% do seu faturamento anual global.
Em 2021, Meta foi acusado de reprimir um estudo interno que revelava que o Instagram era venenoso para mulheres adolescentes. Quando os registros foram revelados após uma análise do Wall Street Road Journal, a empresa declarou que as pesquisas estavam protegidas do contexto.
Vários estados dos EUA entraram com ações contra a empresa, implicando-a de tentar propositalmente tornar seus aplicativos viciantes, apesar de saber que eram perigosos para os jovens adultos.
Afirmou-se que os representantes legais do escritório recomendaram à Meta que mantivesse as buscas pacíficas, e as redes sociais tentaram afirmar que essas sugestões poderiam não ser ouvidas em juízo por ter vantagem advogado-cliente.
A Legislação Bloomberg (através do Engadget) registra que o tribunal rejeitou este debate.
A corte Yvonne Williams decidiu que a Meta não pode usar a vantagem do advogado-cliente para impedir o procurador-geral de DC dos Estados Unidos de usar os registros internos da Meta no caso da Área sobre danos à saúde e ao bem-estar psicológico de adolescentes.
Williams, decidindo para o Tribunal Superior da Área de Columbia, descobriu que a interação nos registros cai sob a isenção de fraude criminal para vantagem do cliente advogado, uma vez que Meta procurou sugestões legais para ofuscar possíveis responsabilidades ou participar de fraudes.
“O Tribunal mantém em mente que a orientação da Meta recomendava claramente que os metacientistas ‘se livrassem’, ‘bloqueassem,’ mudassem’, ‘restringissem’ e ‘atualizassem’ seu estudo”, afirmou Williams. “A orientação da Meta forneceu sugestões legais para restringir especialmente a possível responsabilidade da Meta.”
O primeiro dos processos está pronto para ser ouvido no ano seguinte.
Acessórios em destaque
Foto de Christopher Ryan no Unsplash
FTC: Usamos ganhos gerando links de associados de veículos. Muito mais.
.
Fuente



