Início Tecnologia ‘Falha irresponsável’: Google, Meta, Snap e Microsoft criticam a UE pela caducidade...

‘Falha irresponsável’: Google, Meta, Snap e Microsoft criticam a UE pela caducidade da lei sobre abuso sexual infantil

20
0
‘Falha irresponsável’: Google, Meta, Snap e Microsoft criticam a UE pela caducidade da lei sobre abuso sexual infantil

O Parlamento Europeu bloqueou a extensão de uma lei que permite às grandes empresas tecnológicas verificar a exploração sexual infantil nas suas plataformas, criando uma lacuna jurídica que, segundo os especialistas em segurança infantil, levará a que os crimes não sejam detetados.

A lei, que foi uma exclusão da Lei de Privacidade da UE, foi implementada em 2021 como uma medida temporária que permite às empresas utilizar tecnologias de detecção automatizada para verificar mensagens em busca de danos, incluindo material de abuso sexual infantil (CSAM), aliciamento e sextorção. No entanto, expirou em 3 de abril e o parlamento da UE decidiu não votar para prorrogá-lo, em meio a preocupações de alguns legisladores com a privacidade.

A lacuna regulamentar criou incerteza para as grandes empresas tecnológicas, porque embora a verificação de danos nas suas plataformas seja agora ilegal, ainda continuam a ser responsáveis ​​pela remoção de qualquer conteúdo ilegal alojado nas suas plataformas ao abrigo de uma lei diferente, a Lei dos Serviços Digitais. Google, Meta, Snap e Microsoft disseram que continuariam a escanear voluntariamente suas plataformas em busca de CSAM, em uma declaração conjunta publicada em um blog do Google.

“Estamos desapontados com este fracasso irresponsável em chegar a um acordo para manter os esforços estabelecidos para proteger as crianças online”, afirmou o comunicado.

O Parlamento Europeu afirmou num comunicado que estava a dar prioridade ao seu trabalho em matéria de legislação para prevenir e combater o abuso sexual de crianças online e que as negociações sobre um quadro jurídico permanente estavam em curso, embora o órgão não tivesse oferecido nenhum prazo para acordos ou implementação.

Os defensores da protecção das crianças alertaram que permitir a caducidade da legislação provocaria provavelmente uma queda acentuada nos relatos de abuso sexual de crianças. Apontam para uma lacuna jurídica semelhante que ocorreu em 2021, quando os relatórios desse tipo de material proveniente de contas baseadas na UE ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) caíram 58% num período de 18 semanas.

“Quando as ferramentas de detecção são interrompidas, perdemos visibilidade, o que afecta directamente a nossa capacidade de encontrar e proteger vítimas de abuso sexual infantil”, disse John Shehan, vice-presidente da NCMEC, uma organização sediada nos EUA que actua como centro de compensação para denúncias de abuso infantil, que encaminha para as agências de aplicação da lei relevantes em todo o mundo. “Quando a detecção desaparece, o abuso não para.”

Em 2025, o NCMEC recebeu 21,3 milhões de relatórios que incluíam mais de 61,8 milhões de imagens, vídeos e outros ficheiros suspeitos de estarem relacionados com abuso infantil, de todo o mundo. Cerca de 90% destes relatórios estão relacionados com países fora dos EUA.

Um porta-voz do parlamento da UE recusou-se a comentar se o órgão legislativo realizou quaisquer avaliações para determinar as consequências da caducidade da lei.

A decisão da UE de proibir a digitalização terá efeitos em cascata noutras regiões do mundo, afirmam especialistas em segurança infantil. Muitos crimes na Internet são transfronteiriços, com crimes que enviam imagens ilegais a pessoas ou têm como alvo crianças noutros países. Os “sextorcionistas”, que se apresentam como interesses românticos para induzir as pessoas a enviar fotografias íntimas antes de fazerem tentativas de chantagem, também podem capitalizar a mudança na lei, disse Shehan.

“O perpetrador pode estar em qualquer parte do mundo, mas poderia ter acesso irrestrito a menores na Europa, agora que existe incerteza jurídica em torno dessas salvaguardas e proteções para identificar quando uma criança está a ser preparada”, disse Shehan.

Anos de negociações tensas levam à caducidade da vital lei de exclusão

Nos últimos quatro anos, a proposta de regulamentação do abuso sexual infantil tem estado em negociação, surgindo controvérsia porque obrigaria as empresas a tomar medidas para minimizar os riscos nas suas plataformas, disse Hannah Swirsky, chefe de políticas e assuntos públicos da Internet Watch Foundation, uma organização sem fins lucrativos de segurança infantil sediada no Reino Unido.

Os defensores da privacidade argumentam que a digitalização de mensagens de abuso infantil pelas grandes tecnologias ameaça os direitos fundamentais de privacidade e a segurança dos dados dos cidadãos da UE, equiparando estas medidas ao “controlo de chat” que pode levar à vigilância em massa e a falsos positivos.

“Há alegações de vigilância ou violação de privacidade”, disse Swirsky. “Bloquear material de abuso sexual infantil não é uma evasão de privacidade. A liberdade de expressão não inclui o abuso sexual de crianças.”

A tecnologia de digitalização utiliza aprendizagem automática que realiza a detecção de padrões para identificar imagens ou vídeos conhecidos de abuso, bem como linguagem associada à exploração infantil, e não armazena quaisquer dados, disse Emily Slifer, diretora de políticas da Thorn, uma organização sem fins lucrativos que desenvolve tecnologia para detectar abuso infantil online, que é comumente usada por empresas e autoridades policiais.

O sistema funciona com analistas treinados que analisam material de abuso sexual infantil conhecido obtido de fontes externas, como relatórios da polícia, do público ou investigações em sites conhecidos por hospedar material de abuso infantil. Quando os analistas confirmam que o conteúdo é abuso sexual ilegal de crianças, geram uma impressão digital única – conhecida como valor hash – que identifica a imagem exata. Listas de valores hash são então compartilhadas com plataformas, que usam sistemas automatizados para verificar uploads e bloquear conteúdo correspondente instantaneamente, sem a necessidade de um ser humano visualizá-lo.

“A tecnologia não encontra bebês em banheiras e coisas assim. Se você apenas pensar em como seria uma imagem de abuso versus como seria um conteúdo consensual: esses são dois materiais muito diferentes, e a tecnologia pode determinar esses padrões entre eles”, disse Slifer.

Embora a UE tenha bloqueado a verificação de abuso infantil, permitiu que as empresas de tecnologia digitalizassem voluntariamente mensagens para a detecção de conteúdo terrorista ao abrigo da legislação adoptada em 2021, disse ela.

“A UE está efetivamente a arriscar portas abertas aos predadores”, disse Swirsky. “Se a UE leva a sério a protecção das crianças online, então precisa de chegar a acordo sobre um quadro legislativo permanente para proteger as crianças e permitir a detecção.”

Fuente