Início Tecnologia Apple processada pela Virgínia Ocidental por suposta falha na prevenção de CSAM

Apple processada pela Virgínia Ocidental por suposta falha na prevenção de CSAM

22
0
Logotipo da Apple

A Apple foi processada pelo estado da Virgínia Ocidental pelo que afirma ser uma falha na prevenção de materiais de abuso sexual infantil (CSAM) em serviços iCloud, como iMessage e Photos. Aqui estão os detalhes.

Processo afirma que outras empresas de tecnologia fazem um trabalho melhor no combate ao CSAM

Lora Kolodny escreve na CNBC:

O procurador-geral da Virgínia Ocidental entrou com uma ação de proteção ao consumidor contra a Apple, alegando que ela não conseguiu impedir que materiais de abuso sexual infantil fossem armazenados e compartilhados por meio de dispositivos iOS e serviços iCloud.

John “JB” McCuskey, um republicano, acusou a Apple de priorizar a marca de privacidade e seus próprios interesses comerciais em detrimento da segurança infantil, enquanto outras grandes empresas de tecnologia, incluindo Google, Microsoft e Dropbox, têm sido mais proativas, usando sistemas como o PhotoDNA para combater esse tipo de material.

Em 2021, a Apple anunciou um conjunto de novos esforços para impedir a disseminação de CSAM em seus dispositivos. No entanto, um desses anúncios nunca se concretizou.

A Apple planejou introduzir um sistema de detecção de CSAM no aplicativo Fotos que, após preocupações significativas expressas por pesquisadores de privacidade, foi posteriormente abandonado.

O receio era que a criação deste novo sistema abrisse a possibilidade de os governos exigirem acesso aos dados privados dos utilizadores.

A Apple lançou outros recursos relacionados à segurança infantil com o objetivo de impedir a disseminação de CSAM, inclusive com o iOS 26. No entanto, West Virginia acredita claramente que a empresa não fez o suficiente.

A Apple compartilhou o seguinte com a CNBC:

Em comunicado enviado por e-mail, um porta-voz da Apple disse à CNBC que “proteger a segurança e a privacidade de nossos usuários, especialmente as crianças, é fundamental para o que fazemos”.

A empresa apontou controles parentais e recursos como Segurança de Comunicação, que “intervém automaticamente nos dispositivos das crianças quando a nudez é detectada em mensagens, fotos compartilhadas, AirDrop e até mesmo em chamadas FaceTime ao vivo”, como uma indicação de seu compromisso em fornecer “segurança, proteção e privacidade” aos usuários.

“Estamos inovando todos os dias para combater as ameaças em constante evolução e manter a plataforma mais segura e confiável para as crianças”, acrescentou o porta-voz.

Manteremos você informado sobre quaisquer atualizações significativas no caso.

Melhores acessórios para iPhone

Adicione 9to5Mac como fonte preferencial no Google
Adicione 9to5Mac como fonte preferencial no Google

FTC: Usamos links de afiliados automotivos para geração de renda. Mais.



Fuente