Início Tecnologia Os ativistas britânicos acionam o alarme sobre o relatório Metablan para usar...

Os ativistas britânicos acionam o alarme sobre o relatório Metablan para usar a automação para doações de risco

21
0
Os ativistas britânicos acionam o alarme sobre o relatório Metablan para usar a automação para doações de risco

Os ativistas de segurança da Internet instaram o cão de vigilância da Comunicação Britânica a limitar o uso da inteligência artificial em avaliações cruciais de risco após um relatório de que a meta de Mark Zuckerberg estava planejando automatizar os cheques.

Ofcom disse que “considerou as preocupações” no feitiço da carta dos alimentadores da campanha, após um relatório no mês passado que até 90% de todas as análises de risco no proprietário do Facebook, Instagram e WhatsApp em breve serão realizadas pela IA.

As plataformas de mídia social são exigidas sob a lei de segurança on -line do Reino Unido para avaliar como os danos podem ocorrer em seus serviços e como eles pretendem reduzir esse possível dano – com um certo foco na proteção dos usuários das crianças e na prevenção de conteúdo ilegal que aparece. O processo de avaliação de risco é visto como um aspecto importante da lei.

Em uma carta ao executivo-chefe da Ofcom, Melanie Dawes, as organizações descreveram, incluindo a Molly Rose Foundation, o NSPCC e a Internet Watch Foundation, a perspectiva de avaliações de risco orientadas por IA, como um “passo retrógrado e muito alarmante”.

Eles disseram: “Recomendamos que você afirme publicamente que as avaliações de risco não são normalmente consideradas ‘adequadas e suficientes’, o padrão exigido pela … a lei, onde são produzidas total ou principalmente pela automação”.

A carta também insistiu no cão de guarda para “desafiar qualquer suposição de que as plataformas possam optar por enfraquecer seus processos de avaliação de risco”.

Um porta -voz da Ofcom disse: “Ficamos claros que os serviços devem nos dizer quem concluiu, revisou e aprovou sua avaliação de risco. Consideramos as preocupações nesta carta e responderemos no devido tempo”.

Passe a promoção do boletim informativo

Um mergulho semanal em como a tecnologia projeta nossas vidas

Notificação de privacidade: Os boletins podem conter informações sobre instituições de caridade, anúncios on -line e conteúdo financiados por partes externas. Consulte nossa Política de Privacidade para obter mais informações. Usamos o Google Recaptcha para proteger nosso site e a Política de Privacidade do Google e as condições de serviço se aplicam.

Meta disse que a carta declarou intencionalmente a abordagem da empresa à segurança incorretamente e que está comprometida com altos padrões e atende aos regulamentos.

“Não usamos a IA para tomar decisões sobre riscos”, disse um meta porta -voz. “Pelo contrário, nossos especialistas construíram uma ferramenta que ajuda a identificar as equipes quando os requisitos legais e políticos se aplicam a produtos específicos. Usamos a tecnologia, sob a supervisão das pessoas, para gerenciar nossa capacidade de gerenciar conteúdo prejudicial e melhorar nosso progresso tecnológico, melhorou consideravelmente os resultados de segurança”.

A Molly Rose Foundation organizou a carta depois que a emissora americana NPR informou no mês passado que as atualizações dos meta -algoritmos e novos recursos de segurança geralmente seriam aprovados por um sistema de IA e não mais examinados pela equipe.

De acordo com um ex -meta -diretor que falou anonimamente com a NPR, a mudança permite que a empresa inicie o aplicativo -updates e funções no Facebook, Instagram e Whatsapp mais rápido, mas criará “riscos mais altos” para os usuários, porque problemas em potencial são menos prováveis ​​antes que um novo produto seja lançado para o público.

A NPR também relatou que a Meta considerou automatizar avaliações para áreas sensíveis, incluindo o risco de jovens e o monitoramento da disseminação de mentiras.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here