Em breve, um sistema orientado a IA pode assumir a responsabilidade de avaliar os possíveis danos e riscos de privacidade de até 90% das atualizações feitas para meta-aplicativos como Instagram e WhatsApp, de acordo com documentos internos que são vistos pela NPR.
A NPR diz que um acordo de 2012 entre o Facebook (agora meta) e a Federal Trade Commission exige que a empresa realize análises de privacidade de seus produtos e avalie os riscos de possíveis atualizações. Até agora, essas revisões foram amplamente realizadas por avaliadores humanos.
De acordo com o novo sistema, a Meta disse que as equipes de produtos serão solicitadas a concluir um questionário sobre seu trabalho e, em seguida, geralmente recebe uma “decisão imediata” com riscos AI-Geidificados, juntamente com os requisitos que uma atualização ou função deve atender antes de ser lançada.
Essa abordagem centrada na IA permitiria que a Meta atualizasse seus produtos mais rapidamente, mas um ex-diretor disse à NPR que também cria ‘riscos mais altos’, porque ‘efeitos externos negativos das mudanças de produto são menos prováveis antes de começarem a causar problemas no mundo’.
Em um comunicado, a Meta parecia confirmar que mudou seu sistema de avaliação, mas insistiu que apenas “decisões com baixo risco” serão automatizadas, enquanto a “experiência humana” ainda será usada para investigar “questões novas e complexas”.