De acordo com a nova revisão interna de documentos da NPR, a Meta planeja substituir os agentes de classificação de risco humano pela IA, porque a empresa está se aproximando da automação total.
Historicamente, a Meta está familiarizada com os analistas humanos para avaliar os danos potenciais que são colocados em suas plataformas por novas tecnologias, incluindo atualizações do algoritmo e recursos de segurança, parte de um processo conhecido como revisões de privacidade e integridade.
Mas em um futuro próximo, essas avaliações essenciais podem ser adquiridas por bots, porque a empresa deseja automatizar 90 % desse trabalho com a ajuda da inteligência artificial.
Veja também:
A atualização do Deepseek R1 prova que é uma ameaça ativa ao OpenAI e Google
Apesar do fato de a IA ser usada apenas para avaliar liberações de “baixo risco”, a Meta agora está lançando o uso da tecnologia em decisões sobre segurança da IA, risco e integridade da juventude, incluindo informações incorretas e conteúdo violento, informou a NPR. Sob o novo sistema, as equipes de produtos enviam questionários e recebem decisões e recomendações de risco imediatas, nas quais os engenheiros adotam maiores poderes de tomada de decisão.
Velocidade de luz mashable
Embora a automação possa acelerar as atualizações do aplicativo do aplicativo e lançar desenvolvedores de acordo com as metas de eficiência da Meta, os especialistas dizem que também pode representar um risco maior para bilhões de usuários, incluindo ameaças desnecessárias para a privacidade de dados.
Em abril, a supervisão da Meta publicou uma série de decisões que, ao mesmo tempo, validavam a posição da empresa sobre permitir o discurso “controverso” e punir a gigante da tecnologia pela política do conteúdo do conteúdo.
“Como essas mudanças estão sendo implementadas em todo o mundo, o sinal enfatiza que agora é essencial que a Meta identifique e aborda conseqüências adversas para os direitos humanos que podem resultar disso”, é a decisão. “Isso deve incluir a avaliação ou redução da dependência da detecção automatizada de violações de políticas em todo o mundo conseqüências desiguais, especialmente em países, com crises atuais ou recentes, como conflitos armados”.
No início daquele mês, Meta concluiu seu programa de controle de fatos humanos, substituiu-o por anotações da comunidade de origem da multidão e confiou em sua tecnologia de algoritmo moderno de conteúdo que é conhecida por reduzir a desinformação e lutou erroneamente e erroneamente as informações erradas da empresa que revisavam o conteúdo da empresa.
Subjugar
Meta de inteligência artificial