Os pais preocupados com o que seus filhos adolescentes estão discutindo com o AI Assistant da Meta agora poderão visualizar tópicos de conversa por meio de uma ferramenta de supervisão parental da Teen Account. Meta anunciou o recurso na quinta-feira em uma postagem no blog.
As informações estarão disponíveis na aba Insights da ferramenta de supervisão das plataformas Instagram, Facebook e Messenger, todas de propriedade da Meta.
O recurso lista tópicos mais amplos, como escola, entretenimento, redação, saúde e bem-estar. Os pais podem clicar no tópico para obter detalhes adicionais, mas limitados.
As categorias de saúde e bem-estar, por exemplo, podem incluir preparo físico, saúde física e saúde mental. As informações cobrem apenas os últimos sete dias de trocas.
VEJA TAMBÉM:
Ex-funcionário da Meta acusado de baixar 30.000 imagens privadas de usuários
O recurso é a mais recente medida de segurança que a Meta implementou sob intenso escrutínio jurídico e da mídia.
A Meta perdeu recentemente dois testes históricos separados relacionados às proteções de segurança infantil e ao design supostamente viciante de seus produtos. A empresa disse que apelará de ambos os veredictos.
O processo de segurança infantil, que teve lugar este ano no Novo México, rendeu documentos internos da Meta que demonstram que a liderança da empresa sabia que os seus companheiros de IA orientados para a personalidade, ou “personagens”, poderiam envolver-se em interacções sexuais e inapropriadas e ainda assim lançá-los sem controlos mais fortes.
Velocidade da luz mashável
Em agosto passado, a Meta bloqueou seus personagens de IA para usuários adolescentes em meio a relatos de que eles estavam se envolvendo de forma inadequada com menores, inclusive em discussões sobre automutilação, suicídio e interações românticas. Em outubro, a empresa ofereceu aos pais a capacidade de desligar conversas individuais com personagens de IA e bloquear personagens específicos. Em janeiro, porém, Meta restringiu novamente o acesso dos adolescentes aos personagens, pois seu assistente de IA permaneceu disponível.
Um porta-voz da Meta confirmou ao Mashable que os personagens de IA estão pausados para adolescentes em todo o mundo enquanto a empresa continua a desenvolver controles parentais.
Além do mais recente recurso de supervisão parental, a Meta fez parceria com o Cyberbullying Research Center para criar uma lista de “iniciadores de conversa” sobre o uso do chatbot de IA.
A empresa também anunciou a formação de um novo Conselho de Especialistas em Bem-estar em IA, reunido para fornecer “contribuições contínuas” sobre experiências de IA para adolescentes. Meta disse que os especialistas são afiliados ao Conselho Nacional para Prevenção do Suicídio, à Universidade de Michigan e à Universidade Northeastern, entre outras instituições.
Josh Golin, diretor executivo da organização sem fins lucrativos de defesa das crianças Fairplay, disse em um comunicado que o mais novo recurso de supervisão do Meta “mais uma vez” sobrecarrega os pais com o monitoramento da atividade online de seus filhos em vez de “construir um produto seguro para começar”.
No outono passado, a Fairplay publicou um relatório sobre testes de segurança independentes das contas adolescentes da Meta. Fairplay disse que as descobertas indicam que as medidas de segurança da Meta não funcionam como anunciado.
O recurso mais recente, disse Golin, “não aborda o problema fundamental: a principal função dos chatbots do Meta é manipular os jovens para que passem mais tempo na plataforma, incentivando os adolescentes a formar conexões emocionais prejudiciais com os bots”.
Reportagem adicional de Chase DiBenedetto.
ATUALIZAÇÃO: 23 de abril de 2026, 9h24 PDT Esta história foi atualizada com uma declaração da Fairplay.



