Por BÁRBARA ORTUTAYAssociated Press
O Instagram disse na quinta-feira que começará a alertar os pais se seus filhos pesquisarem repetidamente termos claramente associados a suicídio ou automutilação. Os alertas irão apenas para os pais inscritos no programa de supervisão parental do Instagram.
O Instagram afirma que já impede que esse tipo de conteúdo apareça nos resultados de pesquisa de contas de adolescentes e, em vez disso, direciona as pessoas para linhas de apoio.
O anúncio ocorre no momento em que a Meta, controladora do Instagram, está no meio de dois julgamentos sobre danos a crianças. Um julgamento em andamento em Los Angeles questiona se as plataformas da Meta viciam e prejudicam deliberadamente menores. Outro, no Novo México, procura determinar se a Meta falhou em proteger as crianças da exploração sexual nas suas plataformas. Milhares de famílias – juntamente com distritos escolares e entidades governamentais – processaram a Meta e outras empresas de redes sociais, alegando que concebem deliberadamente as suas plataformas para serem viciantes e não protegem as crianças de conteúdos que podem levar à depressão, distúrbios alimentares e suicídio.
Metaexecutivos, incluindo o CEO Mark Zuckerberg, contestaram que as plataformas causam dependência. Durante interrogatório feito pelo advogado do demandante, em Los Angeles, Zuckerberg disse que ainda concorda com uma declaração anterior que fez de que o conjunto de trabalhos científicos existentes não provou que as mídias sociais causam danos à saúde mental.
Os alertas serão enviados por e-mail, texto ou WhatsApp, dependendo dos dados de contato dos pais disponíveis, bem como notificação através da conta do Instagram dos pais.
“Nosso objetivo é capacitar os pais a intervir caso as pesquisas de seus filhos adolescentes sugiram que eles podem precisar de apoio. Também queremos evitar o envio desnecessário dessas notificações, o que, se feito em demasia, poderia tornar as notificações menos úteis em geral”, disse Meta em uma postagem no blog.
Josh Golin, diretor executivo da organização sem fins lucrativos Fairplay, estava cético em relação à nova ferramenta, dizendo que o Instagram “está claramente tomando essa medida agora porque a empresa está atualmente em julgamento em dois estados diferentes por viciar e prejudicar crianças”.
“Mais uma vez, a Meta está transferindo o fardo para os pais, em vez de corrigir as falhas perigosas na forma como projeta seus algoritmos e plataformas”, disse Golin. “E todas as crianças merecem ser protegidas, independentemente de os seus pais se terem inscrito e utilizarem as ferramentas de supervisão do Meta. Se um produto não for seguro para os adolescentes usarem sem a intervenção dos pais, não deveria ser comercializado para adolescentes.”
A Meta disse que também está trabalhando em notificações semelhantes aos pais sobre as interações de seus filhos com a inteligência artificial.
“Eles notificarão os pais se um adolescente tentar se envolver em certos tipos de conversas relacionadas ao suicídio ou automutilação com nossa IA”, disse Meta. “Este é um trabalho importante e teremos mais para compartilhar nos próximos meses.”
Se você ou alguém que você conhece está lutando contra sentimentos de depressão ou pensamentos suicidas, o 988 Suicide & Crisis Lifeline oferece suporte gratuito 24 horas por dia, informações e recursos para ajuda. Ligue ou envie uma mensagem de texto para 988, ou consulte o site 988lifeline.org, onde o bate-papo está disponível.



