O alerta ocorreu por volta das 19h.
Brittani Phillips verificou seu telefone. Um conselheiro do ensino médio no condado de Putnam, Flórida, Phillips recebe mensagens de uma plataforma de terapia habilitada para inteligência artificial que os alunos usam fora do horário escolar. Ele sinaliza quando um aluno pode estar em risco de prejudicar a si mesmo ou a outras pessoas com base no que o aluno digita no bate-papo.
Phillips percebeu que este era um alerta “severo” para um aluno da oitava série.
Então, Phillips passou a noite ao telefone com a mãe da aluna, sondando-a para descobrir o que estava acontecendo e quão vulnerável a aluna era. Phillips também chamou a polícia, diz ela, observando que diz aos alunos que as conversas são confidenciais até que não possam ser.
Isso foi no último ano letivo, na primavera.
“Ele está vivo e bem. Ele está na nona série este ano”, diz Phillips. Ela acredita que a interação construiu confiança entre ela e a família. Agora, quando o aluno passa por ela no corredor, ele faz questão de cumprimentá-la, acrescenta ela.
Enfrentando déficits orçamentários e equipe limitada de saúde mental, a escola secundária Interlachen Jr-Sr, onde Phillips trabalha, está usando uma plataforma de IA para avaliar as necessidades de saúde mental dos alunos.
O distrito de Phillips usa o Alongside, um sistema automatizado de monitoramento de alunos, há três anos. É um exemplo da crescente categoria de ferramentas comercializadas para escolas de ensino fundamental e médio para fins semelhantes, com pelo menos nove empresas obtendo acordos de financiamento desde 2022.
A Alongside afirma que a sua ferramenta é utilizada por mais de 200 escolas nos EUA e argumenta que a sua plataforma oferece melhores serviços do que as opções típicas de telessaúde porque tem uma ferramenta de chat para o desenvolvimento de competências sociais e emocionais – onde os alunos falam sobre os seus problemas de vida com uma lhama chamada Kiwi que tenta ensiná-los a desenvolver resiliência – e o seu conteúdo gerado por IA é monitorizado por médicos. O sistema oferece às escolas com recursos, especialmente nas zonas rurais, acesso a recursos críticos de saúde mental, dizem representantes da empresa.
A IA é um componente principal da agenda educacional nacional da administração Trump. No entanto, alguns pais, educadores e, cada vez mais, legisladores, estão receosos de aumentar o tempo dos adolescentes em frente aos ecrãs. Os estados também começaram a restringir o uso de IA na telessaúde.
Muitos especialistas e famílias também se preocupam com o facto de os estudantes se apegarem demasiado à IA. Embora uma pesquisa nacional recente tenha descoberto que 20% dos estudantes do ensino médio usaram a IA romanticamente ou conhecem alguém que o fez, há um interesse significativo em evitar que os alunos se conectem emocionalmente com os bots. Isso inclui até uma proposta de lei federal que forçaria as empresas de IA a lembrar aos alunos que os chatbots não são pessoas reais.
Ainda assim, em seu trabalho, Phillips diz que a ferramenta que sua escola usa é excepcional para apagar “pequenos incêndios”. Com cerca de 360 alunos do ensino médio para apoiar, ter essa ferramenta para apoiá-los durante os rompimentos e outros problemas rotineiros que enfrentam permite que ela concentre seu tempo nos alunos que se aproximam da crise. Além disso, os alunos às vezes acham mais fácil recorrer à IA para lidar com problemas emocionais, diz ela.
No sofá digital
O nervosismo dos alunos explica por que eles se sentem confortáveis em confiar nessas tecnologias, dizem os conselheiros escolares.
Falar com um profissional de saúde mental pode ser intimidante, especialmente para adolescentes, diz Sarah Caliboso-Soto, assistente social clínica licenciada que atua como diretora assistente de programas clínicos na Escola de Serviço Social Suzanne Dworak-Peck da Universidade do Sul da Califórnia e diretora clínica do centro de recuperação de traumas e da clínica on-line de saúde telecomportamental da escola.
Há um componente geracional também. Para os alunos que cresceram encontrando interfaces de bate-papo em mídias sociais e sites, as interfaces de IA podem parecer familiares. E as crianças de hoje acham que é mais fácil enviar mensagens de texto do que ligar para alguém, diz Linda Charmaraman, diretora do Laboratório de Pesquisa de Juventude, Mídia e Bem-estar do Wellesley Centers for Women.
Usar a IA para trabalhar as emoções também permite que os alunos evitem observar expressões faciais, pois eles podem temer que possam trazer julgamento, acrescenta ela. Além disso, os chatbots estão disponíveis em momentos em que um humano talvez não esteja, sem o incômodo de ter que marcar uma consulta, diz Charmaraman.
“É quase mais natural do que interagir com outro ser humano”, diz Caliboso-Soto.
aspas duplasVocê consegue pensar em outra época na história em que as pessoas estiveram tão solitárias, quando nossas comunidades estiveram tão fracas?Sam Hiner
Em seu trabalho com uma clínica de telessaúde, Caliboso-Soto viu um aumento nas linhas de texto e chats de crise. A clínica não usa IA de nenhum tipo, diz ela, mas muitas vezes é abordada por empresas que buscam incluir IA nas sessões de terapia como anotadores.
Não é necessariamente ruim na opinião de Caliboso-Soto. Para escolas com poucos recursos, a IA pode ser usada “como primeira linha de defesa”, verificando regularmente os alunos e apontando-lhes a direção certa quando precisarem de mais ajuda, diz ela.
O preço inicial para uma escola usar os serviços da Alongside é de cerca de US$ 10 por aluno por ano, de acordo com a empresa. Distritos maiores geralmente recebem descontos baseados no volume.
Mas Caliboso-Soto preocupa-se em usar a IA como conselheiro substituto. Falta o discernimento que os médicos proporcionam ao interagir com os estudantes, observa ela. Embora grandes modelos de linguagem possam ser treinados para perceber sintomas no texto, eles não podem ver ou ouvir o que um clínico humano consegue ao interagir com um aluno, as inflexões da voz e os movimentos do corpo, nem podem captar com segurança observações ou comportamentos sutis. “Você não pode substituir a conexão humana, o julgamento humano”, acrescenta ela.
Embora a IA possa acelerar o processo de diagnóstico ou libertar tempo para os conselheiros escolares, é crucial não confiar demasiado nela para a saúde mental, diz Charmaraman. A tecnologia pode ignorar algumas das nuances que um conselheiro humano captaria e pode dar aos alunos um reforço positivo irrealista. As escolas precisam adotar uma abordagem holística que inclua famílias e cuidadores, argumenta ela.
Além disso, se uma escola utiliza cada vez mais a intervenção de IA para filtrar casos graves, vale a pena prestar atenção se os alunos estão a ter contacto menos frequente com humanos clinicamente treinados, diz Caliboso-Soto.
Por sua vez, os representantes da Alongside afirmam que a plataforma não pretende substituir a terapia humana. O aplicativo é um trampolim para buscar ajuda de adultos, diz Ava Shropshire, estudante do terceiro ano da Universidade de Washington que atua como conselheira de jovens na Alongside. Ela argumenta que o aplicativo faz com que a saúde mental e o aprendizado socioemocional pareçam mais normais para os alunos e pode levá-los a procurar ajuda humana.
Ainda assim, alguns estudantes acham que é, na melhor das hipóteses, um band-aid.
Responsabilidade social
“Você consegue pensar em outra época da história em que as pessoas estiveram tão solitárias, quando nossas comunidades estiveram tão fracas?” pergunta Sam Hiner, diretor executivo da Young People’s Alliance, uma organização com sede na Carolina do Norte que faz lobby por mais participação dos jovens na política e na elaboração de políticas.
Durante uma época de convulsão económica, a tecnologia e as redes sociais manipularam e isolaram os estudantes uns dos outros, e isso levou a um profundo anseio por comunidade e pertença, diz Hiner.
Os alunos irão obtê-lo sempre que puderem, mesmo que seja através do ChatGPT, acrescenta.
A Aliança de Jovens lançou uma estrutura para regulamentar a IA que permite alguns usos terapêuticos da tecnologia.
Mas, em geral, a organização está a esforçar-se por reconstruir a comunidade humana e opõe-se à utilização da IA quando esta ameaça substituir a companhia humana, diz Hiner. “Esse é um aspecto crítico da terapia e de viver uma vida plena, ter conexão social e bem-estar mental”, acrescenta.
Assim, para Hiner, a principal preocupação é o que chamamos de “relação parasocial”, quando os alunos desenvolvem uma ligação emocional unilateral, especialmente quando a tecnologia entra nas escolas para fins terapêuticos. Pode ser valioso ter uma IA que possa fornecer feedback ou realizar análises, até mesmo para a saúde mental, mas Hiner diz que a IA não deve sugerir ou transmitir que tem o seu próprio estado emocional – por exemplo, dizendo “Estou orgulhoso de você” a um estudante – porque isso incentiva o apego.
Embora as plataformas muitas vezes aleguem diminuir a solidão, elas não medem realmente se as pessoas estão mais conectadas e mais preparadas para viver vidas realizadas, conectadas e felizes no longo prazo, diz Hiner: “Tudo (as plataformas tecnológicas estão) medindo é se este bot está servindo como uma muleta eficaz para os sentimentos imediatos de solidão que estão experimentando”.
O que os defensores querem evitar é que estes bots alimentem a perda de competências sociais porque afastam as pessoas das relações com outras pessoas, onde têm responsabilidade social, diz Hiner.
Ultrapassando limites
Os especialistas em privacidade observam que esses chatbots geralmente não oferecem as mesmas proteções de privacidade das conversas com um terapeuta licenciado. E quando as preocupações com a privacidade dos estudantes e os encontros com a polícia são elevadas, a utilização destas ferramentas levanta preocupações “confusas” sobre a privacidade, mesmo quando supervisionadas por pessoas com formação clínica, afirma um especialista em legislação de privacidade.
Tanto a empresa como Phillips, o conselheiro no condado de Putnam, sublinham que, para funcionar, estes sistemas precisam de supervisão humana. Phillips sente que esta ferramenta é uma melhoria em relação a outras ferramentas de monitoramento que o distrito tem usado, que direcionam os alunos para a disciplina na escola, em vez de ajuda na saúde mental.
Neste ano letivo, Phillips observou 19 alertas “graves” da ferramenta de saúde de IA em fevereiro (de um total de 393 usuários ativos). A empresa não separa os incidentes que os estudantes causaram. Assim, alguns dos mesmos estudantes estão a causar vários desses 19 “alertas graves”, observa Phillips.
Phillips aprendeu, ao usar a ferramenta, que é preciso ser humano para perceber o humor adolescente também.
Isso ocorre porque alguns alertas não são genuínos. Ocasionalmente, estudantes do ensino médio – geralmente meninos – testarão os limites desta tecnologia, diz Phillips. Eles digitam “meu tio me toca” ou “minha mãe me bateu com uma vara” no chat para testar se Phillips dará continuidade ao assunto.
Esses meninos estão apenas tentando ver se alguém está ouvindo, para testar se alguém se importa, diz ela. Às vezes, eles simplesmente acham engraçado.
Quando ela os chama de lado para discutir o assunto, ela pode observar a linguagem corporal deles e se ela muda, o que pode sugerir que o comentário foi real. Se fosse uma piada, muitas vezes eles se desculpavam. Quando um aluno não parece arrependido, Phillips liga e conta aos pais o que aconteceu. Mas mesmo nestes casos, Phillips sente que tem mais opções do que as oferecidas por outros sistemas de monitorização, o que encaminharia o aluno para a suspensão na escola.
Como Phillips fica de olho nas interações, os alunos também aprendem a confiar que ela está realmente monitorando o sistema, acrescenta ela.
E, diz ela, o número de rapazes que testam o sistema dessa forma diminui todos os anos.
-
Este artigo foi produzido em parceria com a EdSurge, uma redação sem fins lucrativos que cobre educação por meio de jornalismo original e pesquisa. Inscreva-se para receber seus boletins informativos.



