A Inteligência Artificial (IA) pode não substituir os cuidados profissionais, chatbots como o ChatGPT podem ajudar a reduzir o estigma da saúde mental, especialmente para pessoas hesitantes em procurar apoio presencial tradicional, de acordo com um estudo.
A equipe da Universidade Edith Cowan (ECU), na Austrália, entrevistou 73 pessoas que usaram o ChatGPT para apoio pessoal à saúde mental, investigando o uso do ChatGPT e sua eficácia percebida relacionada ao estigma.
“As descobertas sugerem que acreditar que a ferramenta é eficaz e desempenha um papel importante na redução das preocupações sobre o julgamento externo”, disse Scott Hannah, aluno do Mestrado em Psicologia Clínica da ECU.
O estigma é uma grande barreira para a procura de ajuda em saúde mental. Pode piorar os sintomas e desencorajar as pessoas de ter acesso a apoio.
O estudo centrou-se no estigma antecipado – medo de ser julgado ou discriminado; e autoestigma – internalização de estereótipos negativos, o que reduz a confiança e a procura de ajuda.
As pessoas que consideraram que o ChatGPT era eficaz eram mais propensas a usá-lo e a relatar uma redução do estigma previsto, o que significa menos medo de serem julgadas.
À medida que as ferramentas de IA se tornam mais comuns, as pessoas utilizam chatbots para conversas privadas e anónimas sobre os seus problemas de saúde mental.
“Estes resultados sugerem que, apesar de não terem sido concebidas para estes fins, as ferramentas de IA como o ChatGPT estão a tornar-se mais amplamente utilizadas para fins de saúde mental”, acrescentou.
Embora possa ser mais fácil abrir-se à IA, deve-se ter cuidado, uma vez que as ferramentas digitais anónimas acarretam considerações éticas importantes, disse a equipa.
“O ChatGPT não foi projetado para fins terapêuticos e pesquisas recentes mostraram que suas respostas às vezes podem ser inadequadas ou imprecisas. Portanto, incentivamos os usuários a se envolverem com ferramentas de saúde mental baseadas em IA de forma crítica e responsável”, disse Hannah.
A equipa sublinhou a necessidade de mais investigação para compreender como a IA pode complementar com segurança os serviços de saúde mental.
Esta história foi obtida de um feed sindicalizado de terceiros, agências. A Mid-day não aceita nenhuma responsabilidade ou obrigação por sua confiabilidade, confiabilidade, confiabilidade e dados do texto. Mid-day management/mid-day.com reserva-se o direito exclusivo de alterar, excluir ou remover (sem aviso prévio) o conteúdo a seu exclusivo critério, por qualquer motivo.



