Início Tecnologia Mind lança investigação sobre IA e saúde mental após investigação do Guardian

Mind lança investigação sobre IA e saúde mental após investigação do Guardian

23
0
Mind lança investigação sobre IA e saúde mental após investigação do Guardian

A Mind está lançando uma investigação significativa sobre inteligência artificial e saúde mental depois que uma investigação do Guardian expôs como as visões gerais de IA do Google davam às pessoas conselhos médicos “muito perigosos”.

Numa comissão com a duração de um ano, a instituição de caridade de saúde mental, que opera em Inglaterra e no País de Gales, examinará os riscos e salvaguardas necessários à medida que a IA influencia cada vez mais a vida de milhões de pessoas afectadas por problemas de saúde mental em todo o mundo.

O inquérito – o primeiro deste tipo a nível mundial – reunirá os principais médicos e profissionais de saúde mental do mundo, bem como pessoas com experiência vivida, prestadores de cuidados de saúde, decisores políticos e empresas tecnológicas. A Mind afirma que terá como objetivo moldar um ecossistema digital de saúde mental mais seguro, com regulamentações, padrões e salvaguardas fortes.

O lançamento ocorre depois que o Guardian revelou como as pessoas estavam correndo risco de danos por informações de saúde falsas e enganosas nas visões gerais de IA do Google. Os resumos gerados pela IA são mostrados a 2 mil milhões de pessoas por mês e aparecem acima dos resultados de pesquisa tradicionais no website mais visitado do mundo.

Após o relatório, o Google removeu as visões gerais de IA de algumas pesquisas médicas, mas não de todas. A Dra. Sarah Hughes, CEO da Mind, disse que conselhos de saúde mental “perigosamente incorretos” ainda estavam sendo fornecidos ao público. Nos piores casos, as informações falsas podem colocar vidas em risco, disse ela.

Hughes afirmou: “Acreditamos que a IA tem um enorme potencial para melhorar a vida das pessoas com problemas de saúde mental, alargar o acesso ao apoio e reforçar os serviços públicos. Mas esse potencial só será concretizado se for desenvolvido e implementado de forma responsável, com salvaguardas proporcionais aos riscos.

“As questões expostas pelas reportagens do Guardian estão entre as razões pelas quais estamos a lançar a comissão da Mind sobre IA e saúde mental, para examinar os riscos, oportunidades e salvaguardas necessárias à medida que a IA se torna mais profundamente enraizada na vida quotidiana.

“Queremos garantir que a inovação não ocorra à custa do bem-estar das pessoas e que aqueles de nós com experiência vivida de problemas de saúde mental estejam no centro da definição do futuro do apoio digital.”

O Google afirmou que suas visões gerais de IA, que usam IA generativa para fornecer instantâneos de informações essenciais sobre um tópico ou questão, são “úteis” e “confiáveis”.

Mas o Guardian descobriu que algumas visões gerais da IA ​​forneciam informações de saúde imprecisas e colocavam as pessoas em risco. A investigação revelou conselhos médicos falsos e enganosos sobre uma série de questões, incluindo cancro, doenças hepáticas e saúde da mulher, bem como problemas de saúde mental.

Especialistas disseram que algumas visões gerais de IA para condições como psicose e transtornos alimentares ofereciam “conselhos muito perigosos” e eram “incorretas, prejudiciais ou poderiam levar as pessoas a evitar procurar ajuda”.

O Google também está minimizando os avisos de segurança de que seus conselhos médicos gerados por IA podem estar errados, descobriu o Guardian.

Hughes disse que as pessoas vulneráveis ​​estavam a receber “orientações perigosamente incorretas sobre saúde mental”, incluindo “conselhos que poderiam impedir as pessoas de procurar tratamento, reforçar o estigma ou a discriminação e, nos piores casos, colocar vidas em risco”.

Ela acrescentou: “As pessoas merecem informações seguras, precisas e baseadas em evidências, e não tecnologia não testada apresentada com um verniz de confiança”.

Guia rápido

Entre em contato com Andrew Gregory sobre esta história

Mostrar

Se você tiver algo a compartilhar sobre esta história, entre em contato com Andrew usando um dos seguintes métodos.

O aplicativo Guardian possui uma ferramenta para enviar dicas sobre stories. As mensagens são criptografadas de ponta a ponta e ocultadas nas atividades rotineiras que cada aplicativo móvel Guardian realiza. Isto impede que um observador saiba que você está se comunicando conosco, e muito menos o que está sendo dito.

Se você ainda não possui o aplicativo Guardian, baixe-o (iOS/Android) e acesse o menu. Selecione ‘Mensagens seguras’.

E-mail (não seguro)

Se você não precisa de um alto nível de segurança ou confidencialidade, pode enviar um e-mail para andrew.gregory@theguardian.com

SecureDrop e outros métodos seguros

Se você puder usar a rede tor com segurança sem ser observado ou monitorado, poderá enviar mensagens e documentos ao Guardian por meio de nossa plataforma SecureDrop.

Por fim, nosso guia em theguardian.com/tips lista diversas maneiras de entrar em contato conosco com segurança e discute os prós e os contras de cada uma.

Ilustração: Guardian Design / Primos Ricos

Obrigado pelo seu feedback.

A comissão, que durará um ano, reunirá evidências sobre a intersecção da IA ​​e da saúde mental e proporcionará um “espaço aberto” onde a experiência das pessoas com problemas de saúde mental será “vista, registada e compreendida”.

Rosie Weatherley, gerente de conteúdo de informações da Mind, disse que embora pesquisar informações sobre saúde mental no Google “não fosse perfeito” antes do AI Overviews, geralmente funcionava bem. Ela disse: “Os usuários tiveram uma boa chance de clicar em um site de saúde confiável que respondesse às suas dúvidas e depois foram além – oferecendo nuances, experiência vivida, estudos de caso, citações, contexto social e uma jornada contínua de apoio.

“As visões gerais de IA substituíram essa riqueza por um resumo de aparência clínica que dá uma ilusão de definição. Eles fornecem ao usuário mais uma forma de clareza (brevidade e inglês simples), ao mesmo tempo que proporcionam menos outra forma de clareza (segurança na fonte da informação e quanto confiar nela). É uma troca muito sedutora, mas não responsável.”

Um porta-voz do Google disse: “Investimos significativamente na qualidade das visões gerais de IA, especialmente para tópicos como saúde, e a grande maioria fornece informações precisas.

“Para consultas em que nossos sistemas identificam que uma pessoa pode estar em perigo, trabalhamos para exibir linhas diretas de crise locais relevantes. Sem poder revisar os exemplos mencionados, não podemos comentar sobre sua precisão.”

Fuente