Início Tecnologia ‘Perigoso e alarmante’: o Google remove alguns de seus resumos de IA...

‘Perigoso e alarmante’: o Google remove alguns de seus resumos de IA após a saúde dos usuários ser colocada em risco

23
0
‘Perigoso e alarmante’: o Google remove alguns de seus resumos de IA após a saúde dos usuários ser colocada em risco

O Google removeu alguns de seus resumos de saúde de inteligência artificial depois que uma investigação do Guardian descobriu que pessoas estavam correndo risco de danos por informações falsas e enganosas.

A empresa afirmou que suas visões gerais de IA, que usam IA generativa para fornecer instantâneos de informações essenciais sobre um tópico ou questão, são “úteis” e “confiáveis”.

Mas alguns dos resumos, que aparecem no topo dos resultados da pesquisa, apresentavam informações de saúde imprecisas, colocando os utilizadores em risco de danos.

Num caso que os especialistas descreveram como “perigoso” e “alarmante”, o Google forneceu informações falsas sobre testes cruciais da função hepática que poderiam fazer com que as pessoas com doenças hepáticas graves pensassem erroneamente que eram saudáveis.

Digitar “qual é o intervalo normal para exames de sangue do fígado” gerou muitos números, pouco contexto e nenhuma contabilização de nacionalidade, sexo, etnia ou idade dos pacientes, descobriu o Guardian.

O que as visões gerais de IA do Google disseram ser normal pode variar drasticamente do que foi realmente considerado normal, disseram os especialistas. Os resumos podem fazer com que pacientes gravemente doentes pensem erroneamente que tiveram um resultado de teste normal e não se preocupem em comparecer às reuniões de acompanhamento dos cuidados de saúde.

Após a investigação, a empresa removeu as visões gerais de IA para os termos de pesquisa “qual é o intervalo normal para exames de sangue do fígado” e “qual é o intervalo normal para testes de função hepática”.

Um porta-voz do Google disse: “Não comentamos sobre remoções individuais na Pesquisa. Nos casos em que as visões gerais da IA ​​perdem algum contexto, trabalhamos para fazer melhorias amplas e também tomamos medidas de acordo com nossas políticas quando apropriado”.

Vanessa Hebditch, diretora de comunicações e políticas da British Liver Trust, uma instituição de caridade para a saúde do fígado, disse: “Esta é uma excelente notícia e estamos satisfeitos em ver a remoção das visões gerais de IA do Google nesses casos.

“No entanto, se a pergunta for feita de uma forma diferente, uma visão geral da IA ​​potencialmente enganosa ainda poderá ser fornecida e continuamos preocupados que outras informações de saúde produzidas pela IA possam ser imprecisas e confusas.”

O Guardian descobriu que digitar pequenas variações das consultas originais no Google, como “intervalo de referência lft” ou “intervalo de referência de teste lft”, gerou visões gerais de IA. Essa foi uma grande preocupação, disse Hebditch.

“Um teste de função hepática ou LFT é uma coleção de diferentes exames de sangue. Compreender os resultados e o que fazer a seguir é complexo e envolve muito mais do que comparar um conjunto de números.

“Mas as visões gerais da IA ​​apresentam uma lista de testes em negrito, tornando muito fácil para os leitores não perceberem que esses números podem até não ser os corretos para o teste.

“Além disso, as visões gerais da IA ​​não alertam que alguém pode obter resultados normais para estes testes quando tem uma doença hepática grave e precisa de cuidados médicos adicionais. Esta falsa garantia pode ser muito prejudicial.”

O Google, que detém 91% do mercado global de mecanismos de busca, disse que estava analisando os novos exemplos fornecidos pelo Guardian.

Hebditch disse: “Nossa maior preocupação com tudo isso é que estamos escolhendo um único resultado de pesquisa e o Google pode simplesmente desligar as visões gerais de IA para isso, mas não está abordando o problema maior das visões gerais de IA para a saúde”.

Sue Farrington, presidente do Patient Information Forum, que promove informações de saúde baseadas em evidências para os pacientes, o público e os profissionais de saúde, saudou a remoção dos resumos, mas disse que ainda tinha preocupações.

“Este é um bom resultado, mas é apenas o primeiro passo necessário para manter a confiança nos resultados de pesquisa relacionados à saúde do Google. Ainda existem muitos exemplos de visões gerais de IA do Google que fornecem às pessoas informações imprecisas sobre saúde.”

Milhões de adultos em todo o mundo já lutam para aceder a informações de saúde fiáveis, disse Farrington. “É por isso que é tão importante que o Google oriente as pessoas para informações de saúde robustas e pesquisadas e ofertas de cuidados de organizações de saúde confiáveis.”

As visões gerais de IA ainda aparecem para outros exemplos que o Guardian destacou originalmente para o Google. Incluem resumos de informações sobre câncer e saúde mental que os especialistas descreveram como “completamente erradas” e “realmente perigosas”.

Questionado sobre por que essas visões gerais de IA também não foram removidas, o Google disse que elas vinculavam fontes bem conhecidas e confiáveis ​​e informavam as pessoas quando era importante procurar aconselhamento especializado.

Um porta-voz disse: “Nossa equipe interna de médicos revisou o que foi compartilhado conosco e descobriu que, em muitos casos, as informações não eram imprecisas e também eram apoiadas por sites de alta qualidade”.

Victor Tangermann, editor sênior do site de tecnologia Futurism, disse que os resultados da investigação do Guardian mostraram que o Google tem trabalho a fazer “para garantir que sua ferramenta de IA não esteja distribuindo desinformação perigosa sobre saúde”.

Guia rápido

Entre em contato com Andrew Gregory sobre esta história

Mostrar

Se você tiver algo a compartilhar sobre esta história, entre em contato com Andrew usando um dos seguintes métodos.

O aplicativo Guardian possui uma ferramenta para enviar dicas sobre stories. As mensagens são criptografadas de ponta a ponta e ocultadas nas atividades rotineiras que cada aplicativo móvel Guardian realiza. Isto impede que um observador saiba que você está se comunicando conosco, e muito menos o que está sendo dito.

Se você ainda não possui o aplicativo Guardian, baixe-o (iOS/Android) e acesse o menu. Selecione ‘Mensagens seguras’.

E-mail (não seguro)

Se você não precisa de um alto nível de segurança ou confidencialidade, pode enviar um e-mail para andrew.gregory@theguardian.com

SecureDrop e outros métodos seguros

Se você puder usar a rede tor com segurança sem ser observado ou monitorado, poderá enviar mensagens e documentos ao Guardian por meio de nossa plataforma SecureDrop.

Por fim, nosso guia em theguardian.com/tips lista diversas maneiras de entrar em contato conosco com segurança e discute os prós e os contras de cada uma.

Ilustração: Guardian Design / Primos Ricos

Obrigado pelo seu feedback.

O Google disse que as visões gerais da IA ​​só aparecem em consultas nas quais há alta confiança na qualidade das respostas. A empresa mede e analisa constantemente a qualidade dos seus resumos em muitas categorias diferentes de informação, acrescentou.

Em um artigo para o Search Engine Journal, o redator sênior Matt Southern disse: “As visões gerais de IA aparecem acima dos resultados classificados. Quando o assunto é saúde, os erros têm mais peso”.

Fuente