O Google está colocando as pessoas em risco ao minimizar os avisos de segurança de que seus conselhos médicos gerados por IA podem estar errados.
Ao responder perguntas sobre temas delicados como saúde, a empresa afirma que suas visões gerais de IA, que aparecem acima dos resultados de pesquisa, levam os usuários a procurar ajuda profissional, em vez de confiar apenas em seus resumos. “As visões gerais da IA informarão as pessoas quando for importante procurar aconselhamento especializado ou verificar as informações apresentadas”, disse o Google.
Mas o Guardian descobriu que a empresa não inclui tais isenções de responsabilidade quando os usuários recebem aconselhamento médico pela primeira vez.
O Google só emite um aviso se os usuários optarem por solicitar informações adicionais de saúde e clicarem em um botão chamado “Mostrar mais”. Mesmo assim, os rótulos de segurança só aparecem abaixo de todos os conselhos médicos extras reunidos usando IA generativa e em uma fonte menor e mais clara.
“Isto é apenas para fins informativos”, diz o aviso aos usuários que clicam para obter mais detalhes depois de ver o resumo inicial e navegam até o final da Visão Geral da IA. “Para aconselhamento médico ou diagnóstico, consulte um profissional. As respostas da IA podem incluir erros.”
O Google não negou que suas isenções de responsabilidade não apareçam quando os usuários recebem aconselhamento médico pela primeira vez, ou que apareçam abaixo das visões gerais de IA e em uma fonte menor e mais clara. As visões gerais da IA “incentivam as pessoas a procurar aconselhamento médico profissional” e frequentemente mencionam a procura de atendimento médico no próprio resumo “quando apropriado”, disse um porta-voz.
Especialistas em IA e defensores dos pacientes apresentados às descobertas do Guardian disseram estar preocupados. As isenções de responsabilidade têm um propósito vital, disseram eles, e devem aparecer com destaque quando os usuários recebem aconselhamento médico pela primeira vez.
“A ausência de isenções de responsabilidade quando os usuários recebem inicialmente informações médicas cria vários perigos críticos”, disse Pat Pataranutaporn, professor assistente, tecnólogo e pesquisador do Instituto de Tecnologia de Massachusetts (MIT) e especialista de renome mundial em IA e interação humano-computador.
“Em primeiro lugar, mesmo os modelos de IA mais avançados de hoje ainda alucinam desinformação ou exibem comportamento bajulador, dando prioridade à satisfação do utilizador em detrimento da precisão. Em contextos de saúde, isto pode ser genuinamente perigoso.
“Em segundo lugar, a questão não se trata apenas das limitações da IA - trata-se do lado humano da equação. Os utilizadores podem não fornecer todo o contexto necessário ou podem fazer perguntas erradas ao observarem mal os seus sintomas.
“As isenções de responsabilidade servem como um ponto de intervenção crucial. Elas perturbam essa confiança automática e estimulam os usuários a se envolverem de forma mais crítica com as informações que recebem.”
Gina Neff, professora de IA responsável na Queen Mary University de Londres, disse que “o problema com visões gerais de IA ruins é intencional” e que o Google é o culpado. “As visões gerais de IA são projetadas para velocidade, não para precisão, e isso leva a erros nas informações de saúde, o que pode ser perigoso.”
Em janeiro, uma investigação do Guardian revelou que as pessoas estavam correndo risco de danos por informações de saúde falsas e enganosas nas visões gerais de IA do Google.
Neff disse que as conclusões da investigação mostraram por que as isenções de responsabilidade proeminentes eram essenciais. “O Google faz as pessoas clicarem antes de encontrarem qualquer isenção de responsabilidade”, disse ela. “As pessoas que leem rapidamente podem pensar que as informações que obtêm das visões gerais de IA são melhores do que realmente são, mas sabemos que podem cometer erros graves.”
Seguindo a reportagem do Guardian, o Google removeu as visões gerais de IA de algumas pesquisas médicas, mas não de todas.
Sonali Sharma, pesquisadora do centro de IA em medicina e imagem (AIMI) da Universidade de Stanford, disse: “O principal problema é que essas visões gerais de IA do Google aparecem no topo da página de pesquisa e geralmente fornecem o que parece ser uma resposta completa à pergunta de um usuário no momento em que ele está tentando acessar informações e obter uma resposta o mais rápido possível.
“Para muitas pessoas, como esse resumo único está disponível imediatamente, ele basicamente cria uma sensação de segurança que desencoraja pesquisas adicionais ou percorrer o resumo completo e clicar em ‘Mostrar mais’, onde um aviso pode aparecer.
“O que eu acho que pode causar danos no mundo real é o fato de que as visões gerais da IA podem muitas vezes conter informações parcialmente corretas e parcialmente incorretas, e torna-se muito difícil dizer o que é preciso ou não, a menos que você já esteja familiarizado com o assunto.”
Um porta-voz do Google disse: “É impreciso sugerir que as visões gerais da IA não incentivam as pessoas a procurar aconselhamento médico profissional. Além de uma isenção de responsabilidade clara, as visões gerais da IA mencionam frequentemente a procura de atendimento médico diretamente na própria visão geral, quando apropriado.”
Tom Bishop, chefe de informação de pacientes da Anthony Nolan, uma instituição de caridade contra o câncer de sangue, pediu ações urgentes. “Sabemos que a desinformação é um problema real, mas quando se trata de desinformação sobre saúde, é potencialmente muito perigosa”, disse Bishop.
“Essa isenção de responsabilidade precisa ser muito mais proeminente, apenas para fazer as pessoas recuarem e pensarem… ‘Isso é algo que preciso verificar com minha equipe médica em vez de agir de acordo? Posso considerar isso pelo valor nominal ou preciso realmente analisá-lo com mais detalhes e ver como essa informação se relaciona com minha situação médica específica?’ Porque essa é a chave aqui.”
Ele acrescentou: “Gostaria que este aviso estivesse bem no topo. Gostaria que fosse a primeira coisa que você vê. E, idealmente, seria a fonte do mesmo tamanho de tudo o mais que você vê lá, e não algo que seja pequeno e fácil de passar despercebido.”


