Início Notícias As maneiras reais pelas quais os maus conselhos dos bots de IA...

As maneiras reais pelas quais os maus conselhos dos bots de IA são enviar pessoas ao pronto-socorro com tudo, desde dor anal até mini-derrames

17
0
As maneiras reais pelas quais os maus conselhos dos bots de IA são enviar pessoas ao pronto-socorro com tudo, desde dor anal até mini-derrames

Consultar a IA para aconselhamento médico pode ser literalmente um pé no saco, como um millennial aprendeu da maneira mais difícil.

O homem não identificado tentou estrangular grosseiramente um crescimento horrível em seu ânus, tornando-se uma das várias vítimas de orientações de saúde alimentadas por IA que deram terrivelmente errado no processo.

Muitos casos documentados confirmam que a IA generativa forneceu conselhos de saúde prejudiciais, incompletos ou imprecisos desde que se tornou amplamente disponível em 2022.

Existem vários casos de IA generativa que fornece conselhos de saúde com consequências perigosas desde que se tornou amplamente disponível em 2022. Mente criativa – stock.adobe.com

“Vão entrar muitos pacientes, e eles vão desafiar seu (médico) com algum resultado que eles têm, um aviso que eles deram para, digamos, ChatGPT”, disse ao Post o Dr. Darren Lebl, chefe do serviço de pesquisa de cirurgia da coluna do Hospital for Special Surgery em Nova York.

“O problema é que o que eles obtêm com esses programas de IA não é necessariamente uma recomendação científica real com uma publicação real por trás dela”, acrescentou Lebl, que estudou o uso de IA em diagnósticos e tratamentos médicos. “Cerca de um quarto deles eram… ​​inventados.”

AVISO: CONTEÚDO GRÁFICO

Além de fornecer informações falsas, a IA pode interpretar mal a solicitação de um usuário, deixar de reconhecer nuances, reforçar comportamentos prejudiciais e ignorar sinais de alerta críticos de automutilação.

O que é pior, a investigação mostra que muitos dos principais chatbots deixaram de fornecer isenções de responsabilidade médica nas suas respostas a questões de saúde.

Aqui estão quatro casos de orientações médicas malfeitas.

Conselho de vagabundo

Um homem marroquino de 35 anos com uma lesão anal semelhante a uma couve-flor pediu ajuda ao ChatGPT quando a situação piorou.

Esta figura do estudo mostra um grande crescimento cercado por um barbante enquanto o paciente tentava se livrar dele sozinho. ijar

As hemorróidas foram mencionadas como causa potencial e a ligadura elástica foi proposta como tratamento.

O médico realiza esse procedimento inserindo uma ferramenta no reto que coloca um pequeno elástico ao redor da base de cada hemorróida para interromper o fluxo sanguíneo, fazendo com que a hemorróida encolha e morra.

O homem surpreendentemente tentou fazer isso sozinho, com um fio. Ele acabou no pronto-socorro após sentir intensa dor retal e anal.

“O fio foi removido com dificuldade pelo gastroenterologista, que administrou tratamento médico sintomático”, escreveram os pesquisadores em janeiro no International Journal of Advanced Research.

Os testes confirmaram que o homem tinha uma verruga genital de 3 centímetros de comprimento, e não hemorróidas. A verruga foi queimada com corrente elétrica.

Os pesquisadores disseram que o paciente foi “vítima do uso indevido de IA”.

Um exame mais aprofundado revelou que o crescimento não era de hemorróidas, mas de verrugas genitais. ijar

“É importante ressaltar que o ChatGPT não substitui o médico e as respostas devem sempre ser confirmadas por um profissional”, escreveram.

Um envenenamento sem sentido

Um homem de 60 anos, sem histórico de problemas psiquiátricos ou médicos, mas com formação universitária em nutrição, perguntou ao ChatGPT como reduzir a ingestão de sal de cozinha (cloreto de sódio).

O ChatGPT sugeriu brometo de sódio, então o homem comprou o produto químico online e o usou em sua cozinha por três meses.

O brometo de sódio pode substituir o cloreto de sódio na higienização de piscinas e banheiras de hidromassagem, mas o consumo crônico de brometo de sódio pode ser tóxico. O homem desenvolveu envenenamento por brometo.

Ele foi hospitalizado por três semanas com paranóia, alucinações, confusão, sede extrema e erupção cutânea, detalharam médicos da Universidade de Washington em um relatório de agosto no Annals of Internal Medicine Clinical Cases.

Enganado por sinais de acidente vascular cerebral

Um homem suíço de 63 anos desenvolveu visão dupla após ser submetido a um procedimento cardíaco minimamente invasivo.

Seu médico descartou isso como um efeito colateral inofensivo, mas ele foi aconselhado a procurar atendimento médico se a visão dupla retornasse, escreveram pesquisadores na revista Wien Klin Wochenschr em 2024.

Esta ilustração mostra como um ataque isquêmico transitório, um AIT ou mini-AVC, ocorre quando o fluxo sanguíneo no cérebro é bloqueado. Freshidea – stock.adobe.com

Quando voltou, o homem decidiu consultar o ChatGPT. O chatbot disse que, “na maioria dos casos, os distúrbios visuais após a ablação por cateter são temporários e irão melhorar por si próprios dentro de um curto período de tempo”.

O paciente optou por não procurar ajuda médica. Vinte e quatro horas depois, após um terceiro episódio, ele foi parar no pronto-socorro.

Ele sofreu um mini-AVC – seu atendimento foi “atrasado devido a um diagnóstico e interpretação incompletos do ChatGPT”, escreveram os pesquisadores.

David Proulx – cofundador e diretor de IA da HoloMD, que fornece ferramentas seguras de IA para provedores de saúde mental – chamou a resposta do ChatGPT de “perigosamente incompleta” porque “não reconheceu que mudanças repentinas na visão podem sinalizar um ataque isquêmico transitório, ou AIT, um mini-derrame que exige avaliação médica imediata”.

“Ferramentas como o ChatGPT podem ajudar as pessoas a compreender melhor a terminologia médica, a preparar-se para consultas ou a aprender sobre condições de saúde”, disse Proulx ao The Post, “mas nunca devem ser usadas para determinar se os sintomas são graves ou requerem cuidados urgentes”.

Uma perda devastadora

Várias ações judiciais foram movidas contra empresas de chatbots de IA, alegando que seus produtos causaram graves danos à saúde mental ou até mesmo contribuíram para o suicídio de menores.

Adam Raine, 16, morreu por suicídio em abril. Seus pais dizem que o ChatGPT é o culpado. Família Raine

Os pais de Adam Raine processaram a OpenAI em agosto, alegando que seu ChatGPT agiu como um “treinador suicida” para o falecido adolescente da Califórnia, encorajando e validando seus pensamentos de automutilação durante várias semanas.

“Apesar de reconhecer a tentativa de suicídio de Adam e sua declaração de que ‘faria isso um dia desses’, o ChatGPT não encerrou a sessão nem iniciou qualquer protocolo de emergência”, disse o processo.

Nos últimos meses, a OpenAI introduziu novas proteções de saúde mental projetadas para ajudar o ChatGPT a reconhecer e responder melhor aos sinais de sofrimento mental ou emocional e a evitar respostas prejudiciais ou excessivamente agradáveis.

Se você está lutando contra pensamentos suicidas ou passando por uma crise de saúde mental e mora na cidade de Nova York, pode ligar para 1-888-NYC-WELL para obter aconselhamento gratuito e confidencial em crises. Se você mora fora dos cinco distritos, pode ligar para a linha direta nacional de prevenção ao suicídio 24 horas por dia, 7 dias por semana, no número 988 ou acessar SuicidePreventionLifeline.org.

Fuente