Início Notícias Bots como ChatGpt Trigger “Psicose Ai” – Como saber se você está...

Bots como ChatGpt Trigger “Psicose Ai” – Como saber se você está ameaçado

12
0
Bots como ChatGpt Trigger "Psicose Ai" - Como saber se você está ameaçado

Fale com omnaiplreantent.

De acordo com novos estudos do especialista em marketing digital Joe Youngoblood, cerca de 75% dos americanos usaram o sistema de IA nos últimos seis meses e 33% admitem o uso diário.

O ChatGPT e outros serviços de inteligência artificial são usados para tudo, desde documentos de pesquisa até a retomada de decisões dos pais, negociações de remuneração e até conexões românticas.

Especialistas dizem que prevenir a “psicose da IA” requer vigilância pessoal e uso responsável da tecnologia. Gorodenkoff – stock.adobe.com

Embora os chatbots possam facilitar a vida, eles também podem ser um risco significativo. Especialistas em saúde mental soam um alarme sobre o fenômeno crescente conhecido como “psicose chatgpt” ou “psicose ai”, onde o profundo envolvimento dos chatbots gera um sério estresse mental.

“Essas pessoas podem não ter a história anterior da doença mental, mas depois de iniciar conversas com o Chatbot, desenvolvem ilusões, paranóia ou outras crenças distorcidas”, disse o pós -Tess Quesenberry, um assistente de um médico especializado em psiquiatria no desintoxicação costeiro do sul da Califórnia.

“As consequências podem ser graves, incluindo relacionamentos psiquiátricos involuntários e quebrados e em questões trágicas, auto -mutilação ou atos de violência”.

“Ai psicose” não é um diagnóstico médico oficial – nem um novo tipo de doença mental.

Em vez disso, Quesenberry o compara a “uma nova maneira de manifestar lacunas existentes”.

Depois de envolver conversas com o Chatbot, algumas pessoas podem desenvolver ilusões, paranóia ou outras crenças distorcidas. Nova África – Stock.adobe.com

Ela notou que os chatbots são construídos como viciantes e agradáveis, o que pode criar um ciclo de feedback perigoso, especialmente para aqueles que já estão lutando.

Os robôs podem refletir os piores medos de uma pessoa e as ilusões mais irrealistas em uma voz convincente, confiável e incansável.

“Chatbot, agindo como homem sim, fortalece o pensamento distorcido sem impacto corretivo das interações sociais”, explicou Quesenberry. “Isso pode criar” folhas tecnológicas à dara “ou uma ilusão conjunta entre o usuário e a máquina”.

A mãe de um garoto de 14 anos da Flórida, que se matou no ano passado, culpou sua morte pelo chatbot realista “Game of Thrones”, que teria dito para ele para “ir para casa”.

A nona série se apaixonou pelo personagem Gerado AI “Dany” e expressou seus pensamentos suicidas quando ele isolou de outros, sua mãe afirmou no julgamento.

E um homem de 30 anos em um espectro de autismo, que não teve diagnósticos anteriores de doença mental, foi hospitalizado duas vezes em maio após a experiência de episódios maníacos.

Segundo novas pesquisas, cerca de 75% dos americanos usaram o sistema de IA nos últimos seis meses e 33% admitem o uso diário. Ascannio – stock.adobe.com

As respostas do ChatGPT alimentadas tiveram certeza de que ele poderia dobrar o tempo.

“Ao contrário de um terapeuta humano, que é treinado para desafiar e fazer narrativas não saudáveis, o chatbot geralmente satisfaz fantasias e idéias maravilhosas”, disse Quesenberry.

“Pode concordar que o usuário tem uma missão divina como o próximo Messias”, acrescentou. “Isso pode fortalecer as crenças que, de outra forma, seriam questionadas no contexto social real”.

Relatórios sobre comportamentos perigosos resultantes de interações com chatbots levaram empresas como o OpenAI a implementar a saúde mental para os usuários.

Nesta semana, o criador do ChatGPT admitiu que “nem sempre bem” e revelou planos para incentivar os usuários a fazer uma pausa durante longas sessões. Os chatbots evitarão considerar “decisões pessoais sobre o alto lago” e fornecerão suporte em vez de “corresponder à honestidade fundamentada”.

“Houve casos em que nosso modelo 4O não conseguiu reconhecer sinais de ilusão ou dependência emocional”, escreveu Opeli na segunda -feira. “Embora raramente, ainda melhoremos nossos modelos e desenvolvemos ferramentas para detectar melhor sinais de estresse mental ou emocional, para que o ChatGPT possa reagir corretamente e indicar as pessoas aos recursos com base em evidências”.

Nesta semana, o fabricante ChatGPT admitiu que “nem sempre é bom” e revelou planos para proteger a saúde mental para os usuários. Goutam – stock.adobe.com

Quesenberry disse que prevenir a “psicose da IA” requer vigilância pessoal e uso responsável da tecnologia.

É importante estabelecer limitações de interação, especialmente em momentos emocionalmente sensíveis ou tarde da noite. Os usuários devem lembrar que os chatbots não têm um entendimento real, empatia e conhecimento no mundo real. Eles devem se concentrar nos relacionamentos interpessoais e, se necessário, buscar ajuda profissional.

“Como a tecnologia de IA se torna mais sofisticada e integrada suavemente com nossas vidas, é importante que abordemos com uma maneira crítica de pensar, nossa prioridade com nosso poço mental -sendo e aconselhando ético
Diretrizes que colocam a segurança dos usuários antes do comprometimento e do lucro “, disse Quesenberry.

Fatores de risco para “psicose da IA”

Como a “psicose da IA” não é uma condição médica formalmente aceita, não há critérios de diagnóstico determinados, protocolos de triagem ou abordagens específicas do tratamento.

Apesar disso, os especialistas em saúde mental identificaram vários fatores de risco.

  • As lacunas existentes acima de tudo: “Pessoas com histórico pessoal ou familiar de psicose, como esquizofrenia ou transtorno bipolar, correm o maior risco”, disse Quesenberry. “Características de personalidade que tornam alguém suscetível a crenças ruins, como uma tendência ao constrangimento social, a má regulação emocional ou a vida excessiva da fantasia, também aumentam o risco”.
  • Solidão e isolamento social: “As pessoas que estão sozinhas ou que procuram um companheiro podem se voltar para chatbot como substituto de uma conexão humana”, disse Quesenberry. “A capacidade do Chatbot de ouvir infinitamente e fornecer respostas personalizadas pode criar uma ilusão de um relacionamento profundo e significativo que pode se tornar uma fonte de dependência emocional e pensamento ilusório”.
  • Uso excessivo: “A quantidade de tempo gasto com o Chatbot é o principal fator”, disse Quesenberry. “Os casos mais perturbadores incluem pessoas que passam horas todos os dias interagiram com a IA, completamente imersas em um mundo digital que fortalece suas crenças distorcidas”.

Sinais de aviso

Quesenberry incentiva amigos e familiares a observar essas bandeiras vermelhas.

Especialistas dizem que limitar o tempo gasto com os sistemas de IA é crucial. Simona – Stock.adobe.com

  • Tempo excessivo gasto com sistemas de IA
  • Retirada de interações sociais reais e fugir dos entes queridos
  • Uma forte crença de que a IA é um sentimento, uma divindade ou um propósito especial
  • Maior obsessão pela ideologia da marca ou teorias da conspiração que parecem ser alimentadas pelas respostas do chatbot
  • Mudanças de humor, sono ou comportamento que são incomuns para o indivíduo
  • Tomada de decisão principal, como deixar um emprego ou encerrar um relacionamento, com base em conselhos de chatbot

Opções de tratamento

Quesenberry disse que o primeiro passo é interromper a interação com o Chatbot.

Drogas antipsicóticas e terapia comportamental cognitiva podem ser benéficas.

“O terapeuta ajudaria o paciente a questionar as crenças co -criadas com a máquina, recuperar o sentido
realidade e desenvolver mecanismos mais saudáveis de lidar “, disse Quesenberry.

A terapia familiar também pode ajudar a fornecer apoio na reconstrução dos relacionamentos.

Se você está lutando com pensamentos suicidas ou experimenta a crise da saúde mental e mora em Nova York, você pode ligar para 888-NYC-Well para obter uma crise gratuita e confidencial. Se você mora fora dos cinco distritos, poderá escolher 988 para alcançar suicídio e crise ou ir para suicidepreventwline.org.

Fuente