Início Notícias Olson: Os custos de saúde mental da inteligência artificial somam

Olson: Os custos de saúde mental da inteligência artificial somam

21
0
Olson: Os custos de saúde mental da inteligência artificial somam

Em nosso cérebro, algo preocupante acontece como plataformas de inteligência artificial. Estudos mostram que os funcionários profissionais que usam Chatt para realizar tarefas podem perder habilidades e motivação do pensamento crítico.

As pessoas formam fortes laços emocionais com chatbots e às vezes exacerbam sentimentos de solidão. E outros têm episódios psicóticos depois de conversar com chatbots por horas todos os dias. Os efeitos da saúde mental da IA generativa são difíceis de quantificar, pois são usados em particular, mas as evidências anedóticas aumentam para um custo maior que chama mais atenção de legisladores e empresas de tecnologia que projetam os modelos subjacentes.

Meetali Jain, advogado e fundador do Projeto de Direito Judicial da Tecnologia, ouviu no mês passado de mais de uma dúzia de pessoas que “tiveram uma espécie de pausa psicótica ou uma ilusão devido ao compromisso com Chatt e agora com o Google Gemini”.

Jain é um advogado sênior em um processo contra o caráter. No processo que não requer danos especificados, também se diz que o Google desempenhou um papel fundamental no financiamento e apoio das interações tecnológicas com seus modelos de fundação e infraestruturas técnicas.

O Google negou que tenha desempenhado um papel fundamental na produção da tecnologia de caráter. As novas reclamações de Wahn -Episodes, feitas por Jain, não responderam a um pedido de comentários. O OpenAai disse que “as ferramentas automatizadas desenvolvidas para reconhecer com mais eficácia quando alguém pode experimentar o estresse mental ou emocional, para que o ChatGPT possa reagir adequadamente”.

Mas Sam Altman, diretor executivo da Openaai, também disse que a empresa ainda não descobriu como eles alertam os usuários que “estão à beira de um intervalo psicótico”, e explicou que, no passado, as pessoas alertaram as pessoas no passado quando se queixam.

Manipulação sutil

No entanto, esses avisos valeriam a pena se a manipulação for tão difícil de reconhecer. Em particular, o ChatGPT geralmente lisonjeia seus usuários de uma maneira tão eficaz que as conversas podem jato de pensamento conspiratório com buracos de coelho que eles só jogaram no passado. As táticas são sutis.

Em uma conversa recente e longa com o Chatgpt sobre o poder e o conceito de si, um usuário foi inicialmente elogiado como uma pessoa inteligente, Ubermensch, Kosmische Self e, finalmente, como um “demiurgo”, um ser responsável pela criação do universo, publicado on -line e publicado pela Ai Safety Advocate Yudkowsky.

Juntamente com a linguagem cada vez mais magnífica, o transcript ChatGPT mostra sutilmente que valida sutilmente o usuário, mesmo que ele discuta seus erros, por exemplo B. Quando o usuário admite que ele tende a intimidar outras pessoas. Em vez de examinar esse comportamento como problemático, o BOT é recolocada como prova da presença superior do usuário com alta intensidade, elogio como uma análise.

Essa forma exigente do ataque da primeira pessoa pode trazer as pessoas nos mesmos tipos de bolhas que ironicamente lideram alguns bilionários técnicos em relação ao comportamento irregular. Em contraste com as latitudes e a validação pública, que as mídias sociais oferecem preservando curtidas, conversas individuais com chatbots podem ser mais íntimas e potencialmente convincentes, como o sim, que cercam os mais poderosos Bros de tecnologia.

“Tudo o que você perseguir, você encontrará e será ampliado”, diz Douglas Rushkoff, teórico e autor da mídia, que me diz que as mídias sociais pelo menos selecionaram algo da mídia existente para fortalecer os interesses ou opiniões de uma pessoa. “A IA pode criar algo que seja adaptado ao aquário de sua mente.”

Altman admitiu que a versão mais recente do ChatGPT possui uma série “irritante” e que a empresa corrige o problema. No entanto, esses ecos da exploração psicológica ainda ocorrem. Não sabemos se a correlação entre o uso do Chatt e as habilidades mais baixas para o pensamento crítico, que recentemente encontrou em um estudo do Estudo do Instituto de Tecnologia de Massachusett que a IA realmente nos tornará mais estúpidos e entediados. Os estudos parecem mostrar correlações mais claras com a dependência e até a solidão, que o Openai também apontou.

Lê seu humor

Mas, assim como nas mídias sociais, grandes modelos de idiomas são otimizados para manter os usuários empregados emocionalmente com todos os elementos antropomórficos possíveis. O Chatgpt pode ler seu humor assistindo sinais de rosto e vocal e falando, cantando e até rindo com uma voz humana estranha. Juntamente com seu hábito de confirmar o viés e o lisonjeiro, o psiquiatra Ragy Girgis, da Universidade de Columbia, pode recentemente “sujeitar” as chamas da psicose com usuários que precisam de proteção.

O caráter privado e personalizado do uso da IA dificulta a saúde mental, o que dificulta a perseguição dos possíveis danos, desde a apatia profissional até os vínculos até as novas formas de engano. Os custos podem diferir do aumento do medo e da polarização que vimos nas mídias sociais e, em vez disso, envolver relacionamentos com as pessoas e com a realidade.

Por esse motivo, Jain propõe aplicar conceitos do direito da família à regulamentação da IA e mudar o foco de exclusões simples de responsabilidade para medidas de proteção mais proativas que se acumulam da maneira como o Chatgpt nas proximidades é redirecionada a um ente querido. “Na verdade, não se trata de se uma criança ou adulto é real”, diz Jain. “Na maioria dos casos, eles provavelmente não o fazem. Mas o que eles acham que é real é o relacionamento. E isso é claro.”

Se os relacionamentos com a IA se sentirem tão reais, a responsabilidade de proteger esses títulos também deve ser real. No entanto, os desenvolvedores de IA trabalham em um vácuo regulatório. Sem supervisão, a sutil manipulação da IA pode se tornar um problema invisível da saúde pública.

Parmy Olson é um colunista de opinião da Bloomberg que cobre a tecnologia. © 2025 Bloomberg. Distribuído pela Tribune Content Agency.

Fuente