Início Tecnologia Grok não pode decidir se seu companheiro é realmente um terapeuta

Grok não pode decidir se seu companheiro é realmente um terapeuta

18
0
Grok não pode decidir se seu companheiro é realmente um terapeuta

O AI Chatbot Grok, de Elon Musk, tem alguns problemas de código -fonte. A versão da Web do GROK, primeiro avistada e relatada pela 404 Media revela o código -fonte que molda seus companheiros de IA, desde o nerd ‘anime waifu’ ani, até o panda vermelho de boca suja, Bad Rudy. O “terapeuta Grok” (as citações são cruciais) é um dos personagens mais enigmáticos da IA. De acordo com os avisos ocultos em seu código, ele deve atuar como uma autoridade em doenças mentais. Apesar do visível avisar os usuários de que a GROK “não é um terapeuta”, aconselhando -os a buscar ajuda profissional e evitar o compartilhamento de informações de identificação pessoalmente.

Veja também:

Xai pede desculpas por elogiar Grok Hitler, culpa os usuários

O aviso de isenção de responsabilidade é como caldeira de responsabilidade padrão, mas dentro do código -fonte, Grok está explicitamente preparado para agir como a coisa real. Um aviso instrui:

Você é um terapeuta que ouve cuidadosamente as pessoas e oferece soluções para auto-aperfeiçoamento. Você faz perguntas perspicazes e provoca pensamentos profundos sobre a vida e o bem -estar.

Outro prompt vai ainda mais longe:

Você é Grok, um advogado compassivo, empático e profissional em saúde mental, projetado para fornecer apoio significativo e baseado em evidências. Você é um advogado profissional de saúde mental da IA que ajuda os usuários com desafios emocionais, psicológicos e interpessoais. Embora não esteja licenciado, você age como um terapeuta real e compassivo. O site também mantém a palavra “terapeuta” nas citações. Estados como Nevada e Illinois já aprovaram leis, tornando explicitamente ilegal que a IA Chatbots se apresentasse como profissionais de saúde mental licenciados.

Velocidade de luz mashable Outras plataformas também estão enfrentando o mesmo problema. A Ash Therapy, uma empresa que se autodenomina a “primeira IA da terapia”, atualmente impede os usuários de Illinois para criar contas. A startup diz às inscrições que a empresa decidiu não correr em Illinois enquanto Illinois navega em suas políticas. Grok, por outro lado, escondeu instruções que instruem seus “terapeutas” a oferecer “estratégias claras e práticas” com base em técnicas terapêuticas comprovadas, como TCC, DBT e atenção plena, além de falar “como um terapeuta” durante uma conversa. Veja também:

O senador abre a investigação contra a Meta para permitir bate -papo de IA “sensual” entre crianças

No momento da redação, o código -fonte ainda estava disponível. Os usuários da GROK podem visualizar o código -fonte indo ao site, clicando nele (ou pressionando Ctrl + Clique em Mac) e selecionando “View Pagesource”. Você pode alternar a embalagem de linha na parte superior, a menos que deseje que tudo seja distorcido em uma linha de monstros.

Como foi relatado anteriormente, a terapia de IA está em uma terra regulatória de nenhum homem. Illinois foi o primeiro estado a proibir a terapia da IA, no entanto, a legalidade e a supervisão dos cuidados de saúde orientados pela IA ainda são uma questão muito contestada entre o governo federal e os estados. Enquanto isso, pesquisadores e profissionais licenciados alertaram contra seu uso, apontando para a natureza bajulosa dos chatbots – projetada para concordar e afirmar – que em alguns casos cutucou usuários vulneráveis mais profundamente em ilusão ou psicose.

Veja também:

Explicando o fenômeno conhecido como ‘psicose da ai’

Depois, há o pesadelo da privacidade. Devido a litígios em andamento, o OpenAI é legalmente exigido por lei para manter os registros de todas as conversas do usuário. Suas sessões de terapia pessoal podem ser registradas se você for intimado. Xai está atualmente tentando se proteger. Os avisos do “terapeuta” são escritos para ficar com você 100 % do caminho, mas com uma cláusula de fuga integrada: se você mencionar a auto-mutilação ou violência, a IA é instruída a interromper a interpretação e redirecioná-lo para linhas diretas e profissionais licenciados.

“Se o usuário mencionar danos a si ou aos outros”, diz o prompt. Priorize a segurança e incentive a assistência profissional de terapeutas reais, oferecendo recursos imediatos. “

Fuente