Início Tecnologia Sam Altman alerta que não há confidencialidade legal ao usar o ChatGPT...

Sam Altman alerta que não há confidencialidade legal ao usar o ChatGPT como terapeuta

30
0
Sam Altman alerta que não há confidencialidade legal ao usar o ChatGPT como terapeuta

Os usuários do ChatGPT podem querer pensar duas vezes antes de recorrer ao seu aplicativo de IA para terapia ou outros tipos de apoio emocional. De acordo com o CEO da Openai, Sam Altman, o setor de IA ainda não descobriu como você pode proteger a privacidade dos usuários quando se trata dessas conversas mais sensíveis, porque não há confidencialidade de um paciente médico quando seu médico é uma IA.

O EXEC fez esses comentários sobre um episódio recente do podcast de Theo von, no fim de semana passado com Theo von.

Em resposta a uma pergunta sobre como a IA trabalha com o sistema jurídico atual, Altman disse que um dos problemas que não deve ter uma estrutura legal ou política para a IA é que não há confidencialidade legal para as conversas dos usuários.

“As pessoas falam sobre a merda mais pessoal em suas vidas para conversar”, disse Altman. ‘As pessoas o usam – especialmente os jovens usam – como terapeuta, um treinador de vida; tem esses problemas de relacionamento e (perguntas) ‘O que devo fazer? ‘E, no momento, se você conversar com um terapeuta ou um advogado ou um médico sobre esses problemas, há um privilégio legal para isso.

Isso poderia criar um atendimento de privacidade para os usuários no caso de uma ação judicial, acrescentou Altman, porque o OpenAI seria legalmente obrigado a produzir essas conversas hoje.

“Acho que está muito chateado. Acho que devemos ter o mesmo conceito de privacidade para suas conversas com a IA que fazemos com um terapeuta ou o que quer que seja – e ninguém teve que pensar nisso há um ano”, disse Altman.

A empresa entende que a falta de privacidade pode ser um bloqueador para uma aceitação mais ampla dos usuários. Além da pergunta da IA para tantos dados on -line durante o período de treinamento, somos solicitados a produzir dados de usuários em alguns contextos legais. A Openai já lutou contra uma ordem judicial em seu processo com o New York Times, para o qual seria necessário salvar as bate -papos de centenas de milhões de usuários de chatgpt em todo o mundo, exclusivamente os de clientes ChatGPT -Entreepreerest.

Evento do TechCrunch

São Francisco
|
27-29 de outubro de 2025

Em um comunicado em seu site, o Openai disse que agrada a essa ordem, que a chamou de “uma faixa excessiva”. Se o Tribunal puder transferir suas próprias decisões da OpenAI em torno da DataPrivacy, poderá abrir a empresa para uma demanda adicional por fins de descoberta legal ou aplicação da lei. As empresas de tecnologia de hoje são convocadas regularmente para os dados do usuário para ajudar nos processos criminais. Mas, nos anos mais recentes, houve preocupações extras sobre dados digitais, porque as leis começaram a limitar o acesso a liberdades estabelecidas anteriormente, como o direito de uma mulher escolher.

Por exemplo, quando o ROE da Suprema Corte v. Wade destruiu, os clientes começaram a mudar para mais aplicativos para traçar o período privado ou a Apple Health, que codificou seus dados.

Altman perguntou ao apresentador do podcast sobre seu próprio chatgpt -se, já que Von disse que não havia falado muito com o AI Chatbot por causa de seus próprios problemas de privacidade.

“Acho que faz sentido … realmente querer que a privacidade realmente use antes de você (chatgpt) usar muito – como a clareza legal”, disse Altman.

Fuente