Este pequeno artigo foi realmente atualizado com a observação da orientação principal na reivindicação de mortalidade por negligência da família Raine contra o OpenAI.
O Openai afirmou na terça-feira que se prepara para entrar em discussões delicadas para versões de pensamento como o GPT-5 e apresentar controles adultos no mês seguinte-componente de um feedback recorrente aos casos de segurança atuais, incluindo o Chatgpt, parando de trabalhar para identificar sofrimento psicológico.
Os novos corrimãos podem ser encontrados nos efeitos posteriores da autodestruição do adolescente Adam Raine, que passou por si mesmo e se prepara para terminar sua vida com o ChatGPT, o que também lhe proporcionou informações sobre abordagens específicas de autodestruição. As mães e os pais de Raine realmente enviaram uma reivindicação por mortalidade por negligência contra o Openai.
Em um artigo recentemente, o OpenAI reconheceu desvantagens em seus sistemas de segurança, consistindo em falhas em manter o Guardrails durante as discussões expandidas. Os especialistas associam essas preocupações aos componentes do estilo básico: a propensão das versões a confirmar as declarações individuais e suas fórmulas de previsão da próxima palavra, que desencadeiam os chatbots a aderir às cordas conversacionais em oposição a redirecionar possivelmente conversas perigosas.
Essa propensão é apresentada ao extremo quando se trata de Stein-Erik Soelberg, cujo assassinato-suicídio foi relatado pelo Wall Surface Road Journal no fim de semana. Soelberg, que tinha um histórico de doenças mentais, fez uso do Chatgpt para confirmar e sustentar seu medo de que ele estivesse sendo alvo de uma grande teoria da conspiração. Seus conceitos errôneos procederam tão terrivelmente que ele acabou eliminando sua mãe e a si mesmo no mês passado.
O OpenAI acredita que um mínimo de uma opção para discussões que saem dos trilhos podem ser para redirecionar imediatamente conversas delicadas para versões “pensando”.
“Recentemente, apresentamos um roteador em tempo real que pode escolher entre versões confiáveis de conversas e versões de pensamento com base no contexto de discussão”, o OpenAI composto em um artigo de terça-feira. “Vamos começar rapidamente a seguir algumas discussões delicadas-como quando nosso sistema encontrar indicações de intensa angústia-para um design de pensamento, como o GPT-5-pensando, para que possa oferecer feedbacks ainda mais úteis e úteis, independentemente do design de um indivíduo escolhido pela primeira vez”.
O OpenAI afirma que seu raciocínio do GPT-5 e as versões O3 são construídas para investir ainda mais tempo, assumindo mais tempo e pensando no contexto antes do abordagem, o que sugere que eles são “muito mais imunes a motivados adversários”.
A empresa de IA também afirmou que certamente seria controles adultos no mês seguinte, permitindo que mães e pais conectassem sua conta à conta do adolescente com um convite por e-mail. No final de julho, o OpenAI fez o cenário de estudo de pesquisa no ChatGPT para ajudar os estagiários a manter importantes assumindo capacidades enquanto examinam, em vez de tocar o Chatgpt para compor seus ensaios para eles. Rapidamente, mães e pais certamente terão a capacidade de regular exatamente como o ChatGPT responde ao seu jovem com “diretrizes de ações de design apropriadas à idade, que acontecem por padrão”.
Os pais certamente terão a capacidade de desativar funções como memória e formação de conversas, que os profissionais afirmam causar raciocínio ilusório e várias outras ações incômodas, consistindo de dependência e preocupações adicionais, apoio a padrões de idéias perigosas e a impressão de leitura do pensamento. Quando se trata de Adam Raine, Chatgpt forneceu abordagens para dedicar autodestruição que espelhava a compreensão de seus passatempos, de acordo com o New York City Times.
Talvez um dos controles adultos mais vitais que o OpenAi significa que Moms e Dads podem obter alertas quando o sistema achar que seu adolescente permanece em um minuto de “intensa angústia”.
A TechCrunch realmente pediu ao OpenAI mais detalhes sobre exatamente como a empresa tem a capacidade de sinalizar minutos de intensa angústia no tempo real, quanto tempo ele realmente teve “diretrizes de ações de design apropriadas para a idade” por padrão e se está checando que as mães e os pais executem um quadro de tempo em que os adolescentes usam chatgpt.
Atualmente, o OpenAI apareceu no aplicativo em sessões longas para instar quebras para todos os indivíduos, mas diminui a redução de indivíduos que podem estar usando o ChatGPT para espiral.
A empresa de IA afirma que essas salvaguardas pertencem a um “esforço de 120 dias” para se preparar para as reformas que o OpenAI deseja lançar este ano. Da mesma forma, a empresa afirmou que está em parceria com profissionais- consistindo em conhecimentos em locais como consumir problemas, uso de materiais e saúde e bem-estar adolescentes- por meio de sua rede mundial de médicos e Conselho Profissional de Saúde e IA para ajudar “especificar e determinar o bem-estar, estabelecer preocupações e estilizar futuras salvaguardas”.
A TechCrunch realmente perguntou ao OpenAI a quantidade de especialistas em saúde e bem -estar psicológicos estão associados a esse esforço, que lidera seu Conselho Profissional e que idéias os profissionais de saúde e bem -estar psicológicos realmente fizeram em relação aos itens, estudos de pesquisa e escolhas de plano.
Jay Edelson, liderança da reivindicação de mortalidade por negligência da família Raine contra o Openai, afirmou que o feedback da empresa às ameaças contínuas da segurança do ChatGPT foi realmente “insuficiente”.
“O OpenAI não exige um painel profissional para identificar que o ChatGPT 4O ameaça”, afirmou Edelson em uma declaração mostrada em TechCrunch. “Eles entenderam que o dia em que introduziram o item e o entendem hoje. Nem Sam Altman deve estar escondendo por trás do grupo de relações públicas da empresa. Sam deve declarar inquestionavelmente que ele acha que o ChatGPT é livre de riscos ou imediatamente desenhe-o do mercado”.
Tem uma sugestão delicada ou arquivos privados? Estamos relatando as funções internas do mercado de IA- desde as empresas que formam seu futuro até os indivíduos afetados por suas escolhas. Conecte -se a Rebecca Bellan em Rebecca.bellan@techcrunch.com e Maxwell Zeff em maxwell.zeff@techcrunch.com. Para uma interação segura, você pode nos ligar por meio de sinal em @rebeccabellan.491 e @mzeff.88.
.
Fuente