Início Tecnologia O novo modelo GPT-5.3 Instant do ChatGPT deixará de dizer para você...

O novo modelo GPT-5.3 Instant do ChatGPT deixará de dizer para você se acalmar

21
0
ChatGPT logo

Respire, pare de espiralar. Você não está louco, você está apenas estressado. E honestamente, tudo bem.

Se você se sentiu imediatamente estimulado ao ler essas palavras, provavelmente também está cansado de ver o ChatGPT falando constantemente com você, como se você estivesse em algum tipo de crise e precisasse de um tratamento delicado. Agora, as coisas podem estar melhorando. A OpenAI afirma que seu novo modelo, GPT-5.3 Instant, reduzirá o “constrangimento” e outras “isenções de responsabilidade enfadonhas”.

De acordo com as notas de lançamento do modelo, a atualização GPT-5.3 se concentrará na experiência do usuário, incluindo coisas como tom, relevância e fluxo de conversação – áreas que podem não aparecer nos benchmarks, mas podem tornar o ChatGPT frustrante, disse a empresa.

Ou, como a OpenAI colocou no X, “Ouvimos seu feedback em alto e bom som, e o 5.3 Instant reduz o constrangimento”.

No exemplo da empresa, ela mostrou a mesma consulta com respostas do modelo GPT-5.2 Instant em comparação com o modelo GPT-5.3 Instant. No primeiro caso, a resposta do chatbot começa: “Em primeiro lugar, você não está quebrado”, uma frase comum que tem incomodado a todos ultimamente.

No modelo atualizado, o chatbot reconhece a dificuldade da situação, sem tentar tranquilizar diretamente o usuário.

O tom insuportável do modelo 5.2 do ChatGPT tem incomodado os usuários a tal ponto que alguns até cancelaram suas assinaturas, de acordo com inúmeras postagens nas redes sociais. (Foi um grande ponto de discussão no Reddit do ChatGPT, por exemplo, antes do acordo com o Pentágono roubar o foco.)

As pessoas reclamaram que esse tipo de linguagem, em que o bot fala com você como se presumisse que você está em pânico ou estressado quando estava apenas em busca de informações, parece condescendente.

Freqüentemente, o ChatGPT respondia aos usuários com lembretes para respirar e outras tentativas de tranquilização, mesmo quando a situação não justificava isso. Isso fez com que os usuários se sentissem infantilizados, em alguns casos, ou como se o bot estivesse fazendo suposições sobre o estado mental do usuário que simplesmente não eram verdadeiras.

Como apontou recentemente um usuário do Reddit, “ninguém jamais se acalmou em toda a história de dizer a alguém para se acalmar”.

É compreensível que a OpenAI tente implementar algum tipo de proteção, especialmente porque enfrenta vários processos judiciais que acusam o chatbot de levar as pessoas a experimentar efeitos negativos na saúde mental, que às vezes incluíam suicídio.

Mas existe um equilíbrio delicado entre responder com empatia e fornecer respostas rápidas e factuais. Afinal, o Google nunca pergunta sobre seus sentimentos quando você procura informações.

Fuente