Na quinta-feira, a OpenAI lançou um GPT-5.4, um novo modelo básico anunciado como “nosso modelo de fronteira mais capaz e eficiente para o trabalho profissional”. Além da versão padrão, o GPT-5.4 também está disponível como modelo de raciocínio (GPT-5.4 Thinking) ou otimizado para alto desempenho (GPT-5.4 Pro).
A versão API do modelo estará disponível com janelas de contexto de até 1 milhão de tokens, de longe a maior janela de contexto disponível na OpenAI.
A OpenAI também enfatizou a melhoria da eficiência dos tokens, dizendo que o GPT-5.4 foi capaz de resolver os mesmos problemas com significativamente menos tokens do que seu antecessor.
O novo modelo vem com resultados de benchmark significativamente melhorados, incluindo pontuações recordes nos benchmarks de uso de computador OSWorld-Verified e WebArena Verified. O novo modelo também obteve um recorde de 83% no teste GDPval da OpenAI para tarefas de trabalho de conhecimento.
O GPT-5.4 também assumiu a liderança no benchmark APEX-Agents da Mercor, projetado para testar habilidades profissionais em direito e finanças, de acordo com um comunicado do CEO da Mercor, Brendan Foody.
“(GPT-5.4) é excelente na criação de resultados de longo prazo, como apresentações de slides, modelos financeiros e análises jurídicas”, disse Foody no comunicado, “oferecendo desempenho superior enquanto funciona mais rápido e com custo menor do que os modelos de fronteira competitivos”.
GPT-5.4 dá continuidade aos esforços da empresa para limitar alucinações e erros factuais. A OpenAI disse que o novo modelo tinha 33% menos probabilidade de cometer erros em reivindicações individuais quando comparado ao GPT 5.2, e as respostas gerais tinham 18% menos probabilidade de conter erros.
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
Como parte do lançamento, a OpenAI reformulou a forma como a versão API do GPT-5.4 gerencia a chamada de ferramentas, introduzindo um novo sistema chamado Tool Search. Anteriormente, os prompts do sistema estabeleciam definições para todas as ferramentas disponíveis ao chamar o modelo — um processo que poderia consumir muitos tokens à medida que o número de ferramentas disponíveis aumentasse. O novo sistema permite que os modelos procurem definições de ferramentas conforme necessário, resultando em solicitações mais rápidas e baratas em sistemas com muitas ferramentas disponíveis.
A OpenAI também incluiu uma nova avaliação de segurança para testar a cadeia de pensamento de seu modelo, o comentário contínuo fornecido pelo modelo para mostrar seu processo de pensamento por meio de tarefas de várias etapas. Os investigadores de segurança da IA há muito que se preocupam com o facto de os modelos de raciocínio poderem deturpar a sua cadeia de pensamento, e os testes mostram que isso pode acontecer nas circunstâncias certas.
A nova avaliação da OpenAI mostra que é menos provável que o engano aconteça na versão Thinking do GPT-5.4, “sugerindo que o modelo não tem a capacidade de esconder o seu raciocínio e que a monitorização do CoT continua a ser uma ferramenta de segurança eficaz”.



