Tem havido uma ótima paixão no que o laboratório de criadores de crentes de Mira Murati está se desenvolvendo com seus US $ 2 bilhões em financiamento de sementes e a equipe dos sonhos de cientistas anteriores do Openai que realmente se inscreveram no laboratório. Em um artigo divulgado na quarta -feira, o Laboratório de Estudos de Pesquisa de Murati ofereceu ao Globe sua primeira verificação entre seus empregos: desenvolver projetos de IA com reações reprodutíveis.
O post de estudo de pesquisa, rotulado como “batendo não determinismo no raciocínio LLM”, tenta descarregar a fonte do que apresenta a aleatoriedade nas reações de design da IA. Como exemplo, pergunte ao Chatgpt exatamente a mesma investigação algumas vezes e é mais provável que você obtenha uma grande variedade de soluções. Na verdade, isso foi aprovado principalmente no bairro de IA como realidade-os designs de IA de hoje se pensam em ser sistemas não determinísticos-mas acreditando que o laboratório dos criadores vê isso como uma questão compreensível.
Hoje, o Laboratório de Máquinas de Raciocínio está lançando nosso site de blog de pesquisa, Connectionism. Nosso primeiro post é “batendo nondeterminismo no raciocínio LLM”
Achamos que a pesquisa científica é muito melhor quando compartilhada. O conexão certamente cobrirá os assuntos como diferidos como nosso estudo de pesquisa é: de bit numéricos para … pic.twitter.com/jmfl3xt67c
– Os fabricantes acreditando (@ThinkyMachines) 10 de setembro de 2025
A postagem do blog, de autoria do cientista do laboratório de criadores de criadores, Horace Ele, sugere que a fonte da aleatoriedade dos projetos de IA é o meio da GPU bits- os pequenos programas que são executados no circuito integrado da NVIDIA- são costurados no manuseio de raciocínio (tudo que ocorre depois de você pressionar no chatgpt). Ele recomenda que, ao gerenciar meticulosamente essa camada de orquestração, é possível tornar os desenhos de IA muito mais determinísticos.
Passado Desenvolvendo reações muito mais confiáveis para negócios e pesquisadores, ele lembra que a obtenção de projetos de IA para criar reações reproduzíveis pode aumentar adicionalmente o treinamento de entendimento de suporte (RL). O RL é o procedimento de atender a projetos de IA para soluções apropriadas, mas se as soluções forem todas um pouco variadas, depois disso as informações obtêm um pouco alto. A produção de reações de design de IA muito mais constantes pode tornar todo o procedimento RL “mais suave”, segundo ele. O Laboratório dos Makers acreditou que realmente informou os capitalistas que pretende fazer uso da RL para adaptar os projetos de IA para empresas, informou as informações anteriormente.
Murati, o principal policial de inovação principal da Openai, afirmou em julho que o primeiro item do Laboratório de Máquinas de Raciocínio certamente será revelado nos próximos meses, o que certamente será “útil para cientistas e startups que criam designs personalizados”. Ainda não tem certeza o que é esse item ou se certamente fará uso de métodos deste estudo de pesquisa para criar reações ainda mais reprodutíveis.
O Laboratório de Criadores de Crados afirmou também que pretende liberar frequentemente post, código e vários outros detalhes sobre seu estudo de pesquisa em uma iniciativa de “lucrar com o público em geral, mas também impulsiona nossa própria sociedade de estudo de pesquisa”. Esta postagem no blog, a primeira da nova coleção de sites de blogs da empresa chamada “Connectionism”, parece ser componente dessa iniciativa. O OpenAI também dedicou uma dedicação a abrir o estudo de pesquisa quando foi estabelecido, mas o negócio passou a ser muito mais desligado à medida que se tornou maior. Vamos ver se o laboratório de estudo de pesquisa de Murati permanece real neste caso.
O site do Blog de estudo fornece uma espiada incomum entre as muitas start-ups de IA enganosas do Vale do Silício. Embora não divulgue especificamente para onde a inovação está indo, sugere que o laboratório de criadores de crença está lidando com algumas das maiores investigações sobre a fronteira do estudo de pesquisa de IA. O exame genuíno é se o laboratório de criadores de crença pode abordar essas questões e fazer itens em torno de seu estudo de pesquisa para validar sua avaliação de US $ 12 bilhões.
Evento do TechCrunch
São Francisco
|
27-29 de outubro de 2025