Início Tecnologia Por que o ex-líder do estudo de IA de Cohere está apostando...

Por que o ex-líder do estudo de IA de Cohere está apostando contra a corrida em escala

29
0
Por que o ex-líder do estudo de IA de Cohere está apostando contra a corrida em escala

Os laboratórios de IA estão competindo para desenvolver instalações de informação tão grandes quanto Manhattan, cada uma custando bilhões de dólares e consumindo tanta energia quanto uma pequena cidade. A iniciativa é impulsionada por uma ideia profunda de “escalonamento” – o conceito de que a inclusão de ainda mais poder computacional nas técnicas de treinamento de IA existentes produzirá, em algum momento, sistemas superinteligentes eficientes na realização de todos os tipos de trabalhos.

No entanto, um número cada vez maior de cientistas de IA afirma que o dimensionamento de grandes designs de linguagem pode estar atingindo seus limites, e que vários outros desenvolvimentos podem ser necessários para aumentar o desempenho da IA.

Essa é a aposta que Sara Hooker, ex-vice-presidente de estudos de IA da Cohere e ex-aluna do Google Mind, está fazendo com sua nova start-up, Adaption Labs. Ela foi cofundadora da empresa com o colega Cohere e o especialista do Google, Sudip Roy, e melhorou a ideia de que o dimensionamento de LLMs acabou sendo uma maneira ineficaz de obter ainda mais eficiência dos projetos de IA. Hooker, que deixou Cohere em agosto, revelou silenciosamente a start-up este mês para começar a contratar de forma mais geral.

Estou começando um novo trabalho.

Lidar com o que considero ser o problema mais importante: desenvolver dispositivos presumidos que se ajustem e aprendam continuamente.

Temos uma habilidade inacreditável que o grupo inicial + está empregando para design, operações e estilo.

Junte-se a nós: https://t.co/eKlfWAfuRy

-Sara Hooker (@sarahookr) 7 de outubro de 2025

Em uma reunião com o TechCrunch, Hooker afirma que o Adaption Labs está desenvolvendo sistemas de IA que podem ajustar e aproveitar continuamente suas experiências do mundo real, e fazê-lo com excepcionalmente sucesso. Ela se recusou a compartilhar informações sobre as técnicas por trás dessa estratégia ou se a empresa conta com LLMs ou outro estilo.

“Há um fator de transformação atualmente em que está muito claro que a fórmula de simplesmente dimensionar esses projetos – métodos empilhados em escala, que são atraentes, mas excepcionalmente desinteressantes – não criou conhecimento que tenha a capacidade de navegar ou interagir com o mundo”, disse Hooker.

Adaptar-se é o “coração da descoberta”, segundo Hooker. Por exemplo, dê uma topada com o dedo do pé ao passar pela mesa da sala de jantar e você aprenderá a se inclinar com muito mais cuidado na próxima vez. Os laboratórios de IA tentaram registrar esse conceito com descoberta de suporte (RL), que permite que os projetos de IA corrijam seus erros em configurações regulamentadas. No entanto, as técnicas de RL atuais não ajudam os projetos de IA na fabricação – o que significa que os sistemas atualmente usados ​​pelos consumidores – a corrigir seus erros em tempo real. Eles simplesmente continuam batendo o dedo do pé.

Alguns laboratórios de IA usam soluções de contato para ajudar os empreendimentos a ajustar seus projetos de IA às suas necessidades personalizadas, mas isso tem um custo. Aparentemente, a OpenAI precisa que os consumidores invistam mais de US$ 10 milhões na empresa para usar suas soluções de consultoria no ajuste fino.

Evento Techcrunch

São Francisco
|
27 a 29 de outubro de 2025

“Temos um punhado de laboratórios de ponta que identificam esta série de designs de IA que são oferecidos de forma semelhante a todos os indivíduos e são muito caros para ajustar”, disse Hooker. “E realmente, acredito que isso não precisa mais ser real, e os sistemas de IA podem realmente captar com sucesso uma atmosfera. Confirmar isso transformará totalmente as características que regulam e formam a IA e, na verdade, que esses designs oferecem no final do dia.

Adaption Labs é a indicação mais recente de que a confiança do mercado na expansão de LLMs está flutuando. Um artigo recente de cientistas do MIT descobriu que os maiores projetos de IA do mundo podem em breve revelar retornos decrescentes. Os sentimentos em São Francisco também parecem comoventes. O podcaster favorito do mundo da IA, Dwarkesh Patel, recentemente manteve algumas discussões anormalmente hesitantes com cientistas renomados da IA.

Richard Sutton, um vencedor do prêmio Turing considerado “o pai da RL”, disse a Patel em setembro que os LLMs não podem variar totalmente porque não se baseiam na experiência da vida real. Este mês, Andrej Karpathy, um dos primeiros funcionários da OpenAI, disse a Patel que tinha compromissos sobre a capacidade de longo prazo da RL para impulsionar projetos de IA.

Esses tipos de ansiedade não são extraordinários. No final de 2024, alguns cientistas de IA levantaram preocupações de que o dimensionamento de projetos de IA com pré-treinamento – no qual os projetos de IA descobrem padrões em muitos conjuntos de dados – estava obtendo retornos decrescentes. Até depois disso, o pré-treinamento era, na verdade, o molho secreto para a OpenAI e o Google impulsionarem seus projetos.

Esses problemas de escala de pré-treinamento estão aparecendo atualmente nos dados, mas o mercado de IA descobriu várias outras maneiras de melhorar os designs. Em 2025, os desenvolvimentos em torno dos designs de pensamento de IA, que levam mais tempo e recursos computacionais para resolver problemas antes de responder, na verdade pressionaram ainda mais as habilidades dos designs de IA.

Os laboratórios de IA parecem convencidos de que a ampliação dos projetos de pensamento de RL e IA é a nova fronteira. Cientistas da OpenAI informaram anteriormente ao TechCrunch que desenvolveram seu primeiro design de pensamento de IA, o1, porque presumiram que certamente aumentaria bem. Cientistas do Meta and Routine Labs publicaram recentemente um artigo descobrindo como a RL pode aumentar ainda mais o desempenho – um estudo que aparentemente custou mais de US$ 4 milhões, enfatizando o quão caros os métodos atuais ainda são.

O Adaption Labs, em comparação, pretende localizar o seguinte desenvolvimento e mostrar que aprender com a experiência pode ser muito menos dispendioso. A start-up ainda está em negociação para aumentar uma rodada inicial de US$ 20 milhões a US$ 40 milhões antes dessa perda, de acordo com três financiadores que avaliaram suas apresentações. Eles afirmam que a rodada realmente fechou, embora o número final seja incerto. Hooker diminuiu para comentar.

“Estamos determinados a ser muito entusiasmados”, afirmou Hooker, quando questionada sobre seus financiadores.

Hooker anteriormente liderou o Cohere Labs, onde treinou pequenos projetos de IA para instâncias de uso comercial. Os sistemas portáteis de IA atualmente superam regularmente seus equivalentes maiores em padrões de codificação, matemática e pensamento – um padrão que Hooker pretende continuar pressionando.

Ela também construiu uma reputação online por ampliar a acessibilidade ao estudo de IA em todo o mundo, empregando habilidades de estudo em áreas sub-representadas, como a África. Embora o Adaption Labs certamente abra um local de trabalho em São Francisco em breve, Hooker afirma que se prepara para empregar globalmente.

Se Hooker e Adaption Labs forem apropriados em relação às restrições de escala, as ramificações podem ser significativas. Na verdade, bilhões já foram adquiridos em escala de LLMs, com a presunção de que projetos maiores certamente resultarão em conhecimento básico. No entanto, é possível que a descoberta verdadeiramente flexível possa revelar-se não apenas muito mais eficaz – mas ainda mais eficaz.

Marina Temkin adicionou relatórios.

.

Fuente