Os pesquisadores da Apple descobriram “limitações fundamentais” em modelos avançados de inteligência artificial, em um artigo que evoca dúvidas sobre a raça da indústria de tecnologia para desenvolver sistemas cada vez mais poderosos.
A Apple disse em um artigo publicado durante o fim de semana que grandes modelos de raciocínio (LRMS) – uma forma avançada de IA – foram confrontados com um “colapso de precisão total” quando apresentaram problemas muito complexos.
Aconteceu que os modelos de IA padrão tiveram um desempenho melhor do que o LRMS para tarefas com baixa complexidade, enquanto ambos os tipos de membros do modelo “colapso completo” com tarefas de alta complexidade. Grandes modelos de raciocínio tentam resolver pesquisas complexas, gerando processos de pensamento detalhados que quebram o problema em etapas menores.
O estudo, que testou o poder dos modelos para resolver quebra -cabeças, acrescentou que, à medida que o LRMS abordou o desconto de desempenho, eles começaram a “reduzir seu esforço de raciocínio”. Os pesquisadores da Apple disseram que encontraram isso “principalmente preocupado”.
Gary Marcus, um acadêmico americano que se tornou uma voz proeminente de cautela sobre as possibilidades dos modelos de IA, descreveu o Apple Paper como “bastante devastador”. Marcus acrescentou que as descobertas levantaram questões sobre a Race for Artificial General Intelligence (AGI), uma fase teórica da IA na qual um sistema pode corresponder a uma pessoa na execução de uma tarefa intelectual.
Referindo -se aos grandes modelos de idiomas (LLMS) que comprovam ferramentas como ChatGPT, Marcus escreveu: “Todo mundo que acha que o LLMS é uma rota direta para o tipo de (de) AGI que poderia transformar fundamentalmente a sociedade para a boa piada”.
O artigo também mostrou que os modelos de raciocínio desperdiçaram o poder de computação ao encontrar a solução certa para problemas mais simples no início de seu “pensamento”. No entanto, à medida que os problemas se tornaram um pouco mais complexos, os modelos investigaram soluções incorretas primeiro e depois chegaram ao certo.
Para problemas com maior complexidade, no entanto, os modelos entrariam em “colapso”, para que eles não gerassem soluções corretas. Em um caso, mesmo quando fornecido com um algoritmo que resolveria o problema, os modelos falharam.
De Paper disse: “Ao abordar um limiar crítico – que corresponde de perto à sua precisão, os modelos estão começando a reduzir seus esforços de raciocínio, apesar do aumento dos problemas de problemas”.
Os especialistas da Apple disseram que isso indicava uma “restrição de escala fundamental nas opções de pensamento dos modelos atuais de raciocínio”.
O artigo definiu os desafios do quebra -cabeça do LRMS, como resolver a torre de Hanói e quebra -cabeças de cruzamento do rio. Os pesquisadores reconheceram que o foco nos quebra -cabeças era uma limitação no trabalho.
Passe a promoção do boletim informativo
Um mergulho semanal em como a tecnologia projeta nossas vidas
Notificação de privacidade: Os boletins podem conter informações sobre instituições de caridade, anúncios on -line e conteúdo financiados por partes externas. Consulte nossa Política de Privacidade para obter mais informações. Usamos o Google Recaptcha para proteger nosso site e a Política de Privacidade do Google e as condições de serviço se aplicam.
Após a promoção do boletim informativo
O artigo concluiu que a abordagem atual da IA pode ter atingido limitações. Ele testou os modelos, incluindo o Open O3, o Gemini Thinking, do Google, o Claude 3,7 com pensamento de sonetos e Deepseek-R1 da Anthrópica. Antrópico, Google e Deepseek são contatados para comentar. O Openai, a empresa por trás do ChatGPT, se recusou a comentar.
Referindo -se ao “raciocínio generalizável” – ou à capacidade de um modelo de IA de aplicar uma conclusão assustadora em um sentido mais amplo – o jornal disse: “Essas idéias que dominam suposições dominantes sobre as opções de LRM e sugerem que as abordagens atuais podem encontrar obstáculos fundamentais para o raciocínio generalizável”.
Andrew Rogoyski, do Instituto de AI Vroado de Pessoas da Universidade de Surrey, disse que o papel da Apple indicava que a indústria “ainda se sentia” com a AGI e que a indústria poderia ter atingido um “beco sem saída” em sua abordagem atual.
“A descoberta de que os grandes motivos perdem o enredo em problemas complexos, enquanto se apresentam bem em problemas médios e de baixa complexidade que estamos em um potencial beco sem saída nas abordagens atuais”, disse ele.