Início Tecnologia Abordando o WWDC, os pesquisadores da Apple contestam as declarações que a...

Abordando o WWDC, os pesquisadores da Apple contestam as declarações que a IA é capaz de raciocinar

30
0
Abordando o WWDC, os pesquisadores da Apple contestam as declarações que a IA é capaz de raciocinar | Renderizar o teclado da maçã com a tecla

Enquanto a Apple permaneceu por trás da curva em termos de características de inteligência artificial que a empresa realmente lançou, seus pesquisadores continuam trabalhando na vanguarda do que está por aí.

Em um novo documento, eles questionam as declarações sobre alguns dos mais recentes modelos de inteligência artificial: que são realmente capazes de passo a passo. A Apple diz que seus testes mostram que isso simplesmente não é verdade …

Embora se reconheça que os modelos para o generativo convencional, também conhecido como grandes modelos linguísticos (LLM), não têm capacidade de raciocinar, algumas empresas de IA estão argumentando que uma nova geração de modelos pode. Estes são indicados como grandes modelos de raciocínio (LMS).

Eles cresceram com as tentativas de “mostrar seu trabalho”, ou seja, a disposição das etapas individuais adotadas para chegar às suas conclusões. A idéia é que, se uma inteligência artificial puder ser forçada a desenvolver uma cadeia de pensamento e dar as coisas um passo de cada vez, isso os impedirá de inventar as coisas completamente ou sair dos trilhos em um determinado ponto de suas declarações.

Algumas ótimas declarações foram feitas para essa abordagem, mas um novo documento de pesquisa da Apple chama isso de “ilusão de pensamento”. Eles argumentam que testar uma série de LRM mostra que seu “raciocínio” rapidamente cai, mesmo com desafios lógicos relativamente simples que são fáceis de resolver algoritmicamente, como a Hanói Puzzle Tower.

Torre di Hanói é um quebra -cabeça com três discos de diferentes tamanhos empilhados no primeiro pino em ordem de dimensões (maiores na parte inferior). O objetivo é transferir todos os registros do primeiro Piolo para o terceiro Piolo. Os movimentos válidos incluem o deslocamento de apenas um disco de cada vez, tirando apenas o disco superior de um pino e
Nunca coloque um disco maior em cima de um menor.

É possível criar versões mais simples ou mais complexas do jogo, variando o número de discos.

O que eles descobriram é que os LRMs são realmente piores do que o LLM nas versões mais simples do quebra -cabeça, elas são um pouco, mas não dramaticamente melhores, quando mais discos são adicionados, então falham completamente com mais de oito discos.

Problemas simples (n = 1-3) mostram precisão antecipada que diminui com o tempo (pensamento excessivo), problemas moderados (n = 4-7) mostram uma ligeira melhora da precisão com raciocínio contínuo e problemas complexos (N em vez disso) mostram precisão constantemente próximas a zero, indicando uma falha de raciocínio completo, o que significa que o modelo não pode gerar nenhuma solução correta em zero.

De fato, eles mostraram que os LRMs também falham quando o algoritmo necessário para resolvê -lo! Eles dizem que esses resultados questionam declarações sobre os mais recentes modelos de inteligência artificial.

Essas intuições desafiam os pré -requisitos predominantes para as habilidades do LRM (…) Nossos resultados revelam limites fundamentais nos modelos atuais: apesar dos sofisticados mecanismos de auto -reflexão, esses modelos são incapazes de desenvolver uma capacidade razoável generalizada, bem como certos limites de complexidade.

O professor emérito de psicologia e ciências neurais de Nova York, Gary Marcus – que há muito argumentou que os LRMs são incapazes de raciocinar – ele disse que mostra que devemos ir além da esperança de que tornar o LLM cada vez mais capaz de que no final envolva inteligência.

Quem pensa que o LLMS é um caminho direcionado para o tipo de AGI que poderia basicamente transformar a sociedade para o bem está brincando. Isso não significa que o campo das redes neurais esteja morto ou que o aprendizado profundo esteja morto. Os LLMs são apenas uma forma de aprendizado profundo, e talvez outros, especialmente aqueles que jogam os mais bonitos com os símbolos – acabam por morder. O tempo dirá isso. Mas essa abordagem em particular tem limites claros do dia a dia.

Foto de BoliviaInteligent no USPLASH

FTC: Usamos conexões de afiliação automática para obter renda. Além disso.



Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here