Início Tecnologia 3 Destaques do workshop atual da Apple sobre manuseio de idiomas naturais

3 Destaques do workshop atual da Apple sobre manuseio de idiomas naturais

25
0
O Reddit é spampado pelos robôs da IA, e é tudo culpa do Reddit | Imagem conceitual de uma fileira de robôs poderosos

Alguns meses atrás, a Apple realizou uma ocasião de dois dias que incluía palestras e revistas sobre as melhorias mais atualizadas no manuseio natural de idiomas (PNL). Hoje, a empresa divulgou um artigo com vários destaques e todos os estudos fornecidos. Abaixo está o resumo.

O workshop sobre linguagem natural e soluções interativas 2025 aconteceu de 15 a 16 de maio, e as palestras e revistas concentraram-se em 3 locais de estudo vitais conectados à PNL:

  • Sistemas interativos de linguagem natural
  • Treinamento e alinhamento de LLM
  • Agentes de idiomas

Durante a ocasião, vários cientistas de faculdades, institutos, laboratórios e equipes de estudo, composta pelo Instituto Allen para a IA, Universidade Imperial de Londres, MIT, Harvard College, Stanford College e Princeton College, forneceram seu trabalho mais recente.

Vários desses cientistas operam adicionalmente no mercado, em negócios que consistem na Microsoft, Amazon, Sony, Google, Tencent, Coere e, naturalmente, da Apple.

Abaixo estão alguns destaques das negociações e um link da web totalmente de verificação de videoclipes e documentos fornecidos na ocasião.

1) Versão da IA ​​colapso e encontrando alucinações LLM

Estes foram dois estudos de pesquisa fornecidos por Yarin Girl, professora associada da Faculdade de Oxford e supervisor de estudo do Reino Unido Instituto de Proteção.

A versão inicial da AI entra em colapso, verificou exatamente como há uma restrição a quanto tempo a Internet certamente atuará como um recurso sensato de informação para o treinamento de LLM, porque o uso elevado desses projetos certamente resultará em um material gerado por modelos ainda mais lançado na Internet.

Ele descreveu que, embora o treinamento de LLMs em tais informações artificiais possa apresentar uma ameaça de colapso, pois certamente afetará suas habilidades de compreensão e pensamento, isso pode ser resolvido com o avanço de dispositivos novos para comparar o material gerado pela IA e a cultura de LLMs, além de muito melhores leis e atualizar a cultura de LLMs.

Sua segunda pesquisa, identificando alucinações de LLM, sugere um método único para determinar o grau de autoconfiança do LLM, pois cria várias seções de uma resposta. Basicamente, o conceito é fazer com que o design crie várias respostas e, depois disso, reunir essas respostas por significado semântico. Isso certamente permitiria uma estimativa exata extra do grau de garantia e precisão da solução, e é uma estrutura que pode ser ajustada para discussões ainda mais longas.

2) Apoie o entendimento para agentes LLM interativos de longo horizonte

Essa palestra, fornecida pelo cientista da Apple Artificial Intelligence Kevin Chen, mostrou um representante que seu grupo educou sobre uma abordagem chamada Otimização de Plano Proximal de Leave-One-Out

O representante foi educado para realizar trabalhos de várias etapas, com base em motivados como este conjunto:

‘Eu aconteceu uma jornada com amigos para Maui recentemente. Na verdade, preservei uma nota de dinheiro que devo aos outros e outros me devem da jornada em nota direta. Faça pagamentos exclusivos de Venmo ou demandas conforme necessário. Nos pagamentos/solicitações, inclua uma nota, “para Maui Journey”. ‘

Durante os cinquenta por cento inicial da palestra, Chen revelou que, como esse trabalho implicava várias estruturas e compreensão de idéias, um representante não poderia ter a capacidade de fazer com precisão o que foi solicitado. No entanto, com a brecha, que ganha iterativamente de suas próprias atividades anteriores e é educado para otimizar seu incentivo à medida que se observa, a demanda foi cometida com menos erros e presunções.

Chen também descreve que o design foi educado em 24 circunstâncias, mas tem restrições, como não sustentar comunicações individuais de várias turnos.

3) Streaming especulativo: Rapid LLM Raciocínio sem modelos de acessórios

Essa palestra, do supervisor de design da Apple e líder técnico Irina Belousova, mostrou as vantagens da decodificação especulativa, o que permite um meio computacionalmente mais acessível para criar respostas com um pequeno design que é tão premium quanto os criados por grandes designs.

Basicamente, o pequeno design cria uma série de respostas em prospecção, que são seguidas por um grande design. Se o design aprovar a solução, seu trabalho será realizado. Isso permite muito menos uso da memória, eficiência mais rápida e exige menos especificações quando contrastadas com projetos comparáveis.

Além disso, esse método “simplifica a liberação ao se livrar da complexidade do manuseio, alinhamento e alteração entre vários projetos ao longo do raciocínio”, o que sugere que ele exige instalações menos complexas.

Esta pesquisa específica fornece muitas informações tecnológicas que merecem examinar. A discussão tem simplesmente mais de 8 minutos de comprimento, mas fornece entendimentos realmente fascinantes.

Clique neste link para dar uma olhada nos clipes de vídeo destacados da Apple e consulte a lista de verificação completa dos estudos de pesquisa da ocasião.

Pechinchas de dispositivos na Amazon

FTC: Utilizamos os ganhos que ganham links da Web Associate de veículos. Muito mais.

.

Fuente