A décima quarta Conferência Internacional sobre Representação de Aprendizagem (ICLR) termina hoje no Rio de Janeiro, encerrando quase uma semana de apresentações, debates e mostras de pesquisa dos principais cientistas de IA da academia e da indústria de tecnologia, incluindo a Apple. Aqui está o que a empresa apresentou.
A Apple apresentou dezenas de estudos no ICLR 2026
Embora o ICLR possa não ser amplamente conhecido pelo público em geral, tem sido considerado há mais de uma década como uma das conferências mais renomadas e prestigiadas em aprendizado de máquina.
Este ano, ocorreu de 23 a 27 de abril e ocupou os quatro pavilhões e o centro de conferências do Centro de Convenções Riocentro, no Rio de Janeiro. O ICLR 2026 atraiu especialistas e pesquisadores em aprendizado de máquina e inteligência artificial (incluindo Yann LeCun da AMI Labs) de todo o mundo, da China à Índia, aos Estados Unidos e de toda a Europa.
Também reuniu grandes empresas de tecnologia como patrocinadores e expositores, incluindo Amazon, Tencent, Google, Microsoft, Ant Group, ByteDance, Huawei, Meta, Salesforce, Shopify e Apple, bem como empresas de Wall Street e da indústria financeira em geral, como Capital One, Jane Street, Citadel e outras.
Como a Apple anunciou há poucos dias, a empresa teve um estande no evento, onde apresentou o apple sharp 9to5mac, um impressionante modelo de código aberto que transforma imagens 2D em espaços 3D em apenas alguns segundos, bem como inferência LLM no MLX, a estrutura de código aberto da Apple para tarefas de aprendizado de máquina executadas no Apple Silicon.



O estande da Apple também funcionou como um centro de recrutamento, com iPads configurados para os participantes lerem códigos QR e se candidatarem a funções de aprendizado de máquina no local. Isso não foi de forma alguma exclusivo da Apple, já que a maioria das empresas presentes também estava usando o evento como um canal de contratação de talentos em IA.
O ICLR também contou com gigantescas áreas de pôsteres, onde pesquisadores apresentaram seus trabalhos e responderam perguntas sobre seus estudos. Durante o evento, a Apple apresentou dezenas de artigos, que você pode encontrar aqui.





A Apple também realizou apresentações e workshops sobre alguns dos estudos aceitos na conferência. Isso incluiu ParaRNN: Unlocking Parallel Training of Nonlinear RNNs for Large Language Models, apresentado por Federico Danieli, e Cram Less to Fit More: Training Data Pruning Melhora a Memorização de Fatos, apresentado por Vitaly Feldman.


Para saber mais sobre os estudos da Apple apresentados no ICLR 2026, siga este link.
Vale a pena conferir na Amazon


FTC: Usamos links de afiliados automotivos para geração de renda. Mais.



