Shawn Shen acredita que a IA precisará lembrar o que vê para ter sucesso no mundo físico. A empresa Memories.ai de Shen está usando ferramentas de IA da Nvidia para construir a infraestrutura para wearables e robótica serem capazes de lembrar e recuperar memórias visuais.
Memories.ai anunciou uma colaboração com a gigante de semicondutores Nvidia em sua conferência GTC na segunda-feira. Através desta parceria, Memories.ai utiliza o Cosmos Reason 2 da Nvidia, um modelo de linguagem de visão de raciocínio, e o Nvidia Metropolis, um aplicativo para pesquisa e resumo de vídeos, para continuar a desenvolver sua tecnologia de memória visual.
Shen (foto acima à esquerda) disse ao TechCrunch que ele e seu cofundador e CTO Ben Zhou (foto acima à direita) tiveram a ideia da empresa enquanto construíam o sistema de IA por trás dos óculos RayBan da Meta. Construir os óculos de IA os fez pensar em como as pessoas realmente usariam a tecnologia na vida real se os usuários não conseguissem recuperar os dados de vídeo que estavam gravando.
Eles olharam em volta para ver se conseguiam encontrar alguém que já estivesse construindo esse tipo de solução de memória visual para IA. Quando não conseguiram, decidiram sair do Meta e construí-lo sozinhos.
“A IA já está indo muito bem no mundo digital, e o mundo físico?” Shen disse. “Os wearables de IA e a robótica também precisam de memórias. … Em última análise, você precisa de IA para ter memórias visuais. Acreditamos nesse futuro.”
A capacidade de os sistemas de IA lembrarem, em geral, é relativamente nova. A OpenAI atualizou o ChatGPT para começar a lembrar bate-papos anteriores em 2024 e aprimorou esse recurso em 2025. O xAI de Elon Musk e o Google Gemini também lançaram suas próprias ferramentas de memória nos últimos dois anos.
Mas esses avanços concentraram-se principalmente na memória baseada em texto, disse Shen. A memória baseada em texto é muito mais estruturada e fácil de indexar, mas não é tão útil para aplicações físicas de IA que interagem amplamente com o mundo através da visão e do visual.
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
Memories.ai foi lançado em 2024 e arrecadou US$ 16 milhões até agora, por meio de uma rodada inicial de US$ 8 milhões em julho de 2025 e uma extensão de US$ 8 milhões. A rodada foi liderada pela Susa Ventures e incluiu Seedcamp, Fusion Fund e Crane Venture Partners, entre outros.
Shen disse que a construção bem-sucedida dessa camada de memória visual exigiu duas coisas: construir a infraestrutura necessária para incorporar e indexar vídeos em um formato de dados que possa ser armazenado e recuperado, e capturar os dados necessários para treinar o modelo para fazer exatamente isso.
A empresa lançou seu grande modelo de memória visual (LVMM) em julho de 2025. Shen disse que poderia ser comparado a uma versão menor do Gemini Embedding 2, um modelo multimodal de indexação e recuperação, lançado no início deste mês.
Para a coleta de dados, a empresa criou o LUCI, um dispositivo de hardware usado pelos “coletores de dados” da empresa que grava o vídeo usado para treinar o modelo. Shen disse que eles não planejam se tornar uma empresa de hardware, nem vender esses dispositivos, mas sim que construíram os seus próprios porque não estavam satisfeitos com gravadores de vídeo disponíveis no mercado, focados em alta definição e formatos de vídeo que consomem bateria.
A empresa lançou a segunda geração deste LVMM e assinou parceria com a Qualcomm para rodar nos processadores da Qualcomm a partir do final deste ano.
Memories.ai também já está trabalhando com algumas das grandes empresas de wearables, disse Shen, mas se recusou a revelar quais. Apesar de alguma demanda agora, Shen vê oportunidades ainda maiores em wearables e robótica que ainda estão por vir.
“Em termos de comercialização, estamos mais focados no modelo e na infraestrutura, porque, em última análise, acreditamos que o mercado de wearables e robótica chegará, mas provavelmente não será agora”, disse Shen.



