As sessões de desenvolvedores da Apple WWDC25 estão cheias de notícias interessantes que não obtiveram tempo na palestra ou no estado da apresentação do sindicato. Um em particular, destacado brevemente durante o que há de novo em Swiftui, poderia oferecer a primeira sugestão real sobre onde o Visionos está indo mais tarde.
Há alguns meses, Mark Gurman, da Bloomberg, relatou que a Apple estava preparando dois novos fones de ouvido Vision Pro. Um pretende ser mais leve e mais conveniente que a versão atual, enquanto o outro é considerado um dispositivo vinculado:
A outra auricular em desenvolvimento pode ser ainda mais intrigante. Em janeiro, relatei que a Apple havia demolido o trabalho em óculos de realidade aumentada que seriam vinculados a um Mac. Em vez disso, agora está trabalhando em um teste de visão que se conecta a um Mac. A diferença entre as duas idéias é o nível de imersão. O dispositivo cancelado tinha objetivos transparentes; O produto ainda em andamento usará a mesma abordagem do Vision Pro.
Embora não haja nenhuma palavra oficial sobre quando ou se esses produtos forem lançados, a Apple já poderá estabelecer as fundações para a versão vinculada.
Isso ocorre porque, pela primeira vez, os aplicativos MacOS Tahoe 26 poderão tornar o conteúdo imersivo 3D diretamente no Apple Vision Pro, usando um novo tipo de cena chamado RemoteimsivePace.
De macOS diretamente para Visionos
Essa nova capacidade foi mencionada como parte do apoio da evolução do SwiftUi para o cálculo do espaço e usa o fato de que a Apple está trazendo a estrutura de serviços dos compositores para o MacOS Tahoe 26.
Essa estrutura permite que os aplicativos Mac em execução no MacOS Tahoe 26 projetem conteúdo estéreo 3D diretamente nos ambientes do Vision Pro, sem precisar de um Visionos de construção separado.
Usando o RemoteImSivesiveSivePace, os desenvolvedores agora podem criar elementos visuais envolventes que suportam eventos de entrada, como toques e gestos, e os efeitos da sinalização da interação espacial, permitindo efetivamente que seus aplicativos de desktop estendam a um ambiente completamente imersivo. Tudo isso pode ser feito em Swiftui, com uma integração mais profunda no metal para quem deseja controle total sobre a renderização.
Além disso, a equipe Swiftui também introduziu abelhas e interação espaciais poderosas, permitindo que os desenvolvedores componham UUI volumétrico, permitam a manipulação de objetos, como coletar uma garrafa de água virtual e usar o excesso de equilíbrio da cena para interfaces mais dinâmicas.
Na prática, isso significa que um aplicativo MacOS poderia simular experiências 3D inteiras, desde procedimentos de procedimentos arquitetônicos a visões científicas e gerenciá -las ao vivo no Vision Pro, alimentadas pelo MAC.
O resultado? Uma barreira muito mais baixa na entrada dos desenvolvedores de MacOS que desejam experimentar o Vision Pro ou começar a construir um futuro no qual o cálculo do espaço pode se tornar mainstream.
Para aprofundar os detalhes técnicos, dê uma olhada na sessão “O que agora está na Swiftui” da Apple e a documentação no site do desenvolvedor da Apple.
FTC: Usamos conexões de afiliação automática para obter renda. Além disso.