Desde a abertura da IA, influenciou o vídeo de introdução como “You Get What You Give”, da New Radicals to CEO Sundar Pichai, a assinatura, o Google I/O 2025 estava cheio de notícias e atualizações para a gigante da tecnologia e os produtos. E quando dizemos, queremos dizer isso, porque a E/S do Google deste ano foi relatada por quase duas horas.
Durante esse período, o Google compartilhou algumas vitórias importantes para seus produtos de IA, como Gêmeos, no topo de diferentes categorias na tabela de classificação da Lmarena. Outro exemplo de que o Google parecia orgulhoso foi o fato de Gemini completar o Pokémon Blue há algumas semanas.
Mas sabemos o que você realmente é: atualizações de produtos e novos anúncios de produtos.
Além de alguns momentos de se gabar, o Google passou a maior parte daqueles 117 minutos conversando sobre o que saiu depois. O Google E/S combina anúncios de produtos com os consumidores com mais orientados para desenvolvedores, desde as mais recentes atualizações do Gmail até o novo e poderoso chip do Google, Ironwood, que chegará aos clientes do Google Cloud ainda este ano.
Vamos dividir quais atualizações e anúncios de produtos você precisa saber do evento completo de dois horas, para que você possa ir embora com todos os restaurantes de coleção sem gastar ao mesmo tempo, é necessário assistir a um filme grande para aprender sobre isso.
Antes de mergulharmos nele, aqui estão as notícias mais chocantes do Google I/S: os preços de assinatura que o Google tem para o seu Plano do Google AI Ultra. Enquanto o Google oferece uma assinatura básica por US $ 19,99 por mês, o Plano Ultra chega a nada menos que US $ 249,99 por mês para toda a série de produtos com os limites de tarifa mais altos disponíveis.
Google Search AI Mode
O Google interrompeu o que é facilmente a função mais visível, muito longe no evento, mas chegaremos ao topo.
No Google E/S, o Google anunciou que a nova função de modo de IA para pesquisa do Google está sendo lançada hoje para todos nos Estados Unidos. Em suma, ele permitirá que os usuários usem a função de pesquisa do Google, mas com pesquisas mais longas e mais complexas. Com a ajuda de uma “tecnologia de fã de consulta”, o modo AI pode quebrar uma consulta de pesquisa em várias partes para processar cada parte da consulta e, em seguida, reunir todas as informações para apresentar ao usuário. O Google diz que o modo AI “também verifica seu trabalho”, mas atualmente não está claro o que isso significa.
O Google anuncia o modo AI na pesquisa do Google
Crédito: Google
O modo AI já está disponível. No final do verão, o Google lança o contexto pessoal no modo IA, que faz sugestões com base nas pesquisas de um usuário e em outras informações contextuais sobre o usuário de outros produtos do Google, como o Gmail.
Além disso, outras novas funções em breve chegarão ao modo IA, como pesquisa profunda, que pode se aprofundar na pesquisa de consultas pesquisando vários sites e funções para visualização de dados, o que pode obter os resultados da pesquisa e apresentá -los em um gráfico visual quando se aplica.
De acordo com o Google, as visões gerais da IA na pesquisa são visualizadas todos os meses por 1,5 bilhão de usuários, portanto, o modo de AI claramente possui a maior base de usuários em potencial de todos os anúncios do Google hoje.
Compras da AI
De todos os anúncios durante o evento, essas funções da loja de IA pareciam despertar a maior resposta do Google I/S Live.
O Google conectado ao modo AI, exibiu o gráfico de compras, que inclui mais de 50 bilhões de produtos em todo o mundo. Os usuários podem simplesmente descrever o tipo de produto que estão procurando – digamos um tipo específico de banco, e o Google apresenta opções que correspondem a essa descrição.
Google AI Shopping
Crédito: Google
O Google também teve uma apresentação importante que mostrou que seu apresentador enviou uma foto sua, para que a IA pudesse criar um visual de como ela seria em um vestido. Esta função de try-on virtual está disponível no Google Labs e é a versão IRL do armário sem noção de Cher.
O apresentador conseguiu usar um agente comercial de IA para ficar de olho na disponibilidade do item e acompanhar o preço. Quando o preço caiu, o usuário recebeu um relatório da mudança de preço.
O Google disse que, a partir de hoje, os usuários podem tentar looks diferentes via IA via IA no Google Labs.
Android xr
Os tão esperados planos AR/VR do Glass Post-Google do Google foram finalmente apresentados no Google E/S. A empresa também revelou vários produtos portáteis usando seu sistema de controle AR/VR, Android XR.
Uma parte importante do anúncio do Android XR é que o Google parece entender os vários casos de uso para um fone de ouvido atraente e alguns óculos inteligentes e construiu o Android XR para ser possível.
Embora a Samsung tenha atormentado anteriormente seu projeto de fone de ouvido Moohan XR, o Google E/S marcou a primeira vez que o Google revelou o produto que estava sendo construído em colaboração com a gigante móvel e a fabricante de chips Qualcomm. O Google compartilhou que o projeto Moohan -Headset deve estar disponível ainda este ano.
Velocidade de luz mashable
Projeto Moohan
Crédito: Google
Além do fone de ouvido XR, o Google Glasses com Android XR, SmartGlasses com uma câmera, alto-falantes e exibição em lentes que se conectam ao smartphone de um usuário. Ao contrário do Google Glass, esses óculos inteligentes conterão looks mais elegantes graças a parcerias com monstro suave e warby parker.
O Google compartilhou que os desenvolvedores podem começar a desenvolver óculos a partir do próximo ano, por isso é provável que uma data de lançamento para os óculos inteligentes siga posteriormente.
Gêmeo
Gêmeos era facilmente a estrela do Google I/O 2025, o modelo de IA da empresa, Gemini. O Google anunciou uma nova atualização Gemini 2.5 ProO que diz é o modelo mais poderoso até agora. A empresa mostrou que o Gemini 2.5 Pro foi usado para converter esboços em aplicativos completos em uma demonstração. Além disso, o Google introduziu Gêmeos 2.5 FlashQue é uma versão mais acessível do poderoso modelo Pro. Este último é lançado no início de junho, com o primeiro a sair logo em seguida. O Google também revelou Gemini 2.5 Pro Deep Thinking Para matemática e codificação complexos, que no início estão disponíveis apenas para “testadores confiáveis”.
Falando em codificação, o Google compartilhou seu agente de codificação assíncrona Julesque está atualmente na versão beta pública. Os desenvolvedores podem usar Jules para combater as tarefas básicas de código e ajustar arquivos.
Jules Coding Agent
Crédito: Google
Os desenvolvedores também têm acesso a um novo modelo de texto para fala em expressão de áudio nativo que pode replicar a mesma voz em diferentes idiomas.
O aplicativo Gemini verá em breve um novo modo de agente, para que os usuários possam examinar um agente de IA e examinar e concluir tarefas com base nas instruções de um usuário.
Gêmeos também serão profundamente integrados ao Google produtos como o espaço de trabalho com Respostas inteligentes personalizadas. Gêmeos usará o contexto pessoal por meio de documentos, eilos e mais dos aplicativos do Google de um usuário para combinar com seu tom, voz e estilo para gerar respostas automáticas. Os usuários do espaço de trabalho encontrarão a posição disponível no Gmail neste verão.
Outras funções anunciadas para Gêmeos incluem Investigação profundamenteCom o qual os usuários podem fazer upload de seus próprios arquivos para orientar o agente da IA para fazer perguntas e Gêmeos em ChromeUm assistente de IA que responde a perguntas usando o contexto na página da web na qual um usuário está localizado. A última função será lançada esta semana para assinantes de Gemini nos EUA
O Google planeja trazer Gemini para todos os seus dispositivos, incluindo relógios inteligentes, carros inteligentes e TVs inteligentes.
Atualizações generativas de IA
As opções de assistente de IA para Gêmeos e as atualizações do modelo de idioma foram apenas uma pequena peça do quebra -cabeça mais amplo da IA do Google. A empresa também tinha uma série de anúncios generativos de IA.
Google anunciou Figura 4O modelo mais recente para geração de imagens. Segundo o Google, a Image oferece 4 detalhes mais ricos e melhores visuais. Além disso, a imagem 4 é aparentemente muito melhor na geração de texto e tipografia nas imagens. Esta é uma área em que os modelos de IA são noturalmente ruins, então a imagem 4 parece ser um grande passo à frente.
Flow AI Video Tool
Crédito: Google
Um novo modelo para gerar chamadas de vídeo, Eu vejo 3também foi revelado com uma ferramenta com a geração de vídeos chamados Atual. O Google afirma que o VEO 3 tem um entendimento mais forte da física na geração de cenas e também pode criar efeitos sonoros associados, ruído de fundo e diálogo.
Tanto o VEO 3 quanto o Flow estão disponíveis hoje, além de um novo modelo de música generativa chamado Lyria 2.
O Google I/S também viu a estréia de Canvas de GêmeosQue o Google descreve como uma plataforma de co-criação.
Projeto Starline AKA Google Beam
Outro grande anúncio do projeto do Google I/S: Starline não é mais.
O projeto de comunicação convincente do Google agora será conhecido como Google Beam, uma plataforma de comunicação da primeira.
Como parte do Google Beam, o Google anunciou traduções, que de fato oferece tradução para fala real durante as reuniões na plataforma. A IA poderá combinar a voz e o tom de um alto -falante, por isso parece que a tradução vem diretamente deles. As traduções do Google Meets estão disponíveis em inglês e espanhol a partir de hoje, com mais idioma na estrada nas próximas semanas.
O Google conhece traduções
Crédito: Google
O Google também tinha outro projeto de trabalho em andamento para provocar no Google Beam: uma plataforma de conferência 3D que usa várias câmeras para capturar um usuário de diferentes ângulos para tornar o indivíduo em uma vista de campo leve em 3D.
Projeto Astra
Embora o Project Starline possa ter sofrido uma mudança de nome, parece que o projeto Astra ainda está chutando no Google, pelo menos por enquanto.
O Project Astra é o verdadeiro assistente universal de IA do Google e do Google tinha muito a anunciar como parte dele.
Gêmeos ao vivo é uma nova função de assistente de IA que pode se comunicar com o ambiente de um usuário através da entrada da câmera e do áudio do seu dispositivo móvel. Os usuários podem fazer perguntas ao Live Gemini sobre o que gravam na câmera e o assistente de IA pode responder a perguntas com base nesses visuais. De acordo com o Google, Gemini foi lançado ao vivo hoje para usuários de Gemini.
Gêmeos ao vivo
Crédito: Google
Parece que o Google planeja implementar as opções de IA ao vivo do Project Astra no modo IA do Google Search como uma melhoria de pesquisa visual do Google Lens.
O Google também enfatizou parte de sua esperança para o Gemini Live, como ser capaz de ajudar como uma ferramenta de acessibilidade para pessoas com deficiência.
Projeto Mariner
Outro dos projetos de IA do Google é um agente de IA que pode se comunicar com a Web para concluir as tarefas para o usuário conhecido como projeto Mariner.
Enquanto o Project Mariner foi anunciado anteriormente no final do ano passado, o Google teve algumas atualizações, como uma função multitarefa com a qual um agente de IA poderia trabalhar simultaneamente em um máximo de 10 tarefas diferentes. Outra nova função é o ensino e a repetição, que o agente da IA oferece a oportunidade de aprender com as tarefas previamente concluídas para concluir similares sem precisar da mesma direção detalhada no futuro.
O Google anunciou planos para trazer essas opções Agentic AI para o Chrome, o Google Search via AI Mode e o aplicativo Gemini.