Nota do editor: segue-se uma transcrição editada das observações do CEO da Google, Sundar Pichai, no Google I/O 2025, adaptada para abranger uma maior parte daquilo que foi divulgado em palco. Conheça todas as novidades divulgadas na nossa colecção.
Por norma, não teria tido muitas notícias da nossa parte nas semanas que antecedem o I/O, uma vez que costumamos guardar os nossos melhores modelos para o palco. No entanto, na era do Gemini, tão depressa podemos lançar o nosso modelo mais inteligente numa terça-feira em março como anunciar um avanço tecnológico incrível, como o AlphaEvolve, uma semana antes.
Queremos que os nossos melhores modelos e produtos cheguem às suas mãos o mais rapidamente possível. Por isso, estamos a fazer lançamentos mais rápido do que nunca.
A evolução imparável dos modelos
Estou particularmente entusiasmado com a evolução rápida dos modelos. As pontuações Elo, um método estatístico para medir o progresso, aumentaram mais de 300 pontos desde o nosso modelo Gemini Pro de primeira geração. Atualmente, o Gemini 2.5 Pro lidera a tabela de classificação da LMArena em todas as categorias.
Este avanço dos modelos torna-se possível graças à nossa infraestrutura de vanguarda mundial. O nosso TPU de sétima geração, Ironwood, é o primeiro que foi desenvolvido especificamente para realizar trabalho de raciocínio e inferências de IA à escala. Com um desempenho dez vezes superior ao da geração anterior, este TPU alcança a incrível capacidade de processamento de 42,5 exaflops por pod.
O mundo está a adotar a IA
Há mais inteligência disponível para todos, em qualquer lugar. E o mundo está a responder, ao adotar a IA mais rapidamente do que nunca. Alguns indicadores importantes de progresso:
Da investigação à realidade
Todo este progresso significa que estamos numa nova fase da mudança de plataforma da IA. Décadas de investigação estão agora a tornar-se realidade para pessoas, empresas e comunidades em todo o mundo.
Project Starline → Google Beam + tradução de voz
Foi também no I/O que apresentámos o Project Starline, a nossa revolucionária tecnologia de vídeo 3D, há alguns anos. O objetivo era criar a sensação de estarmos na mesma sala que a outra pessoa, mesmo que estivesse longe.
Entretanto, continuamos a fazer avanços técnicos. Hoje, estamos prontos para divulgar o próximo capítulo: o Google Beam, uma nova plataforma de comunicação por vídeo com IA. O Google Beam usa um novo modelo de vídeo de ponta para transformar streams de vídeo 2D numa experiência 3D realista. Para isso, recorre a um conjunto de seis câmaras e IA para unir os streams de vídeo e renderizar a sua imagem num ecrã LFD em 3D. O acompanhamento da posição da cabeça é praticamente perfeito, pois tem uma precisão ao milímetro e trabalha com 60 frames por segundo, tudo em tempo real. O resultado é uma experiência de conversação muito mais natural e envolvente. Em colaboração com a HP, vamos disponibilizar os primeiros dispositivos Google Beam aos nossos clientes já no decorrer deste ano.
Ao longo dos anos, temos igualmente apostado em criar uma experiência muito mais envolvente no Google Meet. Este trabalho inclui tecnologia que ajuda as pessoas a ultrapassar barreiras linguísticas com a tradução de voz, que está a chegar ao Google Meet. Esta tecnologia consegue igualar a voz e o tom da pessoa que está a falar, até mesmo a sua expressividade, aproximando-nos de uma conversa natural e fluida entre idiomas. A tradução em inglês e espanhol está a ser implementada como funcionalidade beta para quem tem uma subscrição Google AI Pro ou Ultra, e mais idiomas vão ser disponibilizados nas próximas semanas. Esta tecnologia vai estar disponível para testes iniciais para os clientes do Workspace Business ainda este ano.
Project Astra → Gemini Live
Outro projeto de investigação emocionante dado a conhecer ao mundo no I/O foi o Project Astra, que explora um assistente de IA universal capaz de compreender o mundo à sua volta. O Gemini Live incorpora agora as capacidades de partilha de câmara e ecrã do Project Astra. As pessoas estão a usá-las de formas interessantes, desde a preparação para entrevistas até treinos para maratonas. Esta funcionalidade já está disponível para todos os utilizadores do Android e a implementação para os utilizadores do iOS vai arrancar hoje.
Também estamos a trazer funcionalidades como estas a produtos como a Pesquisa.
Project Mariner → Modo Agente
O conceito do agente consiste para nós num sistema que combina a inteligência de modelos de IA avançados com o acesso a ferramentas, para que possa realizar ações a seu pedido e sob o seu controlo.
O nosso protótipo de investigação, o Project Mariner, foi um primeiro passo em frente no que diz respeito a agentes capazes de utilizar o computador para interagir com a Web e realizar tarefas por si. Lançámos esta tecnologia como protótipo de investigação em dezembro, e desde então fizemos muitos progressos. Exemplos são as novas capacidades de multitasking e um método chamado "ensinar e repetir", em que pode mostrar-lhe uma tarefa uma vez, ao que se segue a aprendizagem e elaboração de planos para tarefas semelhantes no futuro. Os programadores poderão tirar partido das capacidades de utilização de computador provenientes do Project Mariner através da API Gemini. Os testadores fidedignos, como a Automation Anywhere e a UiPath, já estão a começar a utilizar esta funcionalidade, que será disponibilizada de forma mais alargada este verão.
A utilização do computador faz parte de um conjunto mais amplo de ferramentas que precisamos para que o ecossistema dos agentes prospere. Um exemplo é o nosso protocolo aberto Agent2Agent, com o qual os agentes podem comunicar entre si, ou o protocolo Model Context Protocol introduzido pela Anthropic, com o qual os agentes podem aceder a outros serviços. Hoje, temos o prazer de anunciar que tanto a API como o SDK do Gemini são agora compatíveis com ferramentas MCP.
Também estamos a começar a apostar em funcionalidades com agentes para o Chrome, a Pesquisa e a app Gemini. Por exemplo, o novo Modo Agente na app Gemini vai ajudar a realizar ainda mais tarefas. Se estiver à procura de um apartamento, pode usar a funcionalidade para encontrar anúncios que correspondam aos seus critérios em portais imobiliários como o Zillow, definir filtros adequados e usar o MCP para aceder aos anúncios ou mesmo agendar uma visita. Em breve, as pessoas que têm uma subscrição vão ter acesso a uma versão experimental do Modo Agente na app Gemini. Além disso, é excelente para empresas como a Zillow, que conseguem novos clientes e melhorar as taxas de conversão.
Esta é uma área nova e emergente, e estamos entusiasmados por explorar a melhor forma de oferecer as vantagens dos agentes aos utilizadores e ao ecossistema de uma forma mais ampla.
O poder da personalização
A melhor forma de passar da investigação para a realidade é certificarmo-nos que o resultado seja mesmo útil – na realidade individual de cada pessoa. É aí que entra o poder da personalização. Estamos a trabalhar para dar vida a isto com algo que chamamos contexto pessoal. Com a sua autorização, os modelos Gemini podem usar contexto pessoal relevante nas suas apps Google de uma forma privada, transparente e totalmente controlada por si.
Um exemplo disso é a nova funcionalidade das Respostas inteligentes personalizadas no Gmail. Se um amigo lhe enviar um email a pedir conselhos sobre uma viagem de carro que fez no passado, o Gemini pode pesquisar os seus emails e ficheiros antigos no Google Drive, como por exemplo itinerários que criou no Google Docs, para sugerir uma resposta com detalhes específicos e relevantes. Vai igualar o seu cumprimento habitual e captar o seu tom, estilo e até escolhas de palavras preferidas, tudo para gerar uma resposta mais relevante e autêntica. Quem tiver uma subscrição vai ter acesso às Respostas inteligentes personalizadas ainda este ano. Não é difícil imaginar a utilidade do contexto pessoal na Pesquisa, no Gemini e muito mais.
O Modo de IA na Pesquisa
Os nossos modelos Gemini estão a ajudar a tornar a Pesquisa Google mais inteligente, mais personalizada e a trazer funcionalidades com agentes.
Desde o lançamento no ano passado, a funcionalidade da Vista geral de IA tem alcançado mais de 1,5 mil milhões de utilizadores e está agora disponível em 200 países e territórios. Quando as pessoas usam a Vista geral de IA, verificamos que estão mais satisfeitas com os resultados e que pesquisam mais frequentemente. Nos nossos maiores mercados, como os EUA e a Índia, a funcionalidade da Vista geral de IA tem levado a um crescimento superior a 10% – com tendência para aumentar – nos tipos de consultas que levam ao aparecimento da Vista geral de IA.
Foi um dos lançamentos mais bem-sucedidos da Pesquisa na última década.
Para quem quer uma experiência de pesquisa de IA integrada, estamos a lançar o novo Modo IA. É uma reinvenção total da Pesquisa. Com uma capacidade de raciocínio mais avançada, pode fazer consultas de pesquisa mais longas e complexas no Modo IA. De facto, as primeiras pessoas a testar têm feito consultas duas a três vezes mais longas que as pesquisas tradicionais, e é possível ir mais longe com perguntas de seguimento. Tudo isto está disponível como um novo separador na Pesquisa.
Tenho-a usado muito e mudou completamente a forma como uso a Pesquisa. E tenho todo o gosto em anunciar que o Modo IA vai estar disponível para todos os utilizadores nos EUA, a partir de hoje. Graças aos nossos modelos Gemini mais recentes, as nossas respostas com recurso a IA têm a qualidade e a precisão que espera da Pesquisa, e são as mais rápidas do mercado. A partir desta semana, o Gemini 2.5 vai chegar à Pesquisa.
A evolução do nosso modelo mais inteligente: Gemini 2.5
O nosso modelo mais potente e eficiente, o Gemini 2.5 Flash, tem sido incrivelmente popular entre os programadores, que adoram a sua velocidade e o baixo custo. Além disso, o novo 2.5 Flash foi melhorado em quase todos os aspetos, o que fez subir os indicadores de desempenho chave para raciocínio, multimodalidade, código e contexto longo. É superado unicamente pelo 2.5 Pro na tabela de classificação da LMArena.
Estamos empenhados em tornar o 2.5 Pro ainda melhor com a introdução de um modo de raciocínio avançado que chamamos Deep Think. Este baseia-se na nossa investigação mais recente e de vanguarda sobre pensamento e raciocínio, incluindo técnicas de pensamento paralelo.
Uma app Gemini agora mais pessoal, proativa e potente
Estamos a tornar o Deep Research mais pessoal. Vai ter a possibilidade de carregar os seus próprios ficheiros e, brevemente, ligar-se ao Google Drive e ao Gmail, o que melhora a sua capacidade de gerar relatórios de pesquisa personalizados. Outra novidade é a integração com o Canvas, o que permite a criação de infografias dinâmicas, questionários e até podcasts em vários idiomas com um único clique. Além disso, estamos a notar um grande interesse pelo vibe coding com o Canvas, que permite a mais pessoas criarem apps perfeitamente funcionais a partir de uma simples conversa com o Gemini.
Quanto ao Gemini Live, uma funcionalidade que teve bastante sucesso junto dos utilizadores, vamos disponibilizar sem custo financeiro as capacidades de partilha de câmara e ecrã a todas as pessoas, incluindo utilizadores do iOS. Vamos ainda em breve adicionar a capacidade de ligação às suas apps favoritas da Google para uma assistência mais integrada.
Os avanços nos nossos modelos de geração de conteúdo
Estamos a apresentar o nosso mais recente modelo de vídeo de ponta, o Veo 3, agora com geração nativa de áudio. Outra novidade a divulgar é o Imagen 4, o nosso modelo de geração de imagens mais recente e poderoso. Ambos estão disponíveis na app Gemini, o que abre um novo mundo para a criatividade.
Os cineastas vão poder tirar partido destas funcionalidades através de uma nova ferramenta chamada Flow. Com o Flow é possível criar clipes cinemáticos e transformar um clipe curto numa cena mais longa.
Uma oportunidade de melhorar vidas
As oportunidades que a IA traz são realmente impressionantes. Cabe a esta geração de programadores, criadores de tecnologia e decisores de soluções para problemas garantir que as vantagens da IA cheguem ao maior número possível de pessoas. É especialmente inspirador pensar que a investigação em que estamos a trabalhar hoje vai ser a base da realidade de amanhã, desde a robótica à tecnologia quântica, AlphaFold e Waymo.
Para mim, esta oportunidade de melhorar vidas não é algo que considere garantido. E uma experiência recente fez-me perceber isso. Estava em São Francisco com os meus pais. A primeira coisa que quiseram fazer foi andar num Waymo, que, pelo que fiquei a saber, está a tornar-se uma das principais atrações turísticas da cidade. Já tinha andado num Waymo, mas o meu pai, que tem mais de 80 anos, ficou totalmente espantado. Naquele momento, encarei o progresso de uma forma totalmente diferente.
Fez-me recordar o incrível poder da tecnologia para nos inspirar, fascinar e fazer avançar. Mal posso esperar para ver as coisas incríveis que vamos criar juntos a seguir.
Publicado por Sundar Pichai, CEO, Google and Alphabet