Uma nota do CEO da Google e da Alphabet, Sundar Pichai:
A informação está no centro do progresso humano. É por isso que nos concentramos há mais de 26 anos na nossa missão de organizar as informações do mundo e torná-las acessíveis e úteis. E é por isso que continuamos a expandir as fronteiras da IA para organizar estas informações em todas as entradas e torná-las acessíveis através de qualquer saída, para que possam ser realmente úteis para si.
Esta era a nossa visão quando lançámos o Gemini 1.0 no passado mês de dezembro. O primeiro modelo criado para ser nativamente multimodal, o Gemini 1.0 e 1.5, impulsionou grandes avanços com multimodalidade e contexto longo para entender informações em texto, vídeo, imagens, áudio e código, e processar muito mais delas.
Agora, milhões de programadores estão a construir com Gemini. E está a ajudar-nos a reinventar todos os nossos produtos — incluindo todos os 7 com 2 mil milhões de utilizadores — e a criar novos. O NotebookLM é um ótimo exemplo do que a multimodalidade e o contexto longo podem possibilitar às pessoas, e é por isso que é adorado por tantos.
No último ano, investimos no desenvolvimento de modelos mais agentivos, o que significa que eles podem entender mais sobre o mundo ao seu redor, pensar vários passos à frente e agir em seu nome, com a sua supervisão.
Hoje estamos entusiasmados por lançar a nossa próxima era de modelos criados para esta nova era de agentes: apresentamos o Gemini 2.0, o nosso modelo mais capaz até agora. Com novos avanços na multimodalidade — como saída de imagem e áudio nativa – e uso de ferramentas nativas, tal irá permitir construir novos agentes de IA que nos vai aproximar da nossa visão de um assistente universal.
Estamos, hoje, a colocar a versão 2.0 nas mãos de programadores e grupos de testes de confiança. E estamos a trabalhar rapidamente para incluí-lo nos nossos produtos, a começar pelo Gemini e Pesquisa. A partir de hoje, o nosso modelo experimental Gemini 2.0 Flash estará disponível a todos os utilizadores do Gemini. Também estamos a lançar um novo recurso chamado Deep Research, que usa raciocínio avançado e recursos de contexto longo para atuar como um assistente de investigação, com a exploração de tópicos complexos e a compilação de relatórios para si. Já está disponível no Gemini Advanced.
Nenhum produto foi mais transformado pela IA do que a Pesquisa. As nossas vistas gerais de IA (IA Overviews) chegam agora a mil milhões de pessoas e permitem que façam tipos de perguntas totalmente novas, tornando-se rapidamente num dos nossos recursos de pesquisa mais populares de todos os tempos. Como próximo passo, estamos a trazer os recursos avançados de raciocínio do Gemini 2.0 para o AI Overviews para responder a tópicos mais complexos e a questões de várias etapas, incluindo equações matemáticas avançadas, consultas multimodais e programação. Começámos os testes limitados esta semana e iremos lançá-los de forma mais ampla no início do ano que vem. E vamos continuar a levar o AI Overview a mais países e idiomas ao longo do próximo ano.
Os avanços 2.0 são sustentados por investimentos de uma década na nossa abordagem diferenciada de full-stack para inovação em IA. Ele baseia-se em hardware personalizado como o Trillium, as nossas TPUs de sexta geração. As TPUs impulsionaram 100% do treino e da inferência do Gemini 2.0, e hoje o Trillium está disponível para os clientes para que também possam desenvolver com ele.
Se o Gemini 1.0 era sobre organizar e compreender informações, o Gemini 2.0 é sobre torná-las muito mais úteis. Mal posso esperar para ver o que esta próxima era nos vai trazer.
-Sundar
No ano passado, continuamos a fazer um progresso incrível na inteligência artificial. Hoje, estamos a disponibilizar o primeiro modelo da família de modelos Gemini 2.0: uma versão experimental do Gemini 2.0 Flash. É o nosso modelo de trabalho com baixa latência e desempenho melhorado na vanguarda da nossa tecnologia, em escala.
Também estamos a partilhar as fronteiras da nossa investigação de agentes ao apresentar protótipos habilitados pelos recursos multimodais nativos do Gemini 2.0.
Gemini 2.0 Flash
O Gemini 2.0 Flash baseia-se no sucesso do 1.5 Flash, o nosso modelo mais popular até agora para programadores, com desempenho melhorado e tempos de resposta igualmente rápidos. Notavelmente, o 2.0 Flash supera até mesmo o 1.5 Pro em benchmarks importantes, com o dobro da velocidade. O 2.0 Flash também vem com novos recursos. Além de oferecer suporte a entradas multimodais, como imagens, vídeo e áudio, o Flash 2.0 agora oferece suporte a saídas multimodais, como imagens geradas nativamente misturadas com texto e áudio multilíngue de texto para fala (TTS) direcionável. Ele também pode chamar nativamente ferramentas como a Pesquisa Google, execução de código e funções definidas por um utilizador terceiro.
O nosso objetivo é colocar os nossos modelos nas mãos das pessoas com segurança e rapidez. No mês passado, partilhámos versões iniciais e experimentais do Gemini 2.0, e recebemos ótimos comentários dos programadores.
O Gemini 2.0 Flash já está disponível como um modelo experimental para programadores através da API Gemini no Google AI Studio e Vertex AI, com entrada multimodal, saída de texto e conversão de texto em fala e geração de imagens nativas disponíveis para parceiros com acesso antecipado. A disponibilidade geral será em janeiro, juntamente com mais tamanhos do modelo.
Para ajudar os programadores a criar aplicações dinâmicas e interativas, também estamos a lançar uma nova API Multimodal Live que tem entrada de áudio e streaming de vídeo em tempo real e a capacidade de usar várias ferramentas combinadas. Mais informações sobre o Flash 2.0 e a Multimodal Live API podem ser encontradas no nosso blog para programadores.
Gemini 2.0 disponível na aplicação Gemini, o nosso assistente de IA
Também a partir de hoje, os utilizadores do Gemini em todo o mundo podem aceder a uma versão otimizada para chat do Flash Experimental 2.0 selecionando-a no menu suspenso de modelos nas versões desktop e web mobile, e ela estará disponível em breve na aplicação móvel Gemini. Com este novo modelo, os utilizadores podem experimentar um assistente Gemini ainda mais útil.
No início do ano que vem, expandiremos o Gemini 2.0 para mais produtos da Google.
Desbloquear experiências de agente com Gemini 2.0
Os recursos de ação da interface de utilizador nativa do Gemini 2.0 Flash, juntamente com outras melhorias, como raciocínio multimodal, compreensão de contexto longo, acompanhamento e planeamento de instruções complexas, chamada de função composicional, uso de ferramentas nativas e latência melhorada, trabalham em conjunto para permitir uma nova classe de experiências de agente.
A aplicação prática de agentes de IA é uma área de investigação cheia de possibilidades interessantes. Estamos a explorar esta nova fronteira com uma série de protótipos que podem ajudar as pessoas a realizar tarefas e fazer as coisas acontecerem. Isto inclui uma atualização do Projeto Astra, nosso protótipo de investigação que explora as capacidades futuras de um assistente de IA universal; o novo Projeto Mariner, que explora o futuro da interação entre humanos e agentes, a começar com o seu navegador de internet; e o Jules, um agente de código com tecnologia de IA que pode ajudar os programadores.
Ainda estamos nos estágios iniciais de desenvolvimento, mas estamos animados para ver como grupos de testes confiáveis usarão estes novos recursos e quais lições podemos aprender para que possamos torná-los mais amplamente disponíveis em produtos no futuro.
Projeto Astra: agentes a usar compreensão multimodal no mundo real
Desde que apresentámos o Projeto Astra no I/O, temos aprendido com grupos de testes confiáveis que o utilizam em telefones Android. O feedback valioso deles ajudou-nos a entender melhor como um assistente de IA universal poderia funcionar na prática, incluindo implicações para segurança e ética. As melhorias na versão mais recente criada com o Gemini 2.0 incluem:
Estamos a trabalhar para levar estes tipos de recursos aos produtos da Google, como a aplicação Gemini, o nosso assistente de IA e a outros formatos, como óculos. E estamos a começar a expandir o nosso programa de testes confiáveis a mais pessoas, incluindo um pequeno grupo que, em breve, irá começar a testar o Projeto Astra em protótipos de óculos.
Projeto Mariner: agentes que podem ajudá-lo a realizar tarefas complexas
O Projeto Mariner é um protótipo de investigação inicial criado com o Gemini 2.0 que explora o futuro da interação entre humanos e agentes, a começar pelo seu navegador de internet. Como um protótipo de investigação, ele é capaz de entender e raciocinar sobre informações no ecrã do seu navegador, incluindo pixels e elementos da web, como texto, código, imagens e formulários, e que usa depois essas informações através de uma extensão experimental do Chrome para concluir tarefas para si.
Quando avaliado no benchmark WebVoyager, que testa o desempenho do agente em tarefas web reais de ponta a ponta, o Projeto Mariner alcançou um resultado de última geração de 83,5% a trabalhar como uma configuração de agente único.
Ainda é cedo, mas o Projeto Mariner mostra que está a tornar-se tecnicamente possível navegar num navegador, embora nem sempre seja preciso e é lento a concluir tarefas hoje em dia, isso irá melhorar rapidamente com o tempo.
Para construir isto com segurança e responsabilidade, estamos a realizar investigações ativas sobre novos tipos de riscos e mitigações, ao mesmo tempo que mantemos os humanos no processo. Por exemplo, o Project Mariner só pode digitar, rolar ou clicar no separador ativo do seu navegador e pede aos utilizadores uma confirmação final antes de realizar certas ações confidenciais, como comprar algo.
Grupos de teste confiáveis estão a começar, agora, a testar o Projeto Mariner com uma extensão experimental do Chrome, e estamos a iniciar, em paralelo, conversas com o ecossistema da web.
Jules: agentes para programadores
Depois, estamos a explorar como os agentes de IA podem ajudar os programadores com o Jules — um agente de código experimental com tecnologia de IA que se integra diretamente num fluxo de trabalho do GitHub. Ele pode resolver um problema, desenvolver um plano e executá-lo, tudo sob a direção e supervisão de um programador. Este esforço faz parte do nosso objetivo de longo prazo de criar agentes de IA que sejam úteis em todos os domínios, incluindo programação.
Mais informações sobre esta experiência em curso podem ser encontradas no nosso post publicado no blog para programadores.
Agentes em jogos e outros domínios
Estamos a colaborar com programadores de jogos líderes, como a Supercell, para explorar como estes agentes funcionam, a testar a sua capacidade de interpretar regras e desafios numa ampla gama de jogos, desde títulos de estratégia como "Clash of Clans" até simuladores como "Hay Day".
Além de atuarem como companheiros virtuais de jogos, estes agentes podem até mesmo aceder à Pesquisa Google para ligá-lo ao vasto conhecimento sobre jogos na web.
Além de explorar capacidades de agentes no mundo virtual, estamos a experimentar agentes que podem ajudar no mundo físico com a aplicação de recursos de raciocínio espacial do Gemini 2.0 à robótica. Embora ainda seja cedo, estamos animados com o potencial dos agentes que podem ajudar no ambiente físico.
Pode saber mais sobre estes protótipos de pesquisa e experências em labs.google.
Construir de forma responsável na era dos agentes
O Gemini 2.0 Flash e nossos protótipos de investigação permitem- nos testar e interagir com novos recursos na vanguarda da pesquisa de IA que eventualmente tornarão os produtos da Google mais úteis.
À medida que desenvolvemos estas novas tecnologias, reconhecemos a responsabilidade que elas acarretam e as muitas questões que os agentes de IA levantam sobre segurança e proteção. É por isso que estamos a adotar uma abordagem exploratória e gradual para o desenvolvimento, a realizar investigações em vários protótipos, com implementação repetida de treino de segurança, a trabalhar com grupos de teste de confiança e especialistas externos e a realizar avaliações de risco abrangentes, além de avaliações de segurança e garantia.
Por exemplo:
Acreditamos firmemente que a única maneira de desenvolver IA é ser responsável desde o início e continuaremos a priorizar tornar a segurança e a responsabilidade num elemento-chave do nosso processo de desenvolvimento de modelos à medida que avançamos os nossos modelos e agentes.
Gemini 2.0, agentes de IA e muito mais
Os lançamentos de hoje marcam um novo capítulo para o nosso modelo Gemini. Com o lançamento do Gemini 2.0 Flash e a série de protótipos de investigação para explorar as possibilidades de agentes, alcançámos um marco emocionante na era Gemini. E estamos ansiosos para continuar a explorar com segurança todas as novas possibilidades ao nosso alcance enquanto construímos em direção à AGI.
Publicado por Por Demis Hassabis, CEO do Google DeepMind e Koray Kavukcuoglu, CTO do Google DeepMind em nome da equipe Gemini
Hoje estamos a partilhar as últimas atualizações no Gemini, o seu assistente de IA, incluindo o Deep Research - as nossas novas funcionalidades de agente no Gemini Advanced - e acesso para experimentar o Gemini 2.0 Flash, o nosso modelo experimental mais recente.
O Deep Research usa a IA para explorar tópicos complexos por si e apresentar-lhe os resultados num relatório abrangente e fácil de ler. É um primeiro vislumbre de como o Gemini está a ficar ainda melhor na resolução de tarefas complexas para lhe poupar tempo[1].
Deep Research: o seu assistente pessoal de investigação de IA está aqui para ajudar
A investigação online nem sempre é fácil. Imagine que é um estudante universitário a preparar-se para a sua próxima apresentação de robótica. Quer ficar a par das tendências de sensores de veículos autónomos e compreender como as diferentes tecnologias se comparam, juntamente com o que ainda está para vir. Um projeto como este pode envolver horas de investigação e comparação numa infinidade de separadores abertos, isto é, se conseguir encontrar aquele link que sabe que colocou algures…
Sob a sua supervisão, o Deep Research faz o trabalho árduo por si. Após introduzir a sua pergunta, é criado um plano de investigação de vários passos que pode rever ou aprovar. Depois de o aprovar, começa a analisar detalhadamente informações relevantes de toda a Web por si.
No espaço de alguns minutos, o Gemini refina continuamente a respetiva análise, navegando na Web de forma semelhante à sua: pesquisando, encontrando informações interessantes e iniciando uma nova pesquisa com base no que aprendeu. Repete este processo várias vezes e, uma vez concluído, gera um relatório abrangente das principais conclusões, que pode exportar para um documento do Google Docs. Está organizado de forma clara com links para as fontes originais, permitindo-lhe aceder a websites e empresas ou organizações relevantes que, de outra forma, não teria encontrado, para que se possa aprofundar facilmente para saber mais. Se tiver perguntas de seguimento para o Gemini ou quiser refinar o relatório, basta pedir! Em poucos minutos, tem acesso a horas de investigação.
No início deste ano, partilhámos a nossa visão de criar mais capacidades agentivas nos nossos produtos; o Deep Research é a primeira funcionalidade no Gemini a dar vida a essa visão. Criámos um novo sistema agentivo que usa os conhecimentos da Google no domínio da pesquisa de informações relevantes na web para orientar a navegação e a investigação do Gemini. Isto, aliado às capacidades de raciocínio avançadas do Gemini e à nossa capacidade de resposta de 1 milhão tokens, cria relatórios abrangentes com estatísticas úteis e fáceis de ler.
O Deep Research é a ferramenta perfeita se for um empresário a iniciar um pequeno negócio e quiser reunir rapidamente uma análise da concorrência e recomendações de localizações adequadas, ou se for um profissional de marketing a pesquisar campanhas de marketing recentes com tecnologia de IA como benchmark para o planeamento de 2025.
Deep Research está a começar a ser implementado globalmente hoje no Gemini Advanced (a começar com o inglês) para desktop e mobile web e vai estar disponível na aplicação Gemini a partir do início de 2025. Para experimentar, ative a opção “Gemini 1.5 Pro com Deep Research” no menu pendente do modelo e introduza a sua pergunta de investigação.
Gemini Flash 2.0: teste o nosso modelo experimental
Hoje anunciámos o Gemini 2.0, o nosso modelo de IA mais capaz até o momento. A partir de hoje, todos os utilizadores do Gemini podem experimentar uma versão chat otimizada do Gemini 2.0 Flash Experimental com um desempenho melhorado em vários benchmarks chave e velocidade. Com este novo modelo, o Gemini 2.0 irá potenciar um assistente Gemini ainda mais útil. O Gemini 2.0 Flash Experimental pode ser acedido no menu pendente do modelo Gemini no desktop e web mobile e estará, em breve, disponível na aplicação Gemini para telemóveis.
Embora estejamos entusiasmados para que o experimente, lembre-se de que é uma pré-visualização e pode não funcionar como esperado. Além disso, algumas funcionalidades do Gemini não serão compatíveis com este modelo no seu estado experimental.
Uma nova era de IA útil
Estes lançamentos são um passo significativo em direção ao nosso objetivo de criar o assistente pessoal de IA mais útil do mundo. Eles representam um passo no sentido de tornar os nossos produtos mais agentivos; à medida que o Gemini se torna cada vez melhor, pode fazer ainda mais por si.
Publicado por Dave Citron, Senior Director, Product Management, Gemini app
Notas:
[1] Com base no tempo estimado para ler a quantidade de conteúdo que o Deep Research navega versus o tempo que demora a gerar um relatório do Deep Research, em média.
O Ano em Pesquisa retrata o que mais despertou a atenção dos internautas. Através destas pesquisas, podemos entender quais foram os acontecimentos, as tendências e as preocupações que mais marcaram a sociedade em cada ano.
No topo da lista dos nomes nacionais mais pesquisados na Pesquisa, encontra-se José Castelo Branco, seguido por Ruben Amorim, atual treinador do Manchester United, que consolidou o seu protagonismo graças às suas conquistas no futebol português e transferência para Manchester. A nível internacional, Kate Middleton foi um dos nomes mais pesquisados, refletindo o interesse pela realeza britânica.
Os acontecimentos mais pesquisados em 2024 refletem um ano de eventos marcantes. Do desporto à política, destaque para o Euro 2024 e para as Eleições Nacionais em Portugal e as Eleições Presidenciais nos EUA.
A música continuou a ser uma fonte inesgotável de inspiração e entretenimento em 2024, com artistas nacionais e internacionais dominando as pesquisas no país. Taylor Swift e os lendários Scorpions figuraram entre os nomes internacionais mais pesquisados, e a nível nacional um dos destaques foi Ana Moura. No entretenimento, Secret Story e Big Brother foram os programas de TV mais pesquisados, enquanto no cinema, o filme Divertidamente 2 emocionou famílias e fãs da animação.
O impacto do futebol na sociedade em Portugal vem também refletido nas pesquisas feitas na Google. Entre os jogadores mais procurados, Diogo Costa, guarda-redes do FC Porto e uma das peça-chave da seleção portuguesa, aparece no topo, seguido por Iamine Yamal, o prodígio do FC Barcelona que atraiu curiosidade pelo seu talento precoce.
Este ano, várias personalidades marcantes partiram e deixaram um impacto profundo. O falecimento de Liam Payne, ex-membro da banda One Direction, gerou uma onda de pesquisas sobre a sua carreira musical. E, em Portugal, a perda de ícones nacionais, como o cantor Marco Paulo, símbolo da música romântica, também atraiu interesse.
Já a Inteligência Artificial (IA) continuou a ser um dos temas importantes no país, refletindo o crescente interesse e impacto da tecnologia em diversos setores. Um dos tópicos mais pesquisados foi o "Detetor de IA", como também a pesquisa por "Inteligência Artificial Online".
Este é o retrato de Portugal em 2024 segundo as pesquisas na Google. A missão da Google é organizar as informações existentes no mundo e torná-las acessíveis e úteis para todos. É por isso que a Pesquisa facilita a descoberta de uma ampla gama de informações a partir de uma grande variedade de fontes.
Conheça as listas de Portugal aqui.
Boas Pesquisas!
Hoje tenho o prazer de anunciar o Willow, o nosso chip quântico mais recente. O Willow tem um desempenho de última geração em diversas métricas, possibilitando duas importantes conquistas.
O chip Willow é um passo importante numa viagem que começou há mais de dez anos. Quando fundei o Google Quantum AI em 2012, a visão era construir um computador quântico útil e de larga escala que pudesse aproveitar a mecânica quântica - o “sistema operativo” da Natureza (na medida em que conhecemos hoje) - para beneficiar a sociedade através do avanço da descoberta científica, como desenvolver aplicações úteis e enfrentar alguns dos maiores desafios da sociedade. Como parte da Google Research, a nossa equipa traçou um roadmap a longo prazo, e o Willow move-nos significativamente neste caminho em direção a aplicações comercialmente relevantes.
Correção exponencial de erros quânticos – abaixo do limiar!
Os erros são um dos maiores desafios da computação quântica, uma vez que os qubits, as unidades de computação nos computadores quânticos, tendem a trocar informações rapidamente com o seu ambiente, o que torna difícil proteger as informações necessárias para completar a computação. Normalmente, quanto mais qubits se utilizarem, mais erros irão ocorrer e o sistema torna-se clássico.
Hoje, na Nature, publicámos resultados que mostram que quanto mais qubits usamos no Willow, mais reduzimos os erros e mais quântico se torna o sistema. Testámos conjuntos de qubits físicos, cada vez maiores, aumentando de uma grelha de qubits codificados de 3x3, para uma grelha de 5x5, para uma grelha de 7x7 - e em cada vez, ao usar os nossos mais recentes avanços na correção de erros quânticos, conseguimos reduzir a taxa de erro para metade. Por outras palavras, conseguimos uma redução exponencial da taxa de erro. Este marco histórico é conhecido nesta área como “abaixo do limiar” – sendo capaz de reduzir os erros enquanto se aumenta o número de qubits. É necessário demonstrar estar abaixo do limiar para mostrar progressos reais na correção de erros, e isto tem sido um grande desafio desde que a correção de erros quânticos foi introduzida por Peter Shor em 1995.
Existem outras “inovações” científicas envolvidas neste resultado também. Por exemplo, é também um dos primeiros exemplos convincentes de correção de erros em tempo real num sistema quântico supercondutor – crucial para qualquer computação útil, porque, se não se conseguir corrigir os erros com a rapidez suficiente, eles irão arruinar a computação antes de estar concluída. E é uma demonstração “além do ponto de equilíbrio”, onde os nossos conjuntos de qubits têm uma vida útil mais longa do que os qubits físicos individuais, um sinal infalível de que a correção de erros está a melhorar o sistema como um todo.
Sendo o primeiro sistema abaixo do limiar, este é o protótipo mais convincente para um qubit lógico escalável construído até hoje. É um forte sinal de que os computadores quânticos muito grandes e úteis podem ser realmente construídos. O Willow aproxima-nos da execução de algoritmos práticos e comercialmente relevantes que não podem ser replicados em computadores convencionais.
10 septilhões de anos no supercomputador mais rápido de hoje
Como medida do desempenho do Willow, utilizámos o benchmark de amostragem de circuitos aleatórios (RCS). Lançado inicialmente pela nossa equipa e utilizado, agora, amplamente como padrão na área, o RCS é o benchmark classicamente mais difícil que pode ser feito, hoje, num computador quântico. Pode-se pensar nisto como um ponto de entrada para a computação quântica: verifica-se se um computador quântico está a fazer algo que não poderia ser feito num computador clássico. Qualquer equipa que esteja a construir um computador quântico deve primeiro verificar se consegue ultrapassar os computadores clássicos no RCS; caso contrário, haverá fortes motivos para ceticismo quanto à capacidade para lidar com tarefas quânticas mais complexas. Utilizámos consistentemente este benchmark para avaliar o progresso de uma geração de chips para a seguinte – reportámos os resultados do Sycamore em outubro de 2019 e, de novo, mais recentemente em outubro de 2024.
O desempenho do Willow neste benchmark é surpreendente: realizou um cálculo em menos de 5 minutos que levaria 10^25 ou 10 septilhões de anos[1] num dos supercomputadores mais rápidos da atualidade. Se quiser escrever, são 10.000.000.000.000.000.000.000.000 de anos. Este número incompreensível excede as escalas de tempo conhecidas na física e ultrapassa enormemente a idade do universo. Isto dá credibilidade à noção de que a computação quântica ocorre em muitos universos paralelos, em linha com a ideia de que vivemos num multiverso, uma previsão feita, pela primeira vez, por David Deutsch.
Estes resultados mais recentes do Willow, conforme se mostra no gráfico abaixo, são os melhores até agora, mas iremos continuar a fazer progressos.
A nossa avaliação de como o Willow ultrapassa um dos supercomputadores clássicos mais potentes do mundo, o Frontier, baseou-se em pressupostos conservadores. Por exemplo, assumimos o acesso total ao armazenamento secundário, ou seja, aos discos rígidos, sem qualquer sobrecarga de largura de banda – uma concessão generosa e irrealista para o Frontier. É claro que, tal como aconteceu depois de anunciarmos a primeira computação pós-clássica em 2019, esperamos que os computadores clássicos continuem a melhorar neste benchmark, mas o fosso crescente mostra que os processadores quânticos estão a afastar-se a uma taxa exponencial dupla e irão continuar a superar enormemente os computadores clássicos à medida que escalamos.
Desempenho de última geração
O Willow, foi fabricado nas nossas novas instalações de fabrico de última geração em Santa Bárbara — uma das poucas no mundo construídas de raiz para este fim. A engenharia de sistemas é fundamental para projetar e fabricar processadores quânticos. Todos os componentes de um chip, como as portas de qubit único e de dois qubits, a reposição de qubits e a leitura, devem ser, simultaneamente, bem concebidos e integrados. Se algum componente se atrasar ou se dois componentes não funcionarem bem, em conjunto, isso irá prejudicar o desempenho do sistema. Por isso, a maximização do desempenho do sistema informa todos os aspetos do nosso processo, desde a arquitetura e fabrico do chip até ao desenvolvimento e calibração da porta. As conquistas que relatamos avaliam os sistemas de computação quântica de forma holística, e não apenas um fator de cada vez.
Estamos a concentrar-nos na qualidade, não apenas na quantidade – porque produzir apenas um maior número de qubits não ajuda se não tiverem qualidade suficiente. Com 105 qubits, o Willow tem agora o melhor desempenho da sua categoria nos dois benchmarks de sistema discutidos acima: correção de erros quânticos e amostragem aleatória de circuitos. Estes benchmarks algorítmicos são a melhor forma de medir o desempenho global do chip. Outras métricas de desempenho mais específicas também são importantes. Por exemplo, os nossos tempos T1, que medem o tempo que os qubits podem manter uma excitação – o principal recurso computacional quântico – estão agora a aproximar-se dos 100 µs (microsegundos). Esta é uma melhoria impressionante de ~5x em relação à nossa geração anterior de chips. Se quiser avaliar o hardware quântico e comparar entre plataformas, abaixo está uma tabela com as principais especificações que são úteis observar.
O que vem a seguir com Willow e depois
O próximo desafio imediato para nós e para a área é demonstrar uma primeira computação “pós-clássica útil” nos chips quânticos atuais que seja relevante para uma aplicação no mundo real. Estamos otimistas de que a nossa nova linha de processadores Willow nos possa ajudar a atingir este objetivo. Até agora, houve dois tipos de experiências distintas. Por um lado, executámos o benchmark RCS, que mede o desempenho em relação aos computadores clássicos, mas não tem aplicações conhecidas no mundo real. Por outro lado, fizemos simulações cientificamente interessantes de sistemas quânticos, que levaram a novas descobertas científicas, mas que estão ainda ao alcance dos computadores clássicos. O nosso objetivo é fazer as duas coisas ao mesmo tempo – entrar no reino dos algoritmos que estão fora do alcance dos computadores clássicos e que são úteis para problemas comercialmente relevantes no mundo real.
Convidamos investigadores, engenheiros e programadores a juntarem-se a nós nesta viagem, verificando o nosso software de código aberto e recursos educativos, incluindo o nosso novo curso na Coursera, onde os programadores podem aprender os fundamentos da correção de erros quânticos e ajudar-nos a criar algoritmos que possam resolver os problemas do futuro.
Por vezes, os meus colegas perguntam-me porque razão deixei o florescente campo da IA para me concentrar na computação quântica. A minha resposta é que ambas irão revelar-se as tecnologias mais transformadoras do nosso tempo, mas a IA avançada irá beneficiar significativamente do acesso à computação quântica. É por isso que chamei ao nosso laboratório de Quantum AI. Os algoritmos quânticos têm leis fundamentais de escala a seu favor, como estamos a ver com o RCS. Existem vantagens de escalabilidade semelhantes para muitas tarefas computacionais fundamentais que são essenciais para a IA. Assim sendo, a computação quântica será indispensável para recolher dados de treino inacessíveis às máquinas clássicas, treinar e otimizar certas arquiteturas de aprendizagem e modelar sistemas onde os efeitos quânticos são importantes. Isto inclui ajudar-nos a descobrir novos medicamentos, conceber baterias mais eficientes para carros eléctricos e acelerar o progresso na fusão e em novas alternativas energéticas. Muitas destas futuras aplicações revolucionárias não serão viáveis em computadores clássicos. Estão à espera de serem desbloqueadas com a computação quântica.
Publicado por Hartmut Neven, Founder and Lead Google Quantum AI
[1] Na escala curta.
A última versão do Pixel Drop[1] traz mais funcionalidades inteligentes, úteis e intuitivas aos nossos dispositivos, com novas formas de usar o Gemini, melhorias na câmara e atualizações de segurança. E o melhor de tudo é que disponibiliza algumas das funcionalidades mais populares em mais países.
Use o Gemini de novas formas
Personalize a forma como o Gemini pode ajudarReceba respostas mais personalizadas do Gemini com a nova funcionalidade de informações guardadas no Gemini Advanced. Esta funcionalidade permite-lhe pedir ao Gemini que se lembre dos seus interesses e preferências para que lhe possa dar respostas mais úteis e relevantes, adaptadas aos seus objetivos e necessidades[2]. Por exemplo, se disser ao Gemini que é uma pessoa vegetariana, o Gemini lembra-se e fornece-lhe receitas vegetarianas sem precisar de o lembrar constantemente. Pode facilmente ver, editar ou eliminar qualquer informação que tenha partilhado, bem como ver quando é usada.
Obtenha ajuda em mais das suas apps favoritasNas próximas semanas iremos facilitar o acesso a mais apps e serviços do Gemini no Android. Com a nova extensão do Spotify[3], pode ouvir as suas músicas favoritas, bem como descobrir playlists para qualquer estado de espírito. Também pode pedir ao Gemini para ligar para contatos pessoais ou empresas, bem como redigir e enviar mensagens com as suas apps de telefone e mensagens predefinidas. Pode até definir alarmes, controlar as definições do dispositivo e abrir a câmara para tirar uma selfie rápida. Vai poder pedir ao Gemini para controlar os dispositivos de casa inteligentes a que a sua Conta Google pode aceder, como as luzes, o ar condicionado ou a TV, bem como pedir ao Gemini mais informações sobre um local no Maps e fazer com que leia críticas e consulte websites para responder-lhe a qualquer questão[4].
Para além disso, o Gemini Live[5] já está disponível em mais idiomas!
Atenda chamadas telefónicas de forma inteligente
Filtre chamadas com respostas ainda mais inteligentes do Gemini NanoO Gemini Nano no Pixel pode agora sugerir-lhe respostas mais contextuais e fáceis de tocar em Filtrar chamada[6]. Isto significa que pode responder facilmente a chamadas desconhecidas, sem ter de atendê-la. Por exemplo, se uma encomenda estiver a ser entregue, pode usar esta funcionalidade para comunicar com quem está a fazê-la, respondendo às suas perguntas de “sim” ou “não” ou fazendo perguntas de seguimento relevantes. Tudo isto através dos novos chips com tecnologia do Gemini Nano.
Veja transcrições em tempo real das suas conversas filtradas para saber se quer continuarAgora, pode espreitar a conversa entre o autor da chamada e o agente de IA durante o filtro de chamadas automática. Pode também atender ou recusar uma chamada em qualquer altura durante a sessão de filtragem[7].
Capture memórias, mantenha a criatividade e a organização
Partilhe nas redes sociais com menos passosAgora, pode capturar e partilhar fotos Ultra HDR, repletas de intensidade luminosa, maior contraste e mais detalhes, diretamente no seu feed do Instagram[8].
Encontre facilmente fotos e vídeos para partilhar no SnapchatÉ ainda mais fácil encontrar fotos e vídeos que quer partilhar no Snapchat. Em vez de percorrer os álbuns de fotos do seu dispositivo, agora pode ver todas as suas pastas, favoritos e fotos na cloud através do Selecionador de fotos[9].
Envie autocolantes do Pixel Studio diretamente do GboardQuer usar as suas criações de autocolantes do Pixel Studio em mais locais? Estão agora disponíveis no teclado do Gboard, para que possa partilhá-las com amigos e familiares através de mensagens, redes sociais e muito mais[10].
Descubra mais combinações incríveis de emojisA Fusão de emojis no Gboard é a fonte de todas as misturas de emojis estranhas e hilariantes com que sempre sonhou. Agora, com uma navegação atualizada, é fácil encontrar a expressão perfeita quando um emoji normal não é suficiente, diretamente do seu teclado[11].
Organize-se melhor com capturas de ecrã As novas atualizações da app Capturas de ecrã do Pixel[12] ajudam a manter a organização durante a azáfama da época festiva. Para começar, quando usar a funcionalidade Circundar para Pesquisar[13] e vir algo que lhe agrade, pode guardá-lo na app Capturas de ecrã do Pixel com apenas um toque para o encontrar mais tarde. Nunca mais se vai esquecer das ideias de presentes!
Além disso, agora, a app Capturas de ecrã do Pixel categoriza automaticamente as suas capturas de ecrã, para que seja ainda mais fácil encontrar exatamente aquilo de que precisa com os novos filtros de pesquisa. Quando encontra o que procura, a app Capturas de ecrã do Pixel sugere-lhe ações úteis, como criar um convite do calendário ou receber direções, com base nas informações guardadas.
A app Capturas de ecrã do Pixel também lhe permite adicionar bilhetes ou cartões de crédito dos quais fez uma captura de ecrã à sua carteira[14], dando-lhe acesso rápido à carta de condução, a cartões de embarque e a muito mais num local conveniente.
E no Gboard, vai ver sugestões de filmes, músicas, produtos e outras opções de texto a partir das suas capturas de ecrã enquanto pesquisa em apps relevantes[15]. Basta ativar a opção “Mostrar sugestões a partir das suas capturas de ecrã noutras apps” na app Capturas de ecrã do Pixel.
Desfrute de melhores ferramentas audiovisuais
Dê uma nova vida às suas legendasAs legendas expressivas, já disponíveis para telemóveis Android, usam a IA para captar automaticamente a intensidade e a emoção da forma como alguém está a falar em qualquer conteúdo com som no telemóvel, até mesmo em streams em direto[16]. Quando estiver a assistir a eventos desportivos em direto, a enviar mensagens de texto, a usar as redes sociais ou a ver uma mensagem de vídeo, vai ver, por exemplo, uma expressão de surpresa quando for revelado um segredo interessante, vivas e aplausos por uma grande vitória e o texto todo em maiúsculas quando alguém estiver realmente entusiasmado.
Ouça áudio mais nítidoReduza automaticamente o ruído e as distrações com a nova atualização da app Gravador. Quer esteja a usar a app para gravar uma aula ou uma entrevista importante, os ruídos de fundo perturbadores podem fazer com que seja difícil acompanhar a reprodução de áudio. Agora, pode ativar a funcionalidade “Voz clara” no Gravador para se concentrar nos oradores e reduzir o ruído de fundo[17].
Usufrua de uma experiência Pixel mais rápida e fluida
Simplifique a experiência com o smartphoneApresentamos uma nova forma de navegar no seu smartphone com a Vista simples. Esta aumenta o tamanho do tipo de letra e a sensibilidade ao toque do telemóvel, tornando mais fácil ver e usar controlos, apps e widgets[18].
Também melhorámos a Partilha rápida, para que a partilha de fotos, links e outros conteúdos seja mais rápida[19].
Veja o que está a tocarDescubra mais músicas e artistas com a mais recente atualização da funcionalidade A tocar. Pode ver a imagem do álbum de cada música no histórico de A tocar, sendo mais fácil explorar música nova.
Sinta-se seguro e protegido
Viaje com tranquilidadeVai viajar nesta época festiva? Agora, quando estiver numa nova localização, a versão beta da Verificação de identidade[20] exige a autenticação facial ou por impressão digital para que seja possível fazer alterações a definições confidenciais no telemóvel. Esta medida confere-lhe proteção adicional contra pessoas que possam tentar roubar o seu telemóvel e aceder às palavras-passe, alterar o PIN ou desativar as funcionalidades de proteção contra roubo.
Veja no pulso o que se passa em casaVeja quem está a bater à porta no Pixel Watch 2[21]. Quando recebe uma notificação da Nest Cam ou Nest Doorbell, tem acesso a uma visualização em direto da entrada e pode falar com quem se encontra lá, tudo isto a partir do seu pulso[22].
Descubra ferramentas de saúde e segurança em novas regiõesExpandimos o acesso à Deteção de perda de pulsação[23] no Pixel Watch 3 aos utilizadores em Portugal e na Alemanha. A Perda de pulsação é uma funcionalidade pioneira que identifica quando o coração de alguém para de bater subitamente devido a condições como paragem cardíaca, envenenamento ou paragem respiratória[24] e, em seguida, faz uma chamada para os serviços de emergência a pedir ajuda[25].
Acompanhe a recuperação do seu corpoO nosso algoritmo melhorado de disposição diária e novas ferramentas (a carga cárdio e o objetivo de cárdio) foram originalmente lançados com o Pixel Watch 3. Agora, vão ficar disponíveis nos Pixel Watches e nos smartwatches e trackers Fitbit compatíveis com a funcionalidade de disposição[26] a partir de 9 de dezembro. Baseadas nas capacidades avançadas de saúde e fitness do Fitbit, estas métricas ajudam a conhecer melhor o seu corpo e a alcançar um equilíbrio entre a atividade e a recuperação. Assim, pode otimizar os seus treinos e descansar para evitar o treino excessivo. Nos Pixel Watches, pode ver estas métricas no pulso na app Fitbit Hoje ou adicionando o ícone Disposição ao mostrador. Nos dispositivos Fitbit, pode vê-las no separador Hoje da app Fitbit para dispositivos móveis.
O Pixel Drop e as novas funcionalidades do Android de dezembro começam a ser implementadas a partir de hoje.
Publicado por Mayra Fajardo, Product Marketing Manager
[1] O seu Pixel vai receber Pixel Drops durante a atualização do Android aplicável e durante os respetivos períodos de apoio para o telemóvel. Consulte g.co/pixel/updates para ver mais detalhes. A disponibilidade de alguns Pixel Drops pode variar consoante o modelo do telemóvel e dispositivo. Telemóvel, auriculares, relógio e tablet vendidos em separado.
[2] É necessária uma subscrição do plano Google One AI Premium e um navegador para a configuração. O Gemini Advanced está disponível para maiores de 18 anos. A disponibilidade pode variar consoante o dispositivo, o país e o idioma. Os resultados têm finalidades ilustrativas e podem variar. Verifique a exatidão das respostas. Esta funcionalidade só está disponível globalmente em inglês para os subscritores do Gemini Advanced através do plano Google One AI Premium.
[3] Só está disponível em inglês. As respostas têm finalidades ilustrativas. Verifique a exatidão das respostas.
[4] As características podem variar dependendo da assinatura. Algumas extensões requerem configuração. Disponível em países selecionados. Respostas para fins ilustrativos. Verifique a precisão das respostas.
[5] Os resultados têm finalidades ilustrativas e podem variar. Verifique a exatidão das respostas. Compatível com determinadas funcionalidades e contas. É necessária uma ligação à Internet. Disponível em dispositivos, idiomas e países selecionados. Disponível apenas para utilizadores com idade igual ou superior a 18 anos.
[6] Em comparação com as versões anteriores do Filtro de chamadas. As respostas sugeridas pelo Gemini Nano estão disponíveis no Pixel 9, Pixel 9 Pro, Pixel 9 Pro XL e Pixel 9 Pro Fold em inglês nos EUA. Consulte g.co/pixel/callassist para ver mais detalhes. O Gemini Nano está disponível em determinados dispositivos, idiomas e países. Verifique a exatidão das respostas.
[7] A vista do Filtro de chamadas automático está disponível no Pixel 4 e nos telemóveis Pixel mais recentes em inglês nos EUA. Consulte g.co/pixel/callassist para ver mais detalhes.
[8] Em comparação com fotos não Ultra HDR. Requer um telemóvel Pixel 9, Pixel 9 Pro, Pixel 9 Pro XL ou Pixel 9 Pro Fold e a app Instagram. A disponibilidade e a funcionalidade podem variar consoante a região.
[9] Disponível no Pixel 6 e nos telemóveis Pixel mais recentes.
[10] Disponível apenas no Pixel 9, Pixel 9 Pro, Pixel 9 Pro XL e Pixel 9 Pro Fold em inglês. Disponível apenas no Gboard, o Teclado Google.
[11] Disponível no Pixel 6, nos telemóveis Pixel mais recentes e no Pixel Tablet.
[12] Disponível apenas no Pixel 9, Pixel 9 Pro, Pixel 9 Pro XL e Pixel 9 Pro Fold em inglês.
[13] Disponível apenas no Pixel 9, Pixel 9 Pro, Pixel 9 Pro XL e Pixel 9 Pro Fold em inglês. A funcionalidade Circundar para Pesquisar requer ligação à Internet, bem como dispositivos, apps e superfícies compatíveis. Os resultados podem variar consoante as correspondências visuais.
[14] Disponível apenas no Pixel 9, Pixel 9 Pro, Pixel 9 Pro XL e Pixel 9 Pro Fold em inglês.
[15] Disponível apenas no Pixel 9, Pixel 9 Pro, Pixel 9 Pro XL e Pixel 9 Pro Fold em inglês.
[16] Disponível no Pixel 6, nos telemóveis Pixel mais recentes e noutros dispositivos Android compatíveis. Disponível apenas em inglês nos EUA. As legendas podem variar. Verifique a exatidão das respostas. Requer o Android 14 ou superior. Não é compatível com chamadas telefónicas nem com a Netflix.
[17] Em comparação com a versão anterior da app Gravador. Disponível apenas no Pixel 9, Pixel 9 Pro, Pixel 9 Pro XL e Pixel 9 Pro Fold.
[18] Disponível no Pixel 6 e nos telemóveis Pixel mais recentes.
[19] Disponível no Pixel 6 e nos telemóveis Pixel mais recentes.
[20] Lançamento de produção disponível em janeiro.
[21] Apenas disponível na Nest Cam (interior ou exterior, com bateria), na Nest Cam com floodlight, na Nest Cam (interior, com fios, 2.ª geração), na Nest Doorbell (bateria), na Nest Doorbell (com fios, 2.ª geração) e nas Nest Cams de 1.ª geração que foram transferidas para a app Home.
[22] Algumas funcionalidades, incluindo as notificações no navegador e no telemóvel, o comando, o streaming de vídeo e a gravação de vídeo requerem Internet e Wi-Fi operacionais.
[23] A Deteção de perda de pulsação pode não detetar todos os casos de perda de pulsação e não se destina a utilizadores com problemas cardíacos pré-existentes ou que necessitem de monitorização cardíaca. Não diagnostica nem trata condições médicas, nem fornece cuidados de seguimento. A chamada para serviços de emergência depende da funcionalidade das chamadas, como o seu telemóvel ou relógio estarem carregados e terem ligação de rede móvel adequada.
[24] A paragem cardíaca primária deve-se a um problema cardíaco (como arritmia, insuficiência cardíaca, etc.)
[25] Este produto não foi aprovado nem avaliado pela FDA (EUA). Com marcação CE: vai ser disponibilizado em determinados mercados da UE g.co/fitbit/lossofpulse.
[26] Disponível para o Pixel Watch 1, Pixel Watch 2, Sense, Sense 2, Versa 2, Versa 3, Versa 4, Charge 5, Charge 6, Inspire 2, Inspire 3 e Luxe.
Os avanços recentes na Inteligência Artificial, especialmente na IA generativa, têm o potencial de fazer aumentar a dimensão da economia da UE em 1,2 mil milhões de euros e poupar ao trabalhador médio mais de 70 horas por ano. Mas para a promessa da IA se concretizar é vital partilharmos recursos que ajudem as pessoas de todos os setores a compreender como utilizar a tecnologia – especialmente junto de pessoas de comunidades desfavorecidas.
Em fevereiro deste ano, a Google.org anunciou o Fundo de Oportunidades de IA: Europa, no valor de 15 milhões de euros, proporcionando apoio ao Centre for Public Impact (CPI). O CPI lançou o desafio a organizações sem fins lucrativos e da sociedade civil que ajudam as comunidades com poucos recursos a candidatarem-se a financiamento em dinheiro, bem como a terem acesso a cursos de formação básica em IA, extensos e personalizados, desenvolvidos pela Google e por parceiros externos.
Recebemos mais de 400 candidaturas de 29 países que disponibilizaram informações interessantes não só sobre onde as competências em IA são mais necessárias, mas também sobre como as organizações sem fins lucrativos de toda a região podem proporcionar a melhor educação em competências de IA. E hoje, temos o prazer de apresentar as 80 organizações em 24 países que, coletivamente, irão disponibilizar formação em IA a mais de 20.000 pessoas — mulheres, pessoas com deficiência, trabalhadores migrantes e pessoas deslocadas — com o objetivo de partilhar conhecimentos básicos de IA que irão conduzir a resultados profissionais positivos a longo prazo.
Abaixo a organização selecionada em Portugal:
Publicado por Rowan Barnett, Director, Google.org, EMEA
A recente atribuição do Prémio Nobel de Química a Demis Hassabis e John Jumper (® Fundação Nobel), pelos contributos do AlphaFold para a previsão da estrutura das proteínas, é a prova de que a IA pode proporcionar avanços incríveis aos cientistas. Mais de 2 milhões de investigadores em 190 países já utilizaram o AlphaFold para ajudar a acelerar a luta contra a malária, a combater uma doença parasitária generalizada e mortal e a preparar o caminho para novos tratamentos para a doença de Parkinson. E a IA está a permitir o nosso progresso numa série de domínios científicos, desde a hidrologia às ciências neurológicas e climáticas.
Mas para que a IA permita a próxima geração de avanços científicos, os cientistas precisam do financiamento necessário, do poder computacional, da experiência em vários domínios e do acesso a infraestruturas, incluindo conjuntos de dados fundamentais, como o Protein Data Bank (Banco de Dados de Proteínas) que impulsionou o trabalho com o AlphaFold.
É por isso que hoje, no primeiro Fórum AI for Science, organizado pela Google DeepMind e pela Royal Society, a Google.org anunciou um financiamento de 20 milhões de dólares para apoiar organizações académicas e sem fins lucrativos em todo o mundo que estão a utilizar IA para resolver problemas cada vez mais complexos nas intersecções das diferentes disciplinas da ciência. Campos como a investigação de doenças raras e negligenciadas, a biologia experimental, a ciência dos materiais e a sustentabilidade revelam-se promissores.
Vamos trabalhar, internamente, com as equipas do Google DeepMind, Google Research e outras equipas focadas em IA, bem como com especialistas externos para identificar e anunciar as organizações. Também vamos disponibilizar 2 milhões de dólares em créditos de Google Cloud e conhecimento técnico gratuito de Googlers.
Este financiamento complementa os mais de 200 milhões de dólares que a Google.org disponibilizou, nos últimos cinco anos, a organizações que utilizam a IA para acelerar os seus trabalhos científicos, incluindo a Materiom no desenvolvimento de novos plásticos; o Women’s Cancer Institute (coordenado pelo Institut Curie) para melhorar a deteção, o tratamento e a compreensão do cancro feminino; e os Médicos Sem Fronteiras para ajudar a erradicar a resistência aos antibióticos.
Repetidamente, o financiamento, a tecnologia e a colaboração uniram-se para impulsionar a descoberta científica. Esperamos que este novo financiamento ajude a incubar mais conquistas dignas de Nobel que melhorarão a vida de milhões de pessoas - e que outros financiadores filantrópicos, públicos e privados se juntem a nós, investindo em resultados duradouros e significativos que exemplificam a capacidade da IA de potenciar a ciência em velocidade digital.
Publicado por Maggie Johnson, VP and Head of Google.org