Caso não tenha estado atento, a Inteligência Artificial (AI) tem estado ultimamente sob os holofotes. Mas tem sido algo grande na Google desde os nossos primeiros dias, e por um bom motivo. Tem o poder de facilitar as suas tarefas rotineiras e ajudar a resolver os maiores problemas da sociedade. Ao comemorarmos o nosso 25º aniversário, estamos a relembrar alguns dos nossos maiores momentos de IA até agora – e ansiosos por marcos ainda maiores que temos pela frente.
2001: A aprendizagem de máquina ajuda os utilizadores da Pesquisa Google a corrigir a ortografia
O co-fundador da Google, Larry Page, disse uma vez: “O mecanismo de pesquisa perfeito deve entender exatamente o que quer dizer e devolver exatamente o que precisa”. Demos um grande passo neste sentido quando começámos a usar uma versão simples da aprendizagem de máquina para sugerir grafias melhores para pesquisas na web. Mesmo que não digite perfeitamente, ainda podemos conseguir disponibilizar o que precisa.
2006: lançamento do Google Tradutor
Cinco anos depois, lançámos o Google Tradutor, que usava aprendizagem de máquina para traduzir idiomas automaticamente. Começámos com traduções de árabe para inglês e de inglês para árabe, mas hoje o Google Tradutor oferece suporte a 133 idiomas falados por milhões de pessoas em todo o mundo. Esta tecnologia pode traduzir textos, imagens ou até mesmo uma conversa em tempo real, quebrando barreiras linguísticas na comunidade global e ajudando as pessoas a comunicar e a expandir o acesso à informação como nunca antes.
2015: TensorFlow democratiza a Inteligência Artificial
A introdução do TensorFlow, uma nova estrutura de aprendizagem de máquina em código aberto, tornou a IA mais acessível, escalável e eficiente. Também ajudou a acelerar o ritmo da investigação e o desenvolvimento da IA em todo o mundo. O TensorFlow é agora uma das estruturas de aprendizagem de máquina mais populares e tem sido usada para desenvolver uma ampla variedade de aplicações de IA, desde reconhecimento de imagem até ao processamento de linguagem natural e a tradução automática.
2016: AlphaGo derrota o campeão mundial de Go
Enquanto parte do Google DeepMind Challenge Match, mais de 200 milhões de pessoas assistiram online quando AlphaGo se tornava no primeiro programa de IA a derrotar um campeão mundial humano em Go, um jogo de tabuleiro complexo, anteriormente considerado fora do alcance das máquinas. Esta vitória marcante demonstrou o potencial da aprendizagem profunda para resolver problemas complexos que antes eram considerados impossíveis para os computadores. A vitória do AlphaGo sobre Lee Sedol, um dos melhores jogadores de Go do mundo, desencadeou uma conversação global sobre o futuro da IA e mostrou que os sistemas de IA podem aprender a dominar jogos complexos que exigem pensamento estratégico e criatividade.
2016: TPUs permitem implementação de IA mais rápida e eficiente
As Unidades de Processamento Tensor, ou TPUs, são chips de silício personalizados que inventámos especificamente para a aprendizagem de máquina e otimizados para o TensorFlow. Eles podem treinar e executar modelos de IA muito mais rapidamente do que os chips tradicionais, o que os torna ideais para aplicações de IA em larga escala. A versão v5e, anunciada em agosto, é o TPU Cloud TPU mais económico, versátil e escalável até ao momento.
2017: Google Research apresenta o Transformer
O artigo científico da Google “Attention Is All You Need” apresentou o Transformer, uma nova arquitetura de rede neural que ajudou na compreensão da linguagem. Antes do Transformer, as máquinas não eram muito boas a compreender o significado de frases longas – não conseguiam ver as relações entre palavras distantes umas das outras. O Transformer melhorou muito isto e tornou-se na base dos sistemas de IA generativos e de compreensão de linguagem mais impressionantes da atualidade. O Transformer revolucionou o que ele significa para as máquinas realizarem tradução, resumo de texto, resposta a perguntas e até geração de imagens e a robótica.
2019: BERT ajuda a Pesquisa a entender melhor as perguntas
A nossa investigação sobre os Transformers levou à introdução do Bidirectional Encoder Representations from Transformers, mais conhecido por BERT, que ajudou a Pesquisa a entender as perguntas dos utilizadores melhor do que nunca. Em vez de tentar compreender as palavras individualmente, os nossos algoritmos BERT ajudaram a Google a entender as palavras no contexto. Isto levou a uma grande melhoria na qualidade da Pesquisa e tornou-se mais fácil para as pessoas fazerem perguntas como fazem no dia a dia, em vez de agrupar as palavras-chave.
2020: AlphaFold resolve o problema do dobramento das proteínas
Em 2020, a DeepMind deu um salto no campo da IA com o seu sistema, AlphaFold, que foi reconhecido como uma solução para o “problema do dobramento das proteínas”. As proteínas são os blocos de construção da vida, e a forma como uma proteína se dobra determina a sua função; uma proteína mal dobrada pode causar doenças. Durante 50 anos, os cientistas tentaram prever como uma proteína se dobraria para ajudar a compreender e tratar doenças. AlphaFold fez exatamente isso. Em 2022, partilhámos gratuitamente 200 milhões de estruturas de proteínas do AlphaFold — abrangendo quase todos os organismos do planeta que tiveram seu genoma sequenciado — com a comunidade científica através do banco de dados de estruturas de proteínas AlphaFold. Mais de um milhão de investigadores já o utilizaram para trabalhar em tudo, para acelerar novas vacinas contra a malária em tempo recorde, avançar na descoberta de medicamentos contra o cancro e desenvolver enzimas que comem plástico.
2023: Bard ajuda-o colaborar com a IA generativa
LaMDA, um modelo grande de linguagem conversacional lançado pela Google Research em 2021, abriu caminho para muitos sistemas generativos de IA que capturaram a imaginação do mundo, incluindo Bard. Lançado em março, o Bard está agora disponível na maior parte do mundo e em mais de 40 idiomas para que mais pessoas do que nunca possam usá-lo para aumentar a produtividade, acelerar ideias e estimular a curiosidade. E combinámos o modelo mais inteligente e mais capaz do Bard com os serviços da Google que usa todos os dias, como Gmail, Docs, Drive, Flights, Maps e o YouTube para ser ainda mais útil para si em tarefas como planeamento de uma viagem, verificação de respostas e resumindo e-mails ou documentos.
2023: PaLM 2 faz avanços no futuro da IA
Em maio deste ano, apresentámos o PaLM 2, o nosso Grande Modelo de Linguagem de próxima geração que melhorou os recursos multilíngues, de raciocínio e de programação. É mais capaz, mais rápido e mais eficiente do que os seus antecessores e já está a alimentar mais de 25 produtos e funcionalidades da Google – incluindo Bard, funcionalidades de IA generativa no Gmail e Workspace, e SGE, a nossa experiência para integrar profundamente a IA generativa na Pesquisa Google. Também estamos a usar o PaLM 2 para avançar na investigação interna sobre tudo, desde saúde até à cibersegurança.
Estas são apenas algumas das inovações de IA da Google que estão a viabilizar muitos dos produtos que milhares de milhões de pessoas usam todos os dias. Com os nossos Princípios de IA orientarem-nos à medida que adotamos uma abordagem ousada e responsável à IA, já estamos a trabalhar no Gemini, o nosso próximo modelo construído para permitir avanços futuros nos próximos 25 anos.
Publicado por Rachel Hespell, Keyword Contributor