Nota do Editor: O seguinte excerto diz respeito à intervenção de Amanda Storey a 26 de outubro de 2023 durante o evento Fighting Misinformation Online Summit em Bruxelas. Foi editado para contagem de caracteres.
Na Google, o nosso objetivo é equilibrar o acesso à informação com a proteção dos utilizadores e da sociedade. Para a informação ser útil, ela também tem de ser segura.
É por isso que levamos a sério a nossa responsabilidade de disponibilizar acesso a informação e a conteúdos confiáveis, protegendo os utilizadores de danos, proporcionando informação confiável e estabelecendo parcerias para criar uma Internet mais segura.
As nossas decisões sobre produtos, as políticas e respectiva aplicação são guiadas por princípios que valorizam a abertura e a acessibilidade, a escolha pessoal e a diversidade dos nossos utilizadores. Nós damos prioridade à preservação da liberdade de expressão que a Internet proporciona de forma tão poderosa, ao mesmo tempo que restringimos a disseminação de conteúdos prejudiciais aos utilizadores e à sociedade.
Proteger os utilizadores contra danos e abusos
Estamos constantemente a evoluir as ferramentas, políticas e técnicas que usamos para detectar abuso de conteúdo à escala do Google.
A IA está a mostrar-se como uma grande promessa para ampliar a detecção de abusos nas nossas plataformas. Por exemplo, construímos um protótipo que faz uso dos avanços recentes em grandes modelos de linguagem, ou LLMs, para ajudar na identificação de conteúdo abusivo em escala. Os grandes modelos de linguagem são um tipo de inteligência artificial que pode gerar e compreender a linguagem humana.
Ao utilizar os LLMs, o nosso objetivo é sermos capazes de construir e treinar rapidamente um modelo numa questão de dias – em vez de semanas ou meses – para encontrar tipos específicos de abuso nos nossos produtos. Isto é especialmente valioso para as áreas de abuso novas e emergentes; podemos criar rapidamente um protótipo de um modelo que é especialista em encontrar este tipo de abuso e encaminhá-lo automaticamente para as nossas equipas para aplicação. Embora ainda estejamos a testar estas novas técnicas, as mesmas demonstraram, até agora, resultados impressionantes. Se o protótipo continuar a disponibilizar estes resultados, será um grande avanço no nosso esforço para proteger, proativamente, os nossos utilizadores em escala, especialmente contra riscos novos e emergentes.
Ajudar os utilizadores a avaliar as informações que encontram on-line
Hoje vai conhecer algumas das medidas que estamos a tomar para reduzir a ameaça da desinformação e para promover informação confiável em produtos de IA generativa. Isto inclui a integração de marcas de água, metadados e outras técnicas nos nossos modelos generativos mais recentes. Estamos também a anunciar o lançamento de Acerca desta Imagem uma nova ferramenta que vai ajudar as pessoas a avaliar facilmente o contexto e a credibilidade das imagens. Estamos a melhorar a nossa ferramenta Fact Check Explorer, onde o utilizador pode encontrar verificações de factos que foram investigados por organizações independentes. Acreditamos que isto vai ajudar a acelerar o processo de verificação de imagens em todo o mundo.
Também atualizamos recentemente as nossas políticas de publicidade eleitoral para exigir que os anunciantes divulguem quando os seus anúncios eleitorais incluem material que foi alterado ou gerado digitalmente. Esta medida vai ajudar a fornecer contexto adicional às pessoas que veem publicidade eleitoral nas nossas plataformas.
Estabelecer parcerias para criar uma web mais segura
Reconhecemos também que a escala deste problema exige que façamos parcerias com outros. Sabemos que a colaboração é a chave para o sucesso na luta pela informação de qualidade, por isso, há muitos anos, que investimos em produtos e parcerias para combater a desinformação.
No ano passado, anunciámos o Fundo Global de Verificação de Factos e um compromisso de 10 milhões de dólares para combater a desinformação contra a guerra na Ucrânia, incluindo novas parcerias com grupos de reflexão e organizações da sociedade civil e donativos em dinheiro para redes de verificação de factos e organizações sem fins lucrativos. E contribuímos com 25 milhões de euros para lançar o Fundo Europeu para os Media e Informação, criado pelo Instituto Universitário Europeu e pela Fundação Calouste Gulbenkian, sob a supervisão do Observatório Europeu dos Media Digitais, para reforçar a verificação de factos, a literacia mediática e a investigação sobre a desinformação.
No início deste ano, a Google.org comprometeu-se com 5 milhões de euros para apoiar organizações em toda a Europa que proporcionam educação no que diz respeito a matéria crítica de literacia mediática. Ontem, participei num evento com 40 pessoas que representam algumas das organizações no Fighting Misinformation Online Google.org Leaders Lab. A Google.org também trouxe conhecimento técnico para organizações sem fins lucrativos através de bolsas como com a Full Fact, uma organização que usa a IA para ajudar os verificadores de factos a combater a desinformação.
Além disso, a campanha Hit Pause do YouTube é um programa plurianual de “Cidadania Digital” que apresenta vídeos envolventes e educativos que ensinam aos espectadores competências que os ajudam a usar as plataformas de partilha de vídeos como o YouTube, de forma segura e responsável. Desde 2022, o YouTube lançou o Hit Pause em mais de 75 países e 40 idiomas.
Finalmente, abordar o conteúdo gerado pela IA exigirá soluções de indústria. Já estamos em negociações com grupos como o Partnership on AI e ML Commons, e lançamos o Frontier Model Forum com outros laboratórios líderes de IA para promover um desenvolvimento responsável dos modelos de Inteligência Artificial. E estamos empenhados em trabalhar com todas as partes interessadas, incluindo muitos de vós que aqui estão presentes, para continuar a aproveitar as oportunidades da IA de uma forma responsável e produtiva.
Estou realmente ansiosa por ouvir, hoje, algumas das principais vozes da verificação de factos, moderação de conteúdo, políticas e jornalismo e ver o que cada um de nós pode alcançar quando trabalhamos em conjunto.
Publicado por Amanda Storey, Senior Director of Trust and Safety