Milhares de milhões de pessoas em todo o mundo confiam nos produtos da Google para fornecer informações relevantes e confiáveis, incluindo anúncios. É por isso que temos milhares de pessoas a trabalhar ininterruptamente para proteger o ecossistema de publicidade digital. Hoje, estamos a lançar o nosso Relatório Anual de Segurança Google Ads de forma a partilhar o progresso que fizemos na aplicação das nossas políticas para os anunciantes e para os editores e para nos responsabilizamos pelo nosso trabalho de manter uma Internet saudável com anúncios.
A principal tendência em 2023 foi o impacto da IA generativa. Esta nova tecnologia introduziu mudanças significativas e interessantes na indústria da publicidade digital, desde a otimização do desempenho até à edição de imagens. É claro que a IA generativa também apresenta novos desafios. Levamos estes desafios muito a sério e vamos descrever o trabalho que estamos a fazer para os enfrentar de frente.
Igualmente importante é que a IA generativa apresenta uma oportunidade única para melhorar significativamente os nossos esforços de aplicação das nossas políticas. As nossas equipas estão a adotar esta tecnologia transformadora, especificamente os Grandes Modelos de Linguagem (LLMs), de forma a conseguirmos manter, ainda mais, as pessoas seguras online.
IA generativa reforça a aplicação
As nossas equipas de segurança usam, há muito tempo, sistemas de aprendizagem de máquina (machine learning) orientados por IA para aplicarem as nossas políticas em grande escala. Foi assim que, durante anos, conseguimos detectar e bloquear milhares de milhões de “maus anúncios” (bad ads) antes que uma pessoa os visse. Mas, embora ainda altamente sofisticados, estes modelos de aprendizagem automática necessitam historicamente de serem treinados de uma forma extensiva – baseiam-se frequentemente em centenas de milhares, senão milhões de exemplos de conteúdo violador.
Os Grandes Modelos de Linguagem (LLMs), por outro lado, são capazes de rever e interpretar rapidamente um grande volume de conteúdo, ao mesmo tempo que captam detalhes importantes deste mesmo conteúdo. Estas capacidades de raciocínio avançadas já resultaram em decisões de aplicação mais precisas e em maior escala sobre algumas das nossas políticas mais complexas. Tomemos, por exemplo, a nossa política contra as Afirmações Financeiras Não Confiáveis, que inclui anúncios que promovem esquemas de enriquecimento rápido. Os malfeitores por detrás destes tipos de anúncios tornaram-se mais sofisticados. Eles ajustam as suas táticas e adaptam os anúncios em torno de novos serviços ou produtos financeiros, como consultoria de investimento ou moedas digitais, para enganar os utilizadores.
É certo que os modelos tradicionais de aprendizagem de máquina são treinados para detectar estas violações de políticas. No entanto, a natureza acelerada e em constante mudança das tendências financeiras torna, por vezes, mais difícil diferenciar entre serviços legítimos e falsos e dimensionar rapidamente os nossos sistemas de aplicação automatizados para combater as fraudes. Os LLMs são mais capazes de reconhecer rapidamente novas tendências em serviços financeiros, identificar os padrões de maus atores que estão a abusar destas tendências e a distinguir um negócio legítimo de uma fraude de enriquecimento rápido. Isto ajudou as nossas equipas a tornarem-se ainda mais ágeis no confronto às ameaças emergentes de todos os tipos.
Apenas começámos a aproveitar o poder dos LLMs para a segurança dos anúncios. O Gemini, lançado publicamente no ano passado, é o modelo mais capaz da Google. Estamos entusiasmados por começar a incorporar as suas capacidades sofisticadas de raciocínio nos nossos esforços de segurança e aplicação de anúncios.
O nosso trabalho para prevenir fraudes e scams
Em 2023, os scams e as fraudes em todas as plataformas online aumentaram. Os maus actores estão constantemente a evoluir as suas táticas para manipular a publicidade digital, com o propósito de enganar pessoas e empresas legítimas. Para combater estas ameaças em constante mudança, atualizamos rapidamente as políticas, implementámos equipas de aplicação de resposta rápida e melhorámos as nossas técnicas de detecção.
No geral, bloqueámos ou removemos 206,5 milhões de anúncios por violarem a nossa política de representação fraudulenta, que incluem muitas táticas de scam e bloqueamos ou removemos 273,4 milhões de anúncios por violarem a nossa política de serviços financeiros. Também bloqueámos ou removemos mais de mil milhões de anúncios por violarem a nossa Política de Utilização Abusiva da Rede de Publicidade, o que inclui a promoção de malware.
A luta contra os anúncios fraudulentos é um esforço contínuo, à medida que vemos os maus atores a operarem com maior sofisticação, em maior escala, a usar novas táticas como deepfakes para enganar as pessoas. Vamos continuar a dedicar amplos recursos, a fazer investimentos significativos na tecnologia de detecção e a estabelecer parcerias com organizações como a Global Anti-Scam Alliance e a Stop Scams UK para facilitar a partilha de informação e para proteger os consumidores por todo o mundo.
Investir na integridade das eleições
Os anúncios políticos são uma parte importante das eleições democráticas. Candidatos e partidos usam os anúncios para consciencializar, partilhar informações e envolver potenciais eleitores. Num ano com várias eleições importantes em todo o mundo, queremos garantir que os eleitores continuem a confiar nos anúncios eleitorais que podem ver nas nossas plataformas. É por isso que temos requisitos de verificação de identidade e de transparência, de longa data, para os anunciantes eleitorais, bem como restrições sobre como estes anunciantes podem direcionar os seus anúncios eleitorais. Todos os anúncios eleitorais também devem conter uma menção que mostre claramente quem os pagou e são publicados no nosso relatório de transparência, disponível publicamente. Em 2023, verificamos mais de 5.000 novos anunciantes eleitorais e removemos mais de 7,3 milhões de anúncios eleitorais provenientes de anunciantes que não concluíram o processo de verificação.
No ano passado, fomos a primeira empresa de tecnologia a lançar um novo requisito de divulgação para os anúncios eleitorais que contenham conteúdo sintético. À medida que mais anunciantes aproveitam o poder e as oportunidades da IA, queremos garantir que continuamos a fornecer às pessoas uma maior transparência e as informações de que necessitam de forma a tomarem decisões informadas.
Além disso, continuámos a aplicar as nossas políticas contra os anúncios que promovam afirmações eleitorais comprovadamente falsas que possam prejudicar a confiança ou a participação nos processos democráticos.
Números gerais de 2023
O nosso objetivo é detectar maus anúncios e suspender contas fraudulentas antes que as mesmas cheguem às nossas plataformas ou removê-las imediatamente após serem detectadas. A IA está a melhorar a nossa aplicação em todas estas frentes. Em 2023, bloqueámos ou removemos mais de 5,5 mil milhões de anúncios, um pouco acima do ano anterior, e 12,7 milhões de contas de anunciantes, quase o dobro do ano anterior. Da mesma forma, trabalhamos para proteger os anunciantes e as pessoas ao remover os nossos anúncios de páginas de editores e websites que violam nossas políticas, tais como de conteúdo sexualmente explícito ou produtos perigosos. Em 2023, bloqueámos ou restringimos a publicação de anúncios em mais de 2,1 mil milhões de páginas de editores, um ligeiro aumento em relação a 2022. Também estamos a melhorar a forma como combatemos as violações generalizadas ou graves. Tomamos medidas de fiscalização mais amplas ao nível do website em mais de 395.000 websites de editores, um aumento significativo em relação a 2022.
O verdadeiro impacto da IA no nosso trabalho: no ano passado, mais de 90% da nossa aplicação ao nível das páginas dos editores começou com o uso de modelos de aprendizagem de máquina, incluindo os nossos LLMs mais recentes. É claro que qualquer anunciante ou editor pode, ainda, recorrer de uma medida de aplicação se achar que erramos. As nossas equipas irão revê-la e, nos casos em que encontrarmos erros, vamos utilizá-la para melhorar os nossos sistemas.
Permanecer ágil e olhar em frente
Quando se trata da segurança dos anúncios, muita coisa pode mudar ao longo de um ano: a introdução de novas tecnologias, tais como a IA generativa, a novas tendências de abuso e de conflitos globais. E o espaço publicitário digital tem que ser ágil e pronto para reagir. É por isso que estamos continuamente a desenvolver novas políticas, a reforçar os nossos sistemas de aplicação, a aprofundar a colaboração entre indústrias e a oferecer mais controlo às pessoas, aos editores e aos anunciantes.
Em 2023, por exemplo, lançamos o Centro de Transparência de Anúncios, um repositório pesquisável de anunciantes verificados que ajuda, de uma forma rápida e fácil, as pessoas a saberem mais sobre os anúncios que veem na Pesquisa, no YouTube e na Rede de Display. Também atualizamos os nossos controlos de adequação de conteúdo para tornar mais simples e rápida a forma dos anunciantes excluírem tópicos que desejam evitar no inventário do YouTube e da Rede de Display. No geral, fizemos 31 atualizações nas nossas políticas para os anúncios e para os editores.
Embora ainda não saibamos o que o resto de 2024 nos reserva, estamos confiantes de que os nossos investimentos nas políticas, detecção e aplicação vão preparar-nos para quaisquer desafios futuros.