Milhares de milhões de pessoas de todo o mundo acedem ao YouTube por vários motivos. Seja para assistir a um espetáculo difícil de encontrar ou para aprender uma nova competência, o YouTube conecta os espectadores a uma variedade incrível de conteúdos e vozes. Mas nada disso seria possível sem o nosso compromisso de proteger a nossa comunidade – este princípio fundamental é a base de todos os nossos sistemas e sustenta todos os aspectos dos nossos produtos.
Algumas vezes, no decorrer do ano, irei informar sobre como estamos a enfrentar alguns dos maiores desafios com que o YouTube se depara e os prós e contras de cada ação que levamos a cabo. Nas próximas publicações, iremos falar de temas como o desenvolvimento das políticas, além de explicar melhor como lidamos com problemas complexos ou fazer um resumo das principais metas de responsabilidade. Nesta primeira edição, queria falar sobre o nosso trabalho atual para lidar com a desinformação potencialmente prejudicial no YouTube.
Nos últimos cinco anos, investimos fortemente numa estrutura que a que demos o nome de 4Rs da Responsabilidade. Utilizando uma combinação de machine learning e de pessoas, removemos rapidamente o conteúdo que viola as nossas políticas, damos voz às fontes confiáveis e reduzimos a disseminação do conteúdo problemático (expliquei pormenorizadamente o porquê aqui). Estas ferramentas, ao trabalhar em conjunto, têm sido fundamentais para manter reduzido o número de visualizações enquanto se preserva a liberdade de expressão na nossa plataforma. No entanto, à medida que as narrativas de desinformação surgem mais rapidamente e se espalham mais amplamente do que nunca, a nossa abordagem precisa evoluir para acompanhar o ritmo. Seguem-se os próximos três desafios que as nossas equipas terão que enfrentar.
Identificação de novos conteúdos de desinformação antes que se tornem virais
Ao longo de vários anos, o cenário de desinformação on-line foi dominado por algumas narrativas principais – teorias de conspiração relativas ao 11 de setembro, a chegada à Lua e até mesmo teorias da conspiração acerca da terra ser plana. Essas teorias da conspiração de longa data construíram um arquivo de conteúdo. Como resultado, conseguimos treinar os nossos sistemas de machine learning de forma a reduzir as recomendações destes vídeos e outros semelhantes com base em padrões deste tipo de conteúdo. Mas cada vez mais, uma narrativa completamente nova pode surgir rapidamente e ganhar visualizações. Ou as narrativas podem deslizar de um tópico para outro – por exemplo, algum conteúdo geral de bem-estar pode levar à hesitação sobre a vacina. Cada narrativa também pode ter uma aparência e propagar-se de maneira diferente e, às vezes, até ser hiperlocal.
Enfrentámos estes desafios no início da pandemia da COVID-19 – a teoria da conspiração de que as torres 5G causavam a disseminação do coronavírus levou pessoas a incendiar torres de redes móveis no Reino Unido. Devido ao claro risco de danos no mundo real, respondemos a estas situações, atualizando as nossas diretrizes e proibimos este tipo de conteúdo. Neste caso, poderíamos agir rapidamente porque já tínhamos políticas em vigor para a desinformação sobre a COVID-19 com base nas orientações das autoridades de saúde locais e globais.
No entanto, nem sempre poderemos contar com orientação especializada para nos informar sobre narrativas que se estão a difundir rapidamente e, assim, poder atualizar as nossas políticas. E quanto mais recente for a desinformação, menos exemplos temos para treinar os nossos sistemas. De forma a resolver esta questão, estamos continuamente a treinar o nosso sistema com novos dados. Estamos a procurar aproveitar uma combinação ainda mais direcionada de classificadores, palavras-chave em idiomas adicionais e informações de analistas regionais para identificar narrativas que o nosso classificador principal não capta. Ao longo do tempo, esta medida irá tornar-nos mais rápidos e precisos na identificação destas narrativas de desinformação viral.
Além de reduzir a disseminação de alguns conteúdos, os nossos sistemas conectam os espectadores a vídeos confiáveis nos resultados da pesquisa e nas recomendações. Mas certos tópicos carecem de um corpo de conteúdo confiável – ao que chamamos de vazios de dados. Por exemplo, considere uma notícia de última hora, como um desastre natural. Neste caso, podemos ver, quase imediatamente, conteúdo não verificado a especular sobre as causas e as vítimas. As fontes confiáveis levam tempo a criar um novo conteúdo de vídeo e, quando a desinformação se espalha rapidamente, nem sempre há conteúdo de fontes confiáveis suficientes para o qual possamos apontar a curto prazo.
Para grandes eventos noticiosos, como um desastre natural, apresentamos painéis de notícias em desenvolvimento para direcionar os espectadores a textos de artigos sobre o acontecimento. Para tópicos de nicho que os meios de comunicação podem não cobrir, fornecemos aos espectadores caixas de verificação de fatos. Mas a verificação de fatos também leva o seu tempo, e nem todos os tópicos emergentes serão abordados. Nestes casos, exploramos outros tipos de rótulos para adicionar a um vídeo ou nos resultados de pesquisa, como um aviso de isenção de responsabilidade aos espectadores de que há falta de informações de alta qualidade. Também temos que avaliar se o surgimento de um rótulo pode involuntariamente colocar em destaque um tópico que, de outra forma, não ganharia força. As nossas equipas estão a discutir ativamente estas considerações à medida que tentamos encontrar a melhor abordagem.
O problema multiplataforma - abordar as partilhas de desinformação
Outro desafio é a disseminação de vídeos com conteúdo duvidoso fora do YouTube – são vídeos que não ultrapassam os limites das nossas políticas de remoção, mas que não queremos necessariamente recomendar às pessoas. Revemos os nossos sistemas de recomendação para reduzir de maneira considerável, abaixo de 1%, o consumo de conteúdo duvidoso com origem nas nossas recomendações. Mas mesmo que não recomendemos um determinado vídeo duvidoso, este ainda pode receber visualizações vindas de outros websites que remetem ou incorporam um vídeo do YouTube.
Uma maneira possível de resolver isto é desativar o botão de partilha ou quebrar o link em vídeos que já estamos a limitar nas recomendações. O que significa que efetivamente que o utilizador não pode incorporar ou vincular um vídeo limítrofe noutro site. Contudo, acabamos por nos questionar se a prevenção de partilhas pode ir longe demais no que diz respeito à restrição da liberdade de um espectador. Os nossos sistemas reduzem o conteúdo duvidoso nas recomendações, mas a partilha de um link é uma escolha ativa que uma pessoa pode fazer, diferente de uma ação mais passiva, como assistir a um vídeo recomendado.
O contexto também é importante – vídeos duvidosos incorporados numa investigação ou reportagem podem exigir exceções ou um tratamento totalmente diferente. Precisamos de ter cuidado para equilibrar a limitação da disseminação de desinformação potencialmente prejudicial, ao mesmo tempo em que se permite um espaço para discussão e educação sobre tópicos sensíveis e controversos.
Outra abordagem poderia ser a exibição de um aviso que aparece antes que um espectador possa assistir a um vídeo incorporado ou vinculado, informando que o conteúdo pode conter informações incorretas. Os avisos são como uma lombada – a etapa extra faz com que o espectador pare antes de assistir ou partilhar conteúdo. Na verdade, já usamos avisos para conteúdo com restrição de idade e vídeos violentos ou explícitos, e consideramo-los uma ferramenta importante para dar aos espectadores uma escolha sobre o que estão prestes a assistir.
Iremos continuar a explorar cuidadosamente diferentes opções para garantir que limitamos a disseminação de desinformação prejudicial na Internet.
Aumento dos nossos esforços para combater a desinformação em todo o mundo
O nosso trabalho para conter a desinformação trouxe resultados reais, mas ainda existem complexidades enquanto nos esforçamos para levar estes processos a mais de 100 países e dezenas de idiomas em que operamos.
Cada cultura tem atitudes diferentes em relação ao que torna uma fonte confiável. Em alguns países, televisões públicas como a BBC no Reino Unido são amplamente vistas como fontes de notícias confiáveis. Enquanto isso, noutros países, as televisões públicas podem estar mais próximas da propaganda. Os países também mostram uma variedade de conteúdo no seu ecossistema de notícias e de informação, desde meios que exigem padrões rígidos de verificação de fatos até aqueles com pouca supervisão ou verificação. E ambientes políticos, contextos históricos e de notícias de última hora podem conduzir a narrativas de desinformação hiperlocais que não aparecem em nenhum outro local do mundo. Por exemplo, durante o surto de Zika no Brasil, alguns atribuíram a doença a conspirações internacionais. Ou recentemente no Japão, espalharam-se falsos rumores online de que um terramoto foi causado por intervenção humana.
Diante desta diversidade regional, as nossas equipas deparam-se com muitos dos mesmos problemas que vemos com a desinformação emergente, desde a mudança de narrativas até à falta de fontes confiáveis. Por exemplo, no início da pandemia, vimos que nem todos os países tinham as investigações mais recentes disponíveis das suas autoridades de saúde, e essas autoridades locais às vezes tinham orientações diferentes.
O que é considerado duvidoso também pode variar significativamente. Estamos sempre a levar em consideração como as diretrizes dos nossos avaliadores de conteúdo podem ser interpretadas de maneira diferente entre idiomas e culturas. Demora o seu tempo trabalhar com equipas e especialistas locais para informar o contexto cultural que afeta a classificação de um vídeo como duvidoso.
Para além de aumentarmos as nossas equipas com ainda mais pessoas que entendem as nuances regionais entrelaçadas na desinformação, estamos a explorar mais investimentos em parcerias com especialistas e organizações não governamentais de todo o mundo. Além disso, e de forma semelhante à nossa abordagem com novos tópicos virais, estamos a trabalhar em várias formas de atualizar os modelos com maior frequência para detectar desinformação hiperlocal, com capacidade de oferecer suporte a idiomas locais.
Reforço da nossa transparência
No YouTube, iremos continuar a desenvolver o nosso trabalho para reduzir a desinformação prejudicial em todos os nossos produtos e políticas, ao mesmo tempo que permitimos que diversas vozes prosperem. Reconhecemos que talvez não tenhamos todas as respostas, mas achamos importante partilhar as perguntas e os problemas sobre os quais temos vindo a pensar. Mais do que nunca é urgente ampliar os nossos esforços em relação à segurança e ao bem-estar da nossa comunidade, e espero mantê-los informados ao longo do tempo e deste caminho.