A desinformação passou de marginal a convencional. Não se limita mais a silos isolados de negacionistas do Holocausto ou do 11 de setembro e passou a estender-se a todos os aspetos da sociedade, espalhando-se por comunidades inteiras com uma velocidade alucinante. Aparentemente, nenhum tópico está imune. Com muita frequência, temos visto desinformação ligada a notícias de última hora. Logo após eventos trágicos como ataques violentos surgem teorias de vários âmbitos, desde a identidade de um atirador até suas motivações. Nesses momentos, o que acontece no mundo real também acontece no YouTube. Nós refletimos a realidade mas sabemos que também podemos ajudar a moldá-la. Por isso, impedir a disseminação de informações enganosas é um dos nossos compromissos mais importantes.
A solução pode não ser o que está a pensar: que precisamos de melhorar a remoção de conteúdos nos nossos websites, e fazê-lo mais rapidamente. Temos tido esse foco desde o início do YouTube através das nossas Diretrizes da Comunidade. Atualmente, removemos quase 10 milhões de vídeos por trimestre, a maioria dos quais nem chega a ter 10 visualizações. As remoções rápidas serão sempre importantes, mas sabemos que elas não são suficientes. Em vez disso, a forma como tratamos todo o conteúdo que estamos a deixar no YouTube é que nos indica o melhor caminho a seguir.
A coisa mais importante que podemos fazer é aumentar o que é bom e diminuir o que é mau. É por isso que no YouTube estamos a aumentar a informação de fontes confiáveis e a reduzir a disseminação de vídeos com desinformação prejudicial. Quando as pessoas, agora, procuram por notícias e informação, elas obtêm resultados otimizados com base na qualidade, não não pelo grau de atratividade do conteúdo. Eis porque tornámos isto em algo chave na nossa abordagem:
Primeiro, se nos concentrarmos apenas no que removemos, estaremos a perder a enorme quantidade de conteúdo que as pessoas realmente veem. O conteúdo impróprio representa apenas uma pequena percentagem dos milhares de milhões de vídeos no YouTube (cerca de 0,16 a 0,18% do total de visualizações acaba por ser conteúdo que viola nossas políticas). E as nossas políticas centram-se na remoção de quaisquer vídeos que possam causar danos graves no mundo real. Por exemplo, desde fevereiro passado, removemos mais de 1 milhão de vídeos relacionados com informação perigosa sobre o coronavírus, como curas falsas ou alegações de farsa. No meio de uma pandemia global todos deverão estar armados com as melhores informações disponíveis para se manterem seguros e às suas famílias.
Mas, para identificar claramente conteúdos mal-intencionados é preciso um conjunto claro de fatos. No caso da COVID, contamos com o consenso de especialistas de organizações de saúde como o CDC e a OMS para acompanhar a ciência à medida que vai evoluindo. Na maioria dos outros casos, a desinformação é menos clara. Por natureza, ela evolui constantemente e muitas vezes carece de uma fonte primária que nos diga exatamente quem está certo. Tal como na sequência de um ataque, informações divergentes poderão surgir de todas as direções. Às vezes, até dicas apontadas pela população se equivocam na hora de identificar vítimas ou culpados, com um efeito devastador. Na ausência de certeza, devem as empresas de tecnologia decidir quando e onde estabelecer as fronteiras do território obscuro da desinformação? A minha forte convicção é que não.
Vimos isto acontecer nos dias que se seguiram às eleições presidenciais de 2020 nos Estados Unidos. Sem uma certificação eleitoral oficial para onde apontar imediatamente, permitimos que vozes de todo o espectro permanecessem no ar. Mas os nossos sistemas proporcionaram o conteúdo mais confiável ao público. Naquela primeira semana, alguns dos canais e vídeos mais vistos relacionados com a cobertura das eleições vieram de meios de notícias de confiança. Uma vez que os estados certificaram os seus resultados eleitorais no início de dezembro, começámos a remover conteúdo que alegava uma suposta fraude que levou aos resultados eleitorais. Desde então, removemos milhares de vídeos por violarem as nossas políticas relacionadas com eleições, com mais de 77% removidos antes de atingirem as 100 visualizações.
Uma abordagem excessivamente agressiva na remoção teria também um efeito negativo sobre a liberdade de expressão. A remoção é um instrumento contundente e, se usado de forma muito abrangente, pode enviar uma mensagem de que ideias controversas são inaceitáveis. Estamos a assistir a novos momentos perturbadores de governos a ordenar a remoção de conteúdo para fins políticos. E, eu, pessoalmente acredito que estamos melhor enquanto sociedade quando podemos ter um debate aberto. A informação errada de uma pessoa é, muitas vezes, a crença profunda de outra pessoa, incluindo perspectivas que são provocadoras, potencialmente ofensivas ou, até mesmo, em alguns casos, informações que podem não passar no escrutínio de um verificador de fatos. Ainda assim, o nosso apoio a uma plataforma aberta significa uma responsabilidade ainda maior para ligar as pessoas a informações de qualidade. E iremos continuar a investir e a inovar em todos os nossos produtos para encontrar um equilíbrio razoável entre a liberdade de expressão e liberdade de alcance.
Críticos afirmam que mantemos no ar conteúdo polêmico porque isso nos traz benefícios financeiros. Não apenas sabemos que esse tipo de conteúdo não tem um bom desempenho no YouTube - especialmente em comparação com conteúdo popular como música e comédia - como também corrói a confiança dos espectadores e anunciantes. Dedicámos tempo e dinheiro significativos para resolver isto. E, ao fazê-lo, nossa empresa sai ganhando – e também a comunidade de criadores. Resumindo: ser responsável é bom para os negócios.
Alguns irão, provavelmente, discordar da nossa abordagem e pedir-nos para remover ou manter ainda mais conteúdos, mas estou animado com o progresso destes investimentos iniciais. E as nossas equipas estão a trabalhar 24 horas por dia para melhorar os nossos sistemas e desenvolver trabalho fundamental que nos ajuda a combater a desinformação. Traremos mais sobre isto em breve, mas espero que estas perspectivas esclareçam um pouco mais sobre como estamos a olhar para o desafio mais amplo da desinformação no YouTube.