Em 2018, apresentámos o nosso Relatório de Aplicação das regras da comunidade do YouTube para aumentar a transparência e a responsabilidade do YouTube em torno dos esforços para proteger os espectadores. Tratou-se do nosso primeiro documento a mostrar o conteúdo removido do YouTube por violar as nossas políticas, incluindo o número de vídeos excluídos, como este tipo de conteúdo foi identificado inicialmente, o motivo da remoção entre outras informações. Ao longo dos anos, temos vindo a disponibilizar novas métricas, tais como o número de recursos de ações por violações e os vídeos que foram restabelecidos após análise. Desde o lançamento deste relatório, removemos mais de 83 milhões de vídeos e 7 mil milhões de comentários por violarem as regras da comunidade. Além disso, por incluir uma avaliação da nossa capacidade de identificar conteúdo que viola as políticas, o documento tem mostrado os resultados dos grandes investimentos em tecnologias de machine learning que fizemos em 2017. Por exemplo: atualmente, somos capazes de detectar 94% deste tipo de conteúdo no YouTube recorrendo a sinalização automática, sendo que 75% dos vídeos são removidos antes de receberem 10 visualizações. Hoje, estamos a disponibilizar mais uma perspetiva no nosso relatório que proporcionará ainda maior transparência sobre a eficácia dos nossos sistemas: a Taxa de visualização de conteúdo inadequado (VVR).
Resumidamente, a Taxa de visualização de conteúdo inadequado ajuda-nos a determinar qual a percentagem de visualizações no YouTube relativa a vídeos que violam as nossas políticas. As nossas equipas passaram a acompanhar estes números em 2017, e esta é a principal métrica usada para medir o nosso trabalho de responsabilidade. À medida que aumentamos os investimentos em pessoas e tecnologias, notamos uma queda na VVR. A taxa VVR mais recente está entre 0,16% e 0,18%. Isto significa que, a cada 10.000 visualizações no YouTube, 16 a 18 das mesmas são de vídeos que violam as nossas políticas. Este resultado é 70% menor em relação ao mesmo trimestre de 2017. Grande parte disso aconteceu graças aos nossos investimentos em machine learning. A partir de agora, vamos actualizar a VVR a cada três meses no Relatório de aplicação das regras da comunidade.
Os dados da VVR oferecem um contexto essencial sobre como estamos a proteger a nossa comunidade. Outras métricas, como o tempo de espera até a remoção de um vídeo impróprio, também são importantes, mas não fornecem uma visão completa do quanto este tipo de conteúdo afeta os espectadores. Por exemplo, imagine dois vídeos impróprios: um teve cem visualizações, mas ficou na plataforma por mais de 24 horas, e o outro teve milhares de visualizações em poucas horas antes de ser removido. Qual deles teve mais impacto? Acreditamos que a VVR é a melhor forma de compreender o quanto o conteúdo que viola as nossas regras pode ser prejudicial aos espectadores, além de nos ajudar a identificar as áreas da plataforma que precisam de ser melhoradas.
A VVR é calculada com base numa amostra de vídeos do YouTube que é enviada aos nossos revisores, que nos dizem quais os vídeos que violam as políticas e quais não violam. Com isto, temos uma visão mais ampla de quais os tipos de conteúdo impróprio nos nossos sistemas que não estão a ser identificados. No entanto, esta taxa varia - para cima ou para baixo. Por exemplo: logo após a atualização de uma política, a VVR aumenta temporariamente. Acontece porque o foco dos nossos sistemas é identificar os vídeos que foram classificados recentemente como impróprios.
Queremos garantir que a comunidade do YouTube prospera enquanto cumprimos o nosso compromisso com a responsabilidade. O Relatório de aplicação das regras da comunidade revela todo o progresso que fizemos desde 2017, mas reconhece também que o nosso trabalho não está terminado. Por isso, é essencial que as nossas equipas continuem a rever e a atualizar as nossas políticas, a trabalhar com especialistas e continuem a manter a transparência em relação aos nossos esforços para proteger a plataforma. Estamos comprometidos com estas mudanças porque elas são boas para os nossos espectadores e boas para o nosso negócio - o conteúdo inapropriado não tem lugar no YouTube. Investimos de forma significativa para o manter fora e a VVR ajuda-nos a reforçar a nossa responsabilidade e a compreender melhor a evolução das nossas iniciativas para proteger os utilizadores contra o conteúdo nocivo no YouTube.