Desde junho deste ano, altura em que foram implementadas novas políticas, o YouTube removeu mais de 100 mil vídeos e 17 mil canais por conterem discurso de ódio. A plataforma também eliminou cerca de 500 milhões de comentários com o mesmo teor, anunciou a plataforma de vídeos online esta terça-feira. O número de canais e vídeos removidos foi cinco vezes maior do que o registado no primeiro trimestre do ano e são, em parte, justificados pelo investimento na equipa e na tecnologia.

“Nos últimos anos duplicamos os esforços para cumprir as nossas responsabilidades, preservando o poder de uma plataforma aberta”, começa por explicar o YouTube no seu blog oficial, acrescentando que uma das principais ações que as equipas têm levado a cabo é precisamente a remoção de conteúdo ofensivo. Em junho deste ano, recorde-se, o YouTube decidiu lançar uma nova política para combater os conteúdos de ódio, prometendo que iria proibir e eliminar vídeos que discriminassem alguém pela sua idade, raça, cor de pele, religião ou orientação sexual.

“Temos prestado atenção à forma como abordamos conteúdo que dissemina ódio com a ajuda de dezenas de peritos. Analisamos extremismo violento, supremacismo, direitos cívicos e discurso livre. Com base no que aprendemos, estamos a fazer várias atualizações”, anunciou na altura a plataforma.

Atualmente, há uma equipa de cerca de 10 mil pessoas na Google com a função de detetar, rever e remover o conteúdo que viola as suas políticas, contando com a ajuda de tecnologia capaz de detetar conteúdo potencialmente perigoso e, posteriormente, enviar esse mesmo conteúdo para revisão humana. “Por exemplo, os quase 30 mil vídeos que removemos por discurso de ódio no último mês geraram apenas 3% das visualizações que os vídeos de tricô tiveram durante o mesmo período”, acrescenta a nota publicada pela plataforma.

O YouTube informou ainda que o crescimento deste número de vídeos, contas e comentários removidos por discurso de ódio está também relacionado com o facto de muitos já serem antigos e terem sido autorizados na plataforma, no passado.

A tecnologia de machinelearning (reconhece padrões e vai aprendendo com a utilização) que é utilizada para fazer este controlo permite “detetar padrões nos vídeos e, assim, encontrar conteúdo semelhante (mas não igual) a outros conteúdos que já foram removidos, sendo muitas vezes eficaz a detetar spam ou conteúdo para adultos”. No entanto, quando o assunto é o discurso de ódio e outros conteúdos que vão contra as políticas da plataforma, é preciso uma revisão humana, que avalie e tome uma decisão.

Mesmo assim, acrescenta a nota publicada no blog oficial da plataforma, quase 87% dos nove milhões de vídeos removidos no segundo trimestre de 2019 foram sinalizados por sistemas automáticos e 80% dos vídeos sinalizados “foram removidos antes de receberem qualquer visualização”. 

O YouTube acrescenta que a atualização relativa ao discurso de ódio foi “uma das maiores mudanças” da sua política. “Passamos meses a desenvolver cuidadosamente esta política e a trabalhar com as nossas equipas para criar a formação e ferramentas necessárias para aplicá-la”, sublinha, salientando que o impacto da atualização da sua política “já é evidente nos dados divulgados no relatório de aplicação das diretrizes da comunidade deste semestre”.

A tarefa de controlar e avaliar os conteúdos publicados no YouTube tem recebido um investimento crescente, uma vez que também a quantidade de conteúdos publicados também tem vindo a aumentar. De acordo com a empresa de estatística Social Blade, citada pelo The Vergea cada minuto são carregadas mais de 500 horas de vídeo na plataforma e só em 2018 foram criados mais de 23 milhões de canais.