O Facebook removeu 26,9 milhões de conteúdos sobre discurso de ódio no quarto trimestre de 2020 e o Instagram retirou 6,6 milhões no mesmo período, anunciou a rede social.

Estamos a publicar o nosso relatório de aplicação de padrões da comunidade para o quarto trimestre de 2020″, o qual “fornece métricas sobre como aplicamos as nossas políticas de outubro a dezembro, incluindo métricas de 12 políticas no Facebook e 10 no Instagram”, refere a tecnológica.

De acordo com o relatório, no quarto trimestre do ano passado, o Facebook removeu 26,9 milhões de conteúdos de discurso do ódio, contra 22,1 milhões nos três meses anteriores, devido em parte às atualizações da tecnologia em árabe, espanhol e português. No mesmo período, foram removidos 6,4 milhões de conteúdos de ódio organizado, contra quatro milhões no trimestre anterior.

O Facebook removeu também 6,3 milhões de peças de conteúdos de assédio e ‘bullying‘, contra 3,5 milhões no terceiro trimestre, devido às atualizações da tecnologia em detetar comentários neste âmbito. Foram ainda removidos 2,5 milhões de conteúdos sobre suicídio e automutilação, contra 1,3 milhões nos três meses anteriores.

PUB • CONTINUE A LER A SEGUIR

Já no Instagram, foram removidos 6,6 milhões de conteúdos de discurso de ódio (6,5 milhões no terceiro trimestre). Em termos de conteúdos de ódio organizado, o Instagram removeu 308 mil peças (224 mil no trimestre anterior). No que respeita a conteúdos de bullying e assédio, foram retiradas cinco milhões de peças (contra 2,6 milhões), e no que respeita a conteúdos sobre suicídio e automutilação foram removidos 3,4 milhões (1,3 milhões).

No último trimestre, “partilhámos a prevalência do discurso de ódio no Facebook pela primeira vez para mostrar a percentagem de vezes que as pessoas veem este tipo de conteúdos na nossa plataforma”, salienta a rede social. No quarto trimestre de 2020, a prevalência do discurso de ódio “caiu de 0,10%-0,11% para 0,07%-0,08%, ou sete a oito visualizações” por cada 10.000 de conteúdo, acrescenta.A prevalência de conteúdo violento e gráfico “também caiu de 0,07% para 0,05% e o conteúdo de nudez adulta diminuiu de 0,05%-0,06% para 0,03%-0,04%”.

As melhorias na prevalência “devem-se essencialmente às alterações que fizemos para reduzir o conteúdo problemático no feed das notícias”, explica o Facebook. A taxa de proatividade, ou seja, a percentagem de conteúdo que é detetado pela rede social antes de ser reportado por utilizadores, “melhorou em certas áreas”, nomeadamente no que respeita ao bullying e assédio.

“A nossa taxa de proativa no bullying e assédio passou de 26% no terceiro trimestre para 49% no quarto no Facebook, e de 55% para 80% no Instagram“, aponta, salientando que as melhorias na sua inteligência artificial, ajudou a escalar os esforços em manter as pessoas seguras.

Aos poucos, continuamos a recuperar” o trabalho de revisão de conteúdos, “embora antecipemos que a nossa capacidade de rever conteúdos seja impactada pela Covid-19 até que a vacina esteja amplamente disponível. Com capacidade limitada, damos prioridade ao conteúdo mais prejudicial”, como os relativos ao suicídio e automutilação.

Para este ano, o Facebook prevê “partilhar métricas adicionais no Instagram e adicionar novas categorias de políticas” na rede social, salientando que também estão a trabalhar para tornar os seus dados mais fáceis de entender, tornando os relatórios mais interativos.

O nosso objetivo é liderar a indústria tecnológica na transparência e continuaremos a partilhar mais métricas como parte desse esforço”, garantiu o Facebook. “Também acreditamos que nenhuma empresa deve avaliar o seu trabalho de casa. No ano passado assumimos o compromisso de realizar” uma auditoria independente sobre os “nossos sistemas de moderação de conteúdos” para validar os números que são publicados, sendo que este processo será iniciado este ano, conclui.