Facebook

Facebook removeu 2,5 milhões de posts com discurso de ódio desde o início do ano

A empresa revelou esta terça-feira os dados relativos à aplicação das normas de comunidade do Facebook no primeiro trimestre de 2018, explicando ainda os critérios que utiliza para o fazer.

Os dados agora divulgados pelo Facebook dizem respeito, entre outras coisas, a violência explícita, nudez adulta, pornografia, propaganda terrorista e discurso de ódio.

MANUEL PESTANA MACHADO/OBSERVADOR

Autor
  • Gonçalo Caseiro

O Facebook divulgou esta terça-feira um relatório relativo à aplicação das Normas Comunitárias da rede social no primeiro trimestre de 2018, nomeadamente no que diz respeito à violência explícita, nudez adulta, atividade sexual, propaganda terrorista, ao discurso de ódio, spam e às contas falsas. Numa publicação de blog, Guy Rosen, vice-presidente de gestão de produto do Facebook, afirma que a empresa divulga estes dados para que os seus utilizadores possam “julgar o desempenho” por eles próprios.

Intitulado “Facebook publica os números de execução pela primeira vez”, o post revela que a grande maioria dos esforços da empresa são centrados na remoção de spam e contas falsas utilizadas para o distribuir. No primeiro trimestre do ano, o Facebook diz ter removido 837 milhões de “pedaços de spam, dos quais quase 100% foram encontrados e retirados da rede antes de alguém os ter reportado. Além disso, a rede social afirma ter desativado cerca de 583 milhões de contas falsas, a maioria minutos após o registo, e revelou que todos os dias previnem “milhões de tentativas de criação de contas falsas”.

Relativamente a publicações de cariz sexual, Guy Rosen refere na publicação que o Facebook estima que, de 10 mil peças de conteúdo visto na rede social, 7 a 9 visualizações sejam de conteúdo que viole as normas da empresa relativas a nudez e pornografia. O vice-presidente de gestão de produto revela ainda que a empresa retirou 21 milhões de peças com conteúdo de nudez adulta ou atividade sexual e que, desse valor, 96% foi “encontrado e removido” pela tecnologia do Facebook “antes que fosse reportado”.

No que diz respeito a violência gráfica, o Facebook diz ter retirado ou aplicado avisos a cerca de 3,5 milhões de publicações com conteúdo violento no primeiro trimestre do ano, referindo que 86% desse conteúdo foi identificado pela tecnologia — a qual, admite o vice-presidente de gestão de produto na publicação, “não funciona tão bem” para controlar conteúdo que contenha discurso de ódio. No início de 2018, o Facebook removeu 2,5 milhões de publicações que continham discurso de ódio, 38% das quais foram identificadas pela tecnologia, que nestes casos é controlada por equipas de avaliação.

Também esta terça-feira, o Facebook partilhou, através de uma outra publicação, os dados que usa internamente para medir a eficácia na aplicação das diretrizes pelas quais a empresa se rege para decidir o que fica e o que é removido da rede social.

Num post assinado por Alex Schultz, vice-presidente de analítica do Facebook, com o título “Questões difíceis: Como medimos os nossos esforços para manter conteúdo inapropriado fora do Facebook?”, a empresa revela que a medida mais importante é a do impacto, isto é, os danos que determinado conteúdo pode causar quando é publicado na plataforma. Este é medido através de uma “fórmula conceptual” de impacto total: a empresa quantas vezes determinado conteúdo é visto e quão severo é o impacto de cada uma dessas visualizações nas pessoas que assistiram ao conteúdo e na comunidade mais ampla.

O Facebook afirma que, enquanto que as visualizações são fáceis de medir, a repercussão das mesmas não tanto. Alex Schultz escreve que “há um elemento de subjetividade” nessa medição, mas que a empresa prioriza recursos para lidar com conteúdo que considera ser “iminentemente perigoso”, isto é, no imediato. Um dos exemplos dados é a da partilha de uma imagem de nudez: se esta tiver sido partilhada “por um homem que procurava vingar-se da na mulher que acabou com ele” tem um impacto negativo maior e, por isso, recebe uma maior atenção por parte do Facebook. “Tal como na triagem feita num hospital: todos os pacientes são importantes, mas os casos mais urgentes têm de ser atendidos primeiro”, escreveu o vice-presidente de analítica.

Alex Schultz escreve ainda que é importante para o Facebook perceber quão frequentemente determinado conteúdo que viola as regras a rede social é visto em relação com o número total de vezes que qualquer conteúdo, algo a que chamam “prevalência”. Esta consiste no cálculo da frequência com que qualquer conteúdo é visto, ao invés do tempo há que está publicado na plataforma. “Se uma publicação com conteúdo de ódio for vista um milhão de vezes em 10 minutos, é bastante mais grave do que se for vista 10 vezes em 30 minutos”, disse.

Partilhe
Comente
Sugira
Proponha uma correção, sugira uma pista: observador@observador.pt

Só mais um passo

1
Registo
2
Pagamento
Sucesso

Detalhes da assinatura

Esta assinatura permite o acesso ilimitado a todos os artigos do Observador na Web e nas Apps. Os assinantes podem aceder aos artigos Premium utilizando até 3 dispositivos por utilizador.

Só mais um passo

1
Registo
2
Pagamento
Sucesso

Detalhes da assinatura

Esta assinatura permite o acesso ilimitado a todos os artigos do Observador na Web e nas Apps. Os assinantes podem aceder aos artigos Premium utilizando até 3 dispositivos por utilizador.

Só mais um passo

Confirme a sua conta

Para completar o seu registo, confirme a sua conta clicando no link do email que acabámos de lhe enviar. (Pode fechar esta janela.)