O Facebook divulgou esta terça-feira um relatório relativo à aplicação das Normas Comunitárias da rede social no primeiro trimestre de 2018, nomeadamente no que diz respeito à violência explícita, nudez adulta, atividade sexual, propaganda terrorista, ao discurso de ódio, spam e às contas falsas. Numa publicação de blog, Guy Rosen, vice-presidente de gestão de produto do Facebook, afirma que a empresa divulga estes dados para que os seus utilizadores possam “julgar o desempenho” por eles próprios.
Intitulado “Facebook publica os números de execução pela primeira vez”, o post revela que a grande maioria dos esforços da empresa são centrados na remoção de spam e contas falsas utilizadas para o distribuir. No primeiro trimestre do ano, o Facebook diz ter removido 837 milhões de “pedaços de spam“, dos quais quase 100% foram encontrados e retirados da rede antes de alguém os ter reportado. Além disso, a rede social afirma ter desativado cerca de 583 milhões de contas falsas, a maioria minutos após o registo, e revelou que todos os dias previnem “milhões de tentativas de criação de contas falsas”.
Relativamente a publicações de cariz sexual, Guy Rosen refere na publicação que o Facebook estima que, de 10 mil peças de conteúdo visto na rede social, 7 a 9 visualizações sejam de conteúdo que viole as normas da empresa relativas a nudez e pornografia. O vice-presidente de gestão de produto revela ainda que a empresa retirou 21 milhões de peças com conteúdo de nudez adulta ou atividade sexual e que, desse valor, 96% foi “encontrado e removido” pela tecnologia do Facebook “antes que fosse reportado”.
No que diz respeito a violência gráfica, o Facebook diz ter retirado ou aplicado avisos a cerca de 3,5 milhões de publicações com conteúdo violento no primeiro trimestre do ano, referindo que 86% desse conteúdo foi identificado pela tecnologia — a qual, admite o vice-presidente de gestão de produto na publicação, “não funciona tão bem” para controlar conteúdo que contenha discurso de ódio. No início de 2018, o Facebook removeu 2,5 milhões de publicações que continham discurso de ódio, 38% das quais foram identificadas pela tecnologia, que nestes casos é controlada por equipas de avaliação.
Também esta terça-feira, o Facebook partilhou, através de uma outra publicação, os dados que usa internamente para medir a eficácia na aplicação das diretrizes pelas quais a empresa se rege para decidir o que fica e o que é removido da rede social.
Num post assinado por Alex Schultz, vice-presidente de analítica do Facebook, com o título “Questões difíceis: Como medimos os nossos esforços para manter conteúdo inapropriado fora do Facebook?”, a empresa revela que a medida mais importante é a do impacto, isto é, os danos que determinado conteúdo pode causar quando é publicado na plataforma. Este é medido através de uma “fórmula conceptual” de impacto total: a empresa quantas vezes determinado conteúdo é visto e quão severo é o impacto de cada uma dessas visualizações nas pessoas que assistiram ao conteúdo e na comunidade mais ampla.
O Facebook afirma que, enquanto que as visualizações são fáceis de medir, a repercussão das mesmas não tanto. Alex Schultz escreve que “há um elemento de subjetividade” nessa medição, mas que a empresa prioriza recursos para lidar com conteúdo que considera ser “iminentemente perigoso”, isto é, no imediato. Um dos exemplos dados é a da partilha de uma imagem de nudez: se esta tiver sido partilhada “por um homem que procurava vingar-se da na mulher que acabou com ele” tem um impacto negativo maior e, por isso, recebe uma maior atenção por parte do Facebook. “Tal como na triagem feita num hospital: todos os pacientes são importantes, mas os casos mais urgentes têm de ser atendidos primeiro”, escreveu o vice-presidente de analítica.
Alex Schultz escreve ainda que é importante para o Facebook perceber quão frequentemente determinado conteúdo que viola as regras a rede social é visto em relação com o número total de vezes que qualquer conteúdo, algo a que chamam “prevalência”. Esta consiste no cálculo da frequência com que qualquer conteúdo é visto, ao invés do tempo há que está publicado na plataforma. “Se uma publicação com conteúdo de ódio for vista um milhão de vezes em 10 minutos, é bastante mais grave do que se for vista 10 vezes em 30 minutos”, disse.