Facebook

Facebook removeu 2,5 milhões de posts com discurso de ódio desde o início do ano

A empresa revelou esta terça-feira os dados relativos à aplicação das normas de comunidade do Facebook no primeiro trimestre de 2018, explicando ainda os critérios que utiliza para o fazer.

Os dados agora divulgados pelo Facebook dizem respeito, entre outras coisas, a violência explícita, nudez adulta, pornografia, propaganda terrorista e discurso de ódio.

MANUEL PESTANA MACHADO/OBSERVADOR

Autor
  • Gonçalo Caseiro

O Facebook divulgou esta terça-feira um relatório relativo à aplicação das Normas Comunitárias da rede social no primeiro trimestre de 2018, nomeadamente no que diz respeito à violência explícita, nudez adulta, atividade sexual, propaganda terrorista, ao discurso de ódio, spam e às contas falsas. Numa publicação de blog, Guy Rosen, vice-presidente de gestão de produto do Facebook, afirma que a empresa divulga estes dados para que os seus utilizadores possam “julgar o desempenho” por eles próprios.

Intitulado “Facebook publica os números de execução pela primeira vez”, o post revela que a grande maioria dos esforços da empresa são centrados na remoção de spam e contas falsas utilizadas para o distribuir. No primeiro trimestre do ano, o Facebook diz ter removido 837 milhões de “pedaços de spam, dos quais quase 100% foram encontrados e retirados da rede antes de alguém os ter reportado. Além disso, a rede social afirma ter desativado cerca de 583 milhões de contas falsas, a maioria minutos após o registo, e revelou que todos os dias previnem “milhões de tentativas de criação de contas falsas”.

Relativamente a publicações de cariz sexual, Guy Rosen refere na publicação que o Facebook estima que, de 10 mil peças de conteúdo visto na rede social, 7 a 9 visualizações sejam de conteúdo que viole as normas da empresa relativas a nudez e pornografia. O vice-presidente de gestão de produto revela ainda que a empresa retirou 21 milhões de peças com conteúdo de nudez adulta ou atividade sexual e que, desse valor, 96% foi “encontrado e removido” pela tecnologia do Facebook “antes que fosse reportado”.

No que diz respeito a violência gráfica, o Facebook diz ter retirado ou aplicado avisos a cerca de 3,5 milhões de publicações com conteúdo violento no primeiro trimestre do ano, referindo que 86% desse conteúdo foi identificado pela tecnologia — a qual, admite o vice-presidente de gestão de produto na publicação, “não funciona tão bem” para controlar conteúdo que contenha discurso de ódio. No início de 2018, o Facebook removeu 2,5 milhões de publicações que continham discurso de ódio, 38% das quais foram identificadas pela tecnologia, que nestes casos é controlada por equipas de avaliação.

Também esta terça-feira, o Facebook partilhou, através de uma outra publicação, os dados que usa internamente para medir a eficácia na aplicação das diretrizes pelas quais a empresa se rege para decidir o que fica e o que é removido da rede social.

Num post assinado por Alex Schultz, vice-presidente de analítica do Facebook, com o título “Questões difíceis: Como medimos os nossos esforços para manter conteúdo inapropriado fora do Facebook?”, a empresa revela que a medida mais importante é a do impacto, isto é, os danos que determinado conteúdo pode causar quando é publicado na plataforma. Este é medido através de uma “fórmula conceptual” de impacto total: a empresa quantas vezes determinado conteúdo é visto e quão severo é o impacto de cada uma dessas visualizações nas pessoas que assistiram ao conteúdo e na comunidade mais ampla.

O Facebook afirma que, enquanto que as visualizações são fáceis de medir, a repercussão das mesmas não tanto. Alex Schultz escreve que “há um elemento de subjetividade” nessa medição, mas que a empresa prioriza recursos para lidar com conteúdo que considera ser “iminentemente perigoso”, isto é, no imediato. Um dos exemplos dados é a da partilha de uma imagem de nudez: se esta tiver sido partilhada “por um homem que procurava vingar-se da na mulher que acabou com ele” tem um impacto negativo maior e, por isso, recebe uma maior atenção por parte do Facebook. “Tal como na triagem feita num hospital: todos os pacientes são importantes, mas os casos mais urgentes têm de ser atendidos primeiro”, escreveu o vice-presidente de analítica.

Alex Schultz escreve ainda que é importante para o Facebook perceber quão frequentemente determinado conteúdo que viola as regras a rede social é visto em relação com o número total de vezes que qualquer conteúdo, algo a que chamam “prevalência”. Esta consiste no cálculo da frequência com que qualquer conteúdo é visto, ao invés do tempo há que está publicado na plataforma. “Se uma publicação com conteúdo de ódio for vista um milhão de vezes em 10 minutos, é bastante mais grave do que se for vista 10 vezes em 30 minutos”, disse.

Agora que entramos em 2019...

...é bom ter presente o importante que este ano pode ser. E quando vivemos tempos novos e confusos sentimos mais a importância de uma informação que marca a diferença – uma diferença que o Observador tem vindo a fazer há quase cinco anos. Maio de 2014 foi ainda ontem, mas já parece imenso tempo, como todos os dias nos fazem sentir todos os que já são parte da nossa imensa comunidade de leitores. Não fazemos jornalismo para sermos apenas mais um órgão de informação. Não valeria a pena. Fazemos para informar com sentido crítico, relatar mas também explicar, ser útil mas também ser incómodo, ser os primeiros a noticiar mas sobretudo ser os mais exigentes a escrutinar todos os poderes, sem excepção e sem medo. Este jornalismo só é sustentável se contarmos com o apoio dos nossos leitores, pois tem um preço, que é também o preço da liberdade – a sua liberdade de se informar de forma plural e de poder pensar pela sua cabeça.

Se gosta do Observador, esteja com o Observador. É só escolher a modalidade de assinaturas Premium que mais lhe convier.

Partilhe
Comente
Sugira
Proponha uma correção, sugira uma pista: observador@observador.pt
Facebook

As tendências que vão moldar 2019 /premium

Irene Cano

Este ano podemos esperar o inesperado. A única coisa que anda mais rápido que a tecnologia é a velocidade das expetativas do consumidor. 2019 vai ser impulsionado pelo imediatismo e personalização.

Redes Sociais

Bullying aos adolescentes /premium

Maria João Marques
106

Adultos que esmagam nas redes sociais adolescentes só porque estes foram tontos e desmedidos (como os adolescentes normais são) são bem mais perigosos e daninhos que qualquer adolescente provocador.

Só mais um passo

1
Registo
2
Pagamento
Sucesso

Detalhes da assinatura

Esta assinatura permite o acesso ilimitado a todos os artigos do Observador na Web e nas Apps. Os assinantes podem aceder aos artigos Premium utilizando até 3 dispositivos por utilizador.

Só mais um passo

1
Registo
2
Pagamento
Sucesso

Detalhes da assinatura

Esta assinatura permite o acesso ilimitado a todos os artigos do Observador na Web e nas Apps. Os assinantes podem aceder aos artigos Premium utilizando até 3 dispositivos por utilizador.

Só mais um passo

Confirme a sua conta

Para completar o seu registo, confirme a sua conta clicando no link do email que acabámos de lhe enviar. (Pode fechar esta janela.)