A maior rede social do mundo tem — e aplica — o poder de tirar conteúdos dentro do Facebook. O problema é que, por vezes, comete erros. Como disse Mark Zuckerberg, o criador da plataforma, “não vamos prevenir todos os erros ou abusos, mas fazemos demasiados erros a executar as nossas políticas”. Por isso, esta terça-feira, no seguimento de novas medidas para tornar as regras da plataforma mais transparentes, o Facebook divulgou as diretrizes [guidelines] internas que utiliza para reforçar os padrões de comunidade e passou a permitir aos utilizadores recorrerem das decisões referentes a posts individuais.

Antes, se um utilizador tinha um post banido ou a conta suspensa, a página reencaminhava uma justificação para os termos gerais de utilização (o mesmo documento que tem sido criticado por “ninguém o ler“, como disseram vários congressistas nas audições de Zuckerberg). Com esta alteração, os utilizadores passam a ter um documento com mais informação sobre as regras utilizadas na moderação do Facebook.

A funcionalidade de se poder pedir recurso quanto a uma decisão do Facebook de um post removido só vai estar disponível “no próximo ano”. Contudo, como “primeiro passo”, esta rede social passa a permitir a partir desta terça-feira aos utilizadores que peçam à rede social para rever uma decisão quanto a publicações que foram removidas por “nudez/atividade sexual, incitação ao ódio ou violência explicita”.

Mas como funciona isto? A partir do momento em que a rede social remove uma fotografia, vídeo ou publicação, o utilizador é notificado. A partir do próximo ano — ou já neste, se for uma publicação removida dentro dos parâmetros acima –, com a notificação passará a aparecer uma opção de “revisão adicional”. Se acionada, num prazo de 24 horas (“em norma”, avisa a rede social), a equipa de revisão do Facebook vê de novo a publicação e, se considerar que cometeu um erro, restaura o conteúdo.

Segundo comunicado enviado às redações, o Facebook decidiu divulgar estes critérios internos para “as pessoas entenderem onde é traçada a linha em questões ambíguas “. A rede social informa ainda que, com esta divulgação, quer receber “feedback” dos utilizadores para poder “melhorar as guidelines“. Apesar de estar as divulgar as regras internas de moderação da comunidade, a empresa afirma que “o que não mudará são os “princípios básicos de segurança, voz e equidade nos quais esses padrões se baseiam”.

As políticas de utilização do Facebook são executadas por revisores da comunidade e ferramentas de inteligência artificial. Ao todo, no mundo, a rede social tem 7500 “revisores de conteúdo” para garantir que estas regras são aplicadas.

Esta decisão é mais uma das medidas anunciadas pela rede social de Mark Zuckerberg. A 17 de março, jornalistas do The Guardian, Channel 4 e do The New York Times, divulgaram que a Cambridge Analytica, uma empresa de análise de dados, utilizou 50 milhões de perfis indevidamente para condicionar campanhas eleitorais. A polémica levou Mark Zuckerberg a pedir desculpas publicamente e a prestar declarações no Congresso americano. O Facebook divulgou que foram mais de 80 milhões os utilizadores afetados (incluindo 63 mil portugueses).