Se o Facebook fosse um país, seria o mais populoso do mundo — e por uma larga margem. A rede social tem hoje dois mil milhões de utilizadores. A China, o país com o maior número de habitantes do mundo, tem cerca de 1,4 mil milhões. E se é difícil gerir as expectativas de desenvolvimento social, as diferentes ideologias e crenças que existem dentro de um país não o é menos na comunidade de utilizadores que exigem liberdade para publicar o que desejam mas, ao mesmo tempo, também se insurgem contra a divulgação de conteúdos violentos e chocantes. Chegam aos moderadores do Facebook mais de 6,5 milhões de queixas por semana.

O diário britânico Guardian teve acesso aos manuais internos que os funcionários do Facebook seguem no momento de decidir o que é ou não colocado na rede social e a conlusão, comprovada pela publicação das páginas, é que o Facebook não apaga todos os vídeos ou fotos de mortes ou assassinatos, violência contra crianças e animais ou auto-mutilação, porque acredita que, desta forma, estaria a “censurar” os seus utilizadores e a deixar de mostrar conteúdo que pode servir para “criar consciência”, “encontrar vítimas de violência” ou ainda “alertar para situações chocantes” que precisam de ser denunciadas, como “problemas de saúde mental” ou “crimes de guerra”.

O Facebook argumenta que “os menores precisam de proteção e os adultos devem ter direito à escolha” e por isso o conteúdo é “escondido dos menores” mas não apagado da rede.

Por exemplo, no capítulo sobre abuso de crianças, que não o sexual, as directrizes mandam que os mais de 4.500 moderadores que o Facebook emprega, marquem como “perturbador” os vídeos que mostrem violência infantil mas que apenas os removam quando e se, nesse conteúdo, “se notar sadismo ou o atacante for visto a celebrar”.

No capítulo sobre auto-mutilação, lê-se que “é permitida a transmissão em direto de vídeos onde pessoas se tentam auto-mutilar” porque o Facebook não quer “nem censurar nem castigar pessoas em situação de pressão e sofrimento”.

Algumas das directrizes parecem um pouco contraditórias. Por exemplo, vídeos de interrupções da gravidez também podem ser transmitidos, desde que não exista nudez e ameças de morte também são permitidas, tal como palavrões, desde que as ameaças não sejam à vida de Donald Trump, porque é chefe de Estado e por isso está protegido por uma categoria especial.

O artigo do Guardian mostra uma organização sem mão-de-obra suficiente para controlar a avalanche de conteúdo publicado pelos seus muitos milhões de utilizadores ativos. Segundo os relatórios internos há “áreas” que os analistas não conseguem controlar. A chamada “pornografia de vingança”, imagens ou vídeos com fotos intímas publicadas por uma pessoas que se querem vingar de outra, é uma das que mais sofre, isto apesar de ser uma forma de bullying bastante agressivo que já provocou suicídios. Em média, um moderador tem dez segundos para decidir o que fazer com conteúdo violento — que é identificado atravez de palavras chave, algoritmos ou denúncias de utilizadores e nenhum destes métodos garante que todo o conteúdo perturbador passa pelos filtros dos analistas.

Monika Bickert, diretora de gestão global de políticas internas do ‎Facebook, disse ao Guardian que apesar de o Facebook ter presente que é “sua responsabilidade manter os utilizadores seguros”, moderar conteúdo colocado na rede por dois mil milhões de pessoas “é uma tarefa quase impossível”. A comunidade “é diversa e global” e por isso “todos os utilizadores terão necessariamente ideias muito diferentes sobre o que é que é aceitável”. Independentemente de onde “se coloque a linha vermelha”, haverá sempre “áreas cinzentas”, disse a responsável, que oferece como exemplo a linha ténue que separa o humor, a ironia e o conteúdo inapropriado.

Alguns dos maiores críticos do Facebook, principalmente na Europa e nos Estados Unidos, já pediram para que a regulação a que se submetem aos meios de comunicaçao como televisões e jornais seja também aplicada às redes sociais Bickert diz que isso é impossível porque “não é o Facebook que escreve as notícias que as pessoas lêm na plataforma”.