Cada moderador (ou revisor) humano do Facebook nos EUA que tiver sido diagnosticado com stress pós-traumático devido ao trabalho vai receber um mínimo de mil dólares (cerca de 910 euros) de compensação. A medida, como noticiada pelo The Verge, faz parte de um acordo inicial que a empresa que detém a rede social com o mesmo nome (e outras plataformas, como o Instagram), aceitou pagar para resolver um processo nos EUA, movido por atuais e ex-revisores de conteúdos da empresa. Ao todo, esta decisão vai custar 52 milhões de dólares (cerca de 47,8 milhões de euros) à empresa criada por Mark Zuckerberg.

Os erros feitos pelos mecanismos automático de filtragem nas redes do Facebook são conhecidos. Desde obras de arte que são consideradas pornografia a publicações jocosas que são levadas demasiado a sério, além de um sistema de recursos para os utilizadores, a mão humana feita por revisores é necessária. Estas pessoas tomam decisões de manter ou não conteúdos na plataforma e, por causa disso, vêm milhares de conteúdos proibidos (como imagens de pornografia ou violência) que não podem estar na plataforma.

Ao todo, a ação judicial que está na base deste acordo abrange cerca de 11.250 moderadores de conteúdos e aos advogados que trabalharam neste processo. “Estamos tão satisfeitos por o Facebook ter trabalhado connosco para criar um programa sem precedentes para ajudar as pessoas a realizar um trabalho inimaginável há alguns anos atrás”, diz um destes advogados, Steve Williams. “O dano que pode ser causado por este trabalho é real e grave”, afirmou ainda.

“Vamos sempre errar.” Como o Facebook deteta e lida com as contas falsas

Os problemas reportados por moderadores da rede social do Facebook não são novos. Contudo, desde de 2016 têm ganhado maior relevância com o investimento massivo que a rede social fez nestes funcionários, através de contratação direta e de serviços a empresas terceiras, para controlar melhor os conteúdos. Contudo, o primeiro caso de um processo ao Facebook foi conhecido em setembro de 2018, como contou o The New York Times, quando Selena Scola, uma antiga moderadora, descreveu o trauma que desenvolveu.

Facebook removeu 2,5 milhões de anúncios de máscaras e quer remover mais posts automaticamente

Scola, à semelhança de outros moderadores, afirma que teve de ver vídeos e fotografias de violações, suicídios, decapitações e outros horrores. Estes moderadores começaram um movimento contra o Facebook e as empresas terceiras contratadas para oferecer mais apoio e condições neste tipo de trabalho. Como conta o mesmo jornal, Scola foi contratada após as eleições presidenciais de 2016 e pertenceu a uma primeira remessa de contratações da rede social para impedir que a plataforma fosse utilizada para influenciar resultados de eleições.

No acordo divulgado esta sexta-feira, o Facebook compromete-se a mudar algumas medidas deste tipo de trabalho que passam por os moderadores passarem a ver este tipo de vídeo a preto e branco e não terem de ouvir o áudio por defeito. Além disso, uma vez por semana, cada moderador vai poder falar com um psicólogo disponibilizado pelas empresas.

Terrorismo, bullying ou racismo? “Vê-se o melhor e o pior da humanidade” no Facebook

Em dezembro, o Facebook contava com cerca de 40 mil funcionários para reverem e moderarem os conteúdos. Esta terça-feira, durante uma conferência telefónica com jornalistas, Mark Zuckerberg revelou que estes funcionários vão poder voltar “voluntariamente” ao local de trabalho de forma a mitigar os efeitos que trabalhar remotamente envolveu. Devido à pandemia, a empresa teve de prioritizar temas para serem moderados devido ao crescimento exponencial de utilizadores que a rede social registou.