O Facebook admitiu nesta quarta-feira que o seu sistema de segurança não detetou a tempo a transmissão em direto naquela rede social feita por um dos atacantes do atentado contra duas mesquitas na Nova Zelândia.

Numa mensagem divulgada através do blogue oficial, um dos responsáveis máximos do Facebook, Guy Rosen, explicou que o vídeo de 17 minutos transmitido em direto durante o ataque da última sexta-feira na cidade neozelandesa de Christchurch pelo próprio atacante foi visto cerca de 4 mil vezes antes de ser removido do Facebook — incluindo perto de 200 vezes durante a transmissão.

“O vídeo foi visto menos de 200 vezes durante a transmissão em direto” e “nenhum utilizador denunciou o vídeo” durante esse momento. “Incluindo as visualizações durante a transmissão em direto, o vídeo foi visto cerca de 4 mil vezes no total, antes de ser removido do Facebook“, explicou ainda Rosen.

“Antes de termos sido alertados para o vídeo [pelas autoridades neozelandesas], um utilizador do 8chan publicou um link para uma cópia do vídeo num site de partilha de ficheiros. A primeira denúncia relativa ao vídeo original chegou 29 minutos depois de o vídeo começar, 12 minutos depois de a transmissão em direto ter terminado“, detalhou o responsável da rede social.

Pelo facto de o vídeo ter sido copiado e partilhado antes de o Facebook ter conseguido remover o ficheiro original, a rede social teve de remover “mais de 1,2 milhões de vídeos do ataque” no processo de carregamento — ou seja, que nunca chegaram a ser vistos pelos utilizadores.

Além desses, “aproximadamente 300 mil cópias adicionais foram removidos depois de terem sido publicados”.

De acordo com aquele responsável do Facebook, “muitas pessoas perguntaram porque é que a inteligência artificial (IA) não detetou o vídeo da semana passada automaticamente“.

“A inteligência artificial fez progressos massivos nos últimos anos em várias áreas, que nos permitiram detetar proativamente a grande maioria do conteúdo que removemos. Mas não é perfeita“, justifica Guy Rosen.

“Os sistemas de IA baseiam-se em informação de treino, o que significa que são precisos milhares de exemplos de conteúdo para treinar um sistema para detetar determinados tipos de texto, imagens ou vídeo. Esta abordagem tem funcionado muito bem em áreas como a nudez, propaganda terrorista ou violência explícita, relativamente à qual há um grande número de exemplos que podemos usar para treinar os nossos sistemas”, escreve o responsável.

“Porém, este vídeo em particular não acionou os nossos sistemas de deteção automática. Para que isso seja possível, precisamos de fornecer aos nossos sistemas grandes volumes de informação relativos a este tipo concreto de conteúdo, o que é difícil porque, felizmente, estes acontecimentos são raros“, acrescenta.

Mas há mais desafios, continua Guy Rosen. Por exemplo, é difícil distinguir automaticamente estes conteúdos de outros vídeos semelhantes que surgem em videojogos ou filmes. Se todos estes fossem automaticamente bloqueados, “os nossos revisores poderiam não detetar os vídeos reais importantes, sobre os quais podemos alertar as autoridades para ajudar no terreno”.

O Facebook explica ainda que estes sistemas nunca serão perfeitos porque implicarão sempre o envolvimento de seres humanos. Ainda assim, a rede social assegura que no ano passado duplicou o número de pessoas que trabalham nesta área — há neste momento mais de 30 mil funcionários só dedicados à área da segurança, incluindo cerca de 15 mil revisores do conteúdo.

O atentado de Christchurch foi levado a cabo por Brenton Tarrant, um australiano de 28 anos que se assume como parte da corrente do “supremacismo branco”. Tarrant atacou duas mesquitas naquela cidade, a terceira maior da Nova Zelândia, matando 50 pessoas. Além de transmitir o ataque no Facebook, Tarrant divulgou um documento de 74 páginas antes do atentado no qual explicava as suas posições contra os imigrantes.