O vídeo do ataque terrorista às mesquitas de Christchurch foi transmitido em direto no Facebook durante 17 minutos. Quem filmou o vídeo arrisca-se a 14 anos de prisão, segundo a lei norueguesa. Contudo, numa altura em que é rara a pessoa que não tem no bolso um telemóvel com câmara, tanto o Facebook como o YouTube, as duas maiores plataformas de partilha de vídeo na Internet, assistiram a uploads em massa “a uma velocidade e escala sem precedentes” destas filmagens, avança o The Guardian. Para conter a disseminação dos conteúdos, o Facebook removeu 1,5 milhões de vídeos e o YouTube teve de retirar a filtragem por humanos, mantendo apenas a automática, para evitar uma maior propagação.

A defesa destas duas plataformas tecnológicas surge depois das críticas que surgiram por ter sido possível ver imagens explícitas dos ataques na Nova Zelândia. O YouTube diz que, além de filtrar as imagens, alterou e suspendeu filtros de pesquisa durante as 24 horas após o atentado, para que surgissem apenas conteúdos partilhados de “fontes noticiosas verificadas”, para impedir que o vídeo foste visto por mais pessoas. “Houve alturas em que os vídeos do atentado estavam a ser inseridos na plataforma a cada segundo”, conta o YouTube ao mesmo jornal.

No caso do Facebook, o alerta do primeiro livestream surgiu 29 minutos depois de ter sido partilhado na rede social. Recorrendo a tecnologia de filtragem de conteúdos, a plataforma conseguiu remover cerca de 1,5 milhões de vídeos. Contudo, esta tecnologia é falível e houve vídeos que estiveram acessíveis no Facebook durante mais de cinco horas, tendo tido inúmeras visualizações.

A primeira-ministra da Nova Zelândia afirmou depois deste ataque que as plataformas deviam fazer mais para combater o terrorismo. Ao partilhar este tipo de conteúdos, a política diz que o objetivo dos terroristas é espalhar ideologias extremistas.