“Vamos sempre fazer erros e a nossa prioridade é evitar abusos”. A frase é de uma responsável do Facebook, empresa que na quarta-feira promoveu um encontro com jornalistas em Londres, no qual o Observador participou, para explicar como mantém seguras as suas plataformas — Facebook, Instagram e WhatsApp. Como explica Simon Cross, diretor de produto da equipa de Integridade na Comunidade, quando se tem cerca de 1,5 mil milhões de utilizadores ativos numa rede social, 0,1% numa eficácia de 99,9% “ainda é um número bastante grande”.

O principal objetivo da empresa criada e liderada por Mark Zuckerberg é “reduzir as más experiências” para os utilizadores. Casos como o de Christchurch — cidade do atentando na Nova Zelândia de 15 de março — mostrou como a inteligência artificial pode ser crucial para o trabalho do Facebook. O vídeo do massacre que matou 51 pessoas foi transmitido em direto na rede social. Automaticamente, a filtragem automática retirou 1,5 milhões de vídeos ligados ao ataque. O problema? Mesmo assim, o vídeo não desapareceu por completo e o terror causado pelo australiano de extrema-direita Brenton Tarrant pôde ser visto e revisto por inúmeros utilizadores.

É devido a casos como este que o Facebook tem cada vez mais “reagido proativamente”. Ou seja, impede que o mal aconteça preventivamente. Contudo, definir o que é o mal “é muito difícil”, explica a empresa. Mesmo quando é claro, como um publicação de incentivo ao racismo feita por um utilizador, os sistemas de inteligência artificial fazem erros. Além das situações de racismo ou terrorismo, a empresa tem também como missão reduzir o bullying, assédio e outros casos, que atentem os Padrões da Comunidade do Facebook. Essa missão, que cabe a Simon e a outros responsáveis da empresa, é como encontrar uma definição para o mal: “É cada vez mais difícil”.

No fim, para os erros, as plataformas do Facebook têm de permitir um sistema de pedido de recursos para, por exemplo, quando uma publicação é retirada erroneamente poder voltar a ser publicada. Isto porque, como foi referido ao longo do encontro em Londres, a posição do Facebook é estar já a assumir que vai ter de pedir desculpas, como Zuckerberg fez em 2018, várias vezes ,após a revelação do caso Cambridge Analytica. Contudo, há uma promessa: “Vamos cometer erros, o nosso trabalho é minimizá-los”.

Os ingredientes para banir contas são 15 mil humanos e muita inteligência artificial

Por melhor que seja a inteligência artificial que o Facebook tem vindo a desenvolver, nem Simon Cross, que é um dos principais responsáveis por aplicar esta tecnologia nas plataformas da empresa, acredita que algum dia vai ser possível deixar de utilizar humanos. Uma máquina pode fazer muitos mais cálculos e muito mais rapidamente do que um ser humano. Contudo, no fim, “uma máquina é muito mais estúpida do que um humano”.

Os escritórios do Facebook pelo mundo não costumam ter os tetos ou outros pormenores finais de construção acabados como símbolo de que o Facebook é sempre um projeto em construção.

Para esta missão de banir contas falsas e garantir o cumprimento das próprias regras, o Facebook tem três departamentos que funcionam numa lógica triangular: Community Integrity (“Integridade na Comunidade”, que constrói a tecnologia para executar os Padrões da Comunidade e até tem académicos e juristas para ajudar nas definições éticas mais complexas); Content Policy (“Política de Conteúdos”, que fazem os Padrões da Comunidade para proactivamente enfrentar-se o problema); e Community Operations (“Operações de Comunidade”, que aplica estes padrões e gere os “revisores humanos”).

Os erros feitos pelos mecanismos de filtragem nas redes do Facebook são conhecidos. Desde obras de arte que são consideradas pornografia a publicações jocosas que são levadas demasiado a sério, a mão humana e um sistema de recursos (já lá vamos no fim deste artigo) são necessários.

No combate às contas falsas, os responsáveis Brad Shuttleworth (gestor de produto para Integridade na Comunidade) e Bochra Gharbaoui (gestora de análise de dados para Integridade na Comunidade) explicam que são demasiados os casos de contas que não são proibidas, mas que parecem. Exemplo disso são as de animais de estimação ou de sátira. Nestes casos, as contas não têm como propósito enganar outros utilizadores. No entanto, é difícil para um algoritmo perceber isso

Só no último trimestre do ano mil e 700 milhões de contas falsas foram removidas, diz a rede social. Destes casos, 99,7% foram banidas antes de haver qualquer denúncia por parte de um utilizador. O problema é que os 0,3% em falta equivalem a cerca de três milhões de contas. Em situações de bullying e assédio (moral ou sexual) estes números descem para 16,1% por o sistema implementado, mesmo com humanos, não poder estar sempre a analisar todos os potenciais problemas.

A entrada principal do edifício dos escritório do Facebook em Londres. Ao todo, há presença na cidade em três edifícios. Neste, ocupa uma cave e vários andares

Para estes números, também ajuda o facto de quem quer utilizar a rede social com fins nefastos adaptar-se às soluções criadas por estas equipas. O Facebook, que muitas vezes é visto como vilão, também tem os seus vilões. E são como os dos videojogos: vão ficando cada vez mais fortes quanto mais jogamos.

Como explicaram os responsáveis da empresa, o potencial atacante sabe que consegue criar uma em cada 100 contas falsas e o Facebook consegue subir as probabilidades de uma para mil, apesar de os esforços do atacante ficarem mais difíceis, surgem novas táticas.

Um dos casos paradigmáticos desta situações, contada pelo Facebook em Londres, é a própria guerra às drogas. Apesar de ser permitido, em alguns Estados, a venda desta substância, a empresa não permite, em todo o mundo, que se utilizem as plataformas para este propósito. Em 2014, a empresa pôs pessoas a encontrar palavras chave para o sistema de machine learning [algoritmos informáticos que aprendem sozinhos a melhorar] poder filtrar e censurar conteúdos. Quando os utilizadores deixaram de encontrar o que queriam nesta matéria, começaram a utilizar termos mais vagos como “marispacehuana em vez de marijuana”.

Em 2015, para combater esta nova tática, o Facebook começou a utilizar a tecnologia de reconhecimento de imagem que tinha para que as pessoas invisuais possam utilizar a rede social homónima para detetar imagens destas substâncias. Contudo, para uma máquina isto também cria problemas. Por exemplo, como demonstrou o Facebook, uma imagem de pormenor de marijuana pode ser parecida com tempura de bróculos. Mesmo assim, a máquina que usa inteligência artificial aprendeu a distinguir ambos (não temos a imagem para mostrar, mas é difícil até para humanos).

Mesmo assim, depois, as pessoas também começaram a utilizar outras imagens mais vagas. Um anúncio que parece ser de cereais, com a giría de rua certa, pode ser um anúncio a drogas e, nesses casos, uma máquina vai ter bastante dificuldade em conseguir interpretar se há ou não intenção de quebrar as regras do Facebook. Este ano, os sistemas já foram melhorados e começaram a analisar o contexto de uma publicação, mas é um trabalho “em constante progresso”.

Enquanto que um humano vê uma imagem, uma máquina vê zeros e uns Uma pessoa se vir duas imagens também vai fazer erros. Contudo, uma máquina é muito mais estúpida do que um humano. Por isso é que fazemos media matching, para uma máquina ver mais como um humano”, explica Nicola Bortigton.

Estes problemas não acontecem apenas com drogas e também podem ser vistos em tentativas de propagação de terrorismo. “Quão mais inteligentes ficámos, mais os nossos adversários ficaram inteligentes”, conta Nicola Bortigton, gestor de programação para Integridade na Comunidade do Facebook. Desde cortes e borrões mais subtis na imagens, tudo é feito por atacantes para ir tentando estar à frente das táticas de defesa do Facebook.

Um dos espaços de lazer nos escritórios de Londres para funcionários do Facebook

Apesar de a empresa já ter uma parceria com os EUA para ter vídeos usados pelas tropas especiais para treinar a sua inteligência artificial, ainda há humanos (e muitos) neste sistema de triagem e outras técnicas mais práticas. Atualmente, o Facebook tem cerca de 15 mil pessoas a fazer a triagem de conteúdos através de funcionários diretos e empresas subcontratadas. Como é possível inferir pelos números de denúncias de caso de bullying, como são casos de conversas mais vagos, a empresa diz ser “importante ter revisores humanos”.

Não acho que há nenhum futuro em que não tenhamos humanos e máquinas a trabalhar [em conjunto]. Se estiverem a acabar com tantas contas não é possível operarmos a essa escala. Há coisas para as quais não treinámos o machine learning. Vamos sempre precisar de revisores humanos. Esperaremos que a inteligência artificial faça ou não decisão corretas. Há 35 mil pessoas trabalhar só nisto. Destes, 15 mil estão espalhados em todo o mundo só a rever conteúdos”, conta Simon Cross.

Ao Observador, Simon afirmou sobre os revisores: “São pessoas fantásticas. Quando me juntei a esta equipa em dezembro no ano passado a primeira coisa que fiz foi visitar o nosso centro de revisores”. Estas pessoas tomam decisões de manter ou não conteúdos na plataforma. Contudo, no final, “há sempre erros” e, como a maioria dos ordenamentos jurídicos, o Facebook tem um sistema de recursos para quem se sente injustiçado por um mau julgamento.

“Há erros”, por isso: bem-vindos ao sistema de recursos do Facebook

Por trimestre, o número de conta falsas banidas pelo Facebook, seja no Instagram ou na sua rede social homónima, anda em média na casa do milhar de milhões, revela a empresa. Entre janeiro e março de 2019, foram removidas cerca de 2,2 mil milhões de contas. A entidade justifica estes trimestres altos com alterações que faz ao sistema e não só por haver períodos em que os atacantes tentam criar mais contas. Contudo, com estes números, há contas e publicações banidas por erro, por vezes. Para isso, há um sistema de recursos.

“Há duas partes nisto: o autor e o denunciante”, conta Sandi Conroy gestora de dados na equipa de comunidade em Londres do Facebook. Nestes dois lados, tanto o autor como o denunciante podem pedir recurso caso não vejam a sua vontade satisfeita. Pode haver recurso em todas as situações, com exceção para dois casos: quando é referente a imagens explícitas de abuso infantil e ordens judicias que a empresa tem de cumprir.

Em mais um exemplo de números, o Facebook explica que, no terceiro semestre de 2019, nos casos de discurso de ódio, como comentários racistas, foram removidos sete milhões de conteúdos. Destas remoções, houve 1,4 milhões de recursos e 169 milhares foram deferidos e restaurados.

Atualmente, os utilizadores só podem fazer recursos interno dentro de órgãos da plataforma, mas a empresa afirma continuar a trabalhar numa “entidade terceira” para estes casos. No fim, o Facebook continua a criar ferramentas para evitar casos em que pode ter de atuar, como uma das novas ferramentas que está a ser implementada: se escrever um comentário que a inteligência artificial pense que possa ser contra os Padrões da Comunidade, surge ao utilizador uma pergunta após carregar no publicar a perguntar se quer mesmo fazer isso.

*O Observador participou no encontro com jornalistas a convite do Facebook