Nem os criadores da rede social Facebook conseguem controlar o seu algoritmo. A conclusão surge de vários documentos internos entregues pela especialista em algoritmos e ex-funcionária do Facebook, Frances Haugen, a um parlamentar norte-americano e que agora estão a ser escalpelizados por vários jornais do mundo, como o Le Monde. Segundo o jornal francês, este documentos sugerem que o Facebook se tornou “uma máquina difícil de controlar” e que os próprios engenheiros da empresa admitem a sua incompreensão perante os códigos de computador — o que tem efeitos imprevisíveis.

O Wallstreet Journal, um outro jornal que se tem dedicado a perceber o que mostram estes documentos,  já produziu mesmo um conjunto de podcast sobre as suas descobertas. E é no episódio 4. que aborda precisamente a questão que o Le Monde traz na sua edição desta terça-feira. Segundo aquele jornal, a mudança do algoritmo foi feita em 2018 para dar ênfase ao envolvimento entre os utilizadores, mas acabou por ter outro efeito: o de incentivar a divulgação de conteúdos fraturantes e a  desinformação.

Aquando a reformulação, o feed da rede social foi remodelado quase da noite para o dia com o objetivo de melhorar as ligações entre família e amigos. “Não chega conectar apenas as pessoas, temos de assegurar que essas conexões são positivas. Não chega dar apenas voz às pessoas, temos de garantir que as pessoas não a estão a usar para magoar outras pessoas ou para disseminar desinformação. Temos de ter uma visão mais ativa no controlo do ecossistema, mas estou comprometido em fazer isto bem e acredito que as pessoas vão ver diferenças reais”, disse o próprio Zuckerberg, à data, no congresso.

Mas para o Wall Street Journal, o fundador do Facebook não estava a contar tudo. É que, segundo os documentos analisados, o que estava por detrás desta mudança não era apenas a desinformação, mas sim um decréscimo no envolvimento dos utilizadores da rede que começava a refletir-se nos negócios da empresa e que fazia temer desistências da rede social. As métricas davam conta de que o envolvimento dos usuários estava a diminuir de forma galopante. Segundo os documentos a que o jornal teve acesso, os utilizadores não estavam a dedicar menos tempo ao Facebook, mas não clicavam tanto nas opções “Gostar” e ou “Partilhar”.  A empresa não conseguiu perceber a razão exata, mas estava certamente relacionada com vídeos e conteúdos profissionais. Solução: afastar estes dois registos.

PUB • CONTINUE A LER A SEGUIR

Facebook “domina” redes sociais, mas Instagram, Whatsapp e TikTok aumentam notoriedade

A alteração do algoritmo dependia então de uma nova fórmula que a empresa denominou internamente de Meaningful Social Interactions, MSI, (Interações Sociais Significativas), uma forma de medir não só as interações de um post, como também a proximidade de quem interage com o autor da publicação, através de uma atribuição de pontos segundo os “Gostos” e os comentários, por exemplo.

Os resultados do MSI estavam a ser um sucesso, no entanto não respondiam ao anunciado de que as alterações seriam para melhorar a a experiência dos utilizadores. No feed não aparecia o que as pessoas queriam ver, mas sim o que lhes podia provocar uma reação. E eram conteúdos sobretudo negativos.

Os documentos agora divulgados mostram que os conteúdos divisivos aumentaram no Facebook, fazendo o sensacionalismo e a desinformação tornarem-se virais. Por exemplo, “se um conteúdo fosse partilhado 20 vezes seguidas, teria 10 vezes ou mais probabilidade de conter nudez, violência, incitamento ao ódio, desinformação, do que algo que simplesmente não foi partilhado”.

Com a criação do algoritmo houve logo sinais de alerta de equipas internas no Facebook. Aliás, revelam também os documentos, no início de 2020 foram apresentadas propostas a Zuckerberg para retroceder o MSI, mas o criador do Facebook temeu que esta proposta tivesse efeitos nos conteúdos virais positivos e não testou o projeto. Outra proposta a ser rejeitada foi a abolição do botão de “partilha”.