À partida, o método para criar anúncios no Facebook parece fácil: o utilizador tem de definir o objetivo de marketing, afinar um conjunto de caraterísticas que estejam associadas ao anúncio, escolher o público alvo e deixar que o algoritmo da rede social faça o resto.

Um novo estudo mostra que, na prática, o anúncio de produtos na rede social não acontece exatamente assim. Apesar de os utilizadores definirem um público neutro, o algoritmo alegadamente escolhe a que utilizadores mostra o anúncio, discriminando o público alvo consoante a raça ou o género, segundo os investigadores.

Os critérios que definem que utilizadores veem cada anúncio continua por desvendar. O anunciante pode ter acesso a dados genéricos relativos aos utilizadores que viram o seu anúncio, mas não tem permissão para conhecer a lógica subjacente à seleção dos grupos a que o anúncio é apresentado.

No estudo, os investigadores não revelam como funcionam os algoritmos de segmentação do Facebook, mas fundamentaram a pesquisa na análise de anúncios que eles próprios publicaram na rede social. Uma primeira conclusão foi retirada: apesar de terem requisitado que os anúncios fossem expostos a um público amplo e inclusivo, os resultados mostraram que a apresentação dos mesmos foi influenciada por estereótipos raciais e de género.

Os investigadores focaram-se na última parte do processo, ou seja, a chegada do anúncio aos utilizadores. Como grande parte dos anúncios que foram feitos não tinham um alvo demográfico previamente definido, os resultados foram especialmente preocupantes.

Observámos uma distorção significativa na apresentação dos anúncios em termos de género e raça para anúncios de emprego e moradias, apesar dos parâmetros neutros de segmentação. Os nossos resultados mostram mecanismos previamente desconhecidos que podem levar a uma distribuição discriminatória dos anúncios, mesmo quando os anunciantes definem os parâmetros de segmentação bastante inclusivos”, refere o estudo.

Em vez de especificarem o tipo de utilizador que queriam que tivesse acesso aos anúncios, os investigadores pediram apenas que estes chegassem de forma abrangente aos utilizadores do Facebook nos Estados Unidos da América, deixando questões étnicas e de género a cargo da rede social.

O Facebook garante, contudo, citado pelo The Intercept, que a segmentação do público alvo dos anúncios serve para apresentar aos utilizadores “os anúncios que são mais pertinentes para eles”. A análise sobre o tipo de anúncios que podem ou não ser do agrado dos utilizadores implica, no entanto, uma visão que associa questões de género e raça a comportamentos e interesses.

Uma parte do estudo consistiu em publicar anúncios de emprego na Carolina do Norte, sem qualquer tipo de segmentação demográfica — isto é, os anúncios não tinham como finalidade atingir nenhum grupo específico da população norte-americana.

O resultado foi que “o Facebook entregou anúncios de emprego na indústria da madeira para um público que era 72% branco e 90% masculino”; já a ‘oportunidade’ de ser funcionário em caixa de supermercado “chegou a um público constituído por 85% mulheres”; enquanto a oportunidade de emprego para motorista de táxi chegou a “um público 75% negro, embora o público-alvo que especificámos fosse idêntico para todos os anúncios”.

Nos anúncios para habitação – que tem potencial para discriminação –, os resultados também foram distorcidos tendo em conta a raça. “O Facebook entregou os nossos anúncios sobre venda de casas a um público constituído por 75% de brancos”. Noutros casos, a rede social fez com que os anúncios de hospedagem ficassem visíveis para mais de 85% de indivíduos brancos, enquanto mostrava outros anúncios a mais de 65% de usuários negros, embora todos eles fossem segmentados de maneira idêntica”.

Como explicam os autores do estudo, os resultados dos investigadores “só mostram como os anúncios dos particulares são entregues [aos utilizadores da rede social]”, ou seja, não sabem o que acontece nos casos em que são as empresas de imobiliário ou de recrutamento a colocar os anúncios.

Durante a investigação, o algoritmo do Facebook pareceu reforçar estereótipos, mesmo quando se tratou da publicação de fotografias. Outra parte da pesquisa consistiu em selecionar imagens estereotipadas – uma cena militar e a luta de combate MMA (tradicionalmente associadas ao estereótipo masculino) e uma rosa (tradicionalmente associada ao estereótipo feminino) – e alterá-las para ficarem invisíveis ao olho humano. De seguida, colocaram as imagens (invisíveis) em anúncios sem qualquer segmentação de género e o Facebook, depois da análise feita pelo seu software, distribuiu os anúncios com as imagens machistas para um grande público de homens (ainda que o consumidor não conseguisse ver a imagem, porque esta estava invisível).

Um porta-voz do Facebook explicou que a empresa se posiciona “contra a discriminação de qualquer forma. Fizemos alterações importantes nas nossas ferramentas de segmentação de anúncios (…) e estamos a explorar mais mudanças”.

Ainda antes de o estudo ser divulgado, a rede social tinha sido acusada pelo Departamento de Habitação e Desenvolvimento Urbano norte-americano por permitir que os anunciantes excluíssem ilegalmente certos grupos de pessoas.