Num mundo em que assistimos a um esforço para eliminar rótulos, onde os pronomes de género começam a ser substituídos, onde cada vez mais pessoas se definem como cidadãos do mundo e existem cada vez mais projetos que promovem a colaboração intergeracional, o universo digital continua a viver um estranho paradoxo: idade, sexo e etnia são apenas alguns dos requisitos mais comuns que nos pedem para preencher quando criamos perfis digitais.

Poderá a tecnologia acompanhar os movimentos de libertação e negação de estereótipos que estão na vanguarda das mudanças sociais que marcam a atualidade? Não só pode, como deve. Caso contrário está apenas a perpetuar rótulos, a contribuir para categorizar pessoas com base em características redutoras. Depois passamos para integrá-las em diferentes grupos que supostamente definem quem são, com base em estereótipos fundamentados em pouco mais que três variáveis sobre a pessoa. E, no fim da linha, se nada for feito, estará a contribuir para a criação de preconceitos.

A discussão não é nova. No início do ano passado foi notícia que a Amazon abandonou um projeto que testava a utilização de um algoritmo como ferramenta de recrutamento, porque estava enviesado. Um outro caso reportado pela polícia britânica dava conta de que a utilização de inteligência artificial favorecia pessoas com determinadas características. E a própria União Europeia já lançou um guia ético para a inteligência artificial, segundo o qual os Estados-membro devem proteger as pessoas de algoritmos que discriminam com base na idade, género, ou etnia, e garantir a autonomia humana.

O processo de rotular clientes ou utilizadores – através de dados pessoais como idade, sexo, localização, entre outros – apresenta vantagens claras para as receitas das empresas, nomeadamente quando consideramos estratégias de marketing personalizado e a capacidade de conhecer a fundo o público-alvo.  Os dados pessoais dos utilizadores sempre representaram um ativo valioso para as contas das empresas, especialmente antes de ser lançado o Regulamento Geral de Proteção de Dados. Infelizmente, este caminho desemboca num cenário perigoso em que um algoritmo decide quem somos, o que queremos, o que precisamos e quem queremos tornar-nos.

A tecnologia tem dois caminhos: ou se alia do lado das marcas que já assumiram publicamente que vão rever as suas identidades para pôr fim aos estereótipos, ou continua no caminho, perigoso, da categorização.

Acredito que temos de seguir pela primeira opção e, por isso, desenvolvemos uma tecnologia que não classifica, nem rotula. Queremos afastar-nos ao máximo destes equívocos; o nosso objetivo é puramente duplicar a morfologia de um rosto e, precisamente por isso, é que só “pedimos” uma fotografia. A partir desta, faremos uma representação digital desta pessoa sem qualquer necessidade de a apresentar ao mundo digital como uma mulher, homem, asiático ou caucasiano. No fim das contas, somos “só” mais uma startup, é certo, mas acreditamos convictamente que, mais importante que tudo, somos todos humanos. Sem rótulos, sem estereótipos, sem preconceitos.

PUB • CONTINUE A LER A SEGUIR