A utilização de sistemas de inteligência artificial nos processos de recrutamento já não é, para muitas empresas, uma novidade. Segundo o Hidden Workers, Untapped Talent, um estudo recente feito em co-autoria com a Harvard Business School, cerca de 75% dos empregadores nos Estados Unidos recorrem à tecnologia inteligente no recrutamento (cerca de 54% na Alemanha e 58% no Reino Unido).

O trabalho remoto cresceu significativamente: uma empresa que antes contratava numa lógica local, para trabalho 100% presencial recebia, por exemplo duas centenas de curricula. Ao alargar o espectro geográfico de recrutamento (candidatos de qualquer ponto do país ou do mundo) imagine-se quantos a mais irá receber? Seguramente demasiados para uma análise manual, justa e em tempo útil.

Mas o que é o algoritmo?

Simplificando, um algoritmo é um conjunto de regras que define com precisão uma sequência de operações e que, nessa lógica, aplicadas a um conjunto de dados, procuram resolver um problema ou alcançar um resultado (por exemplo, a soma ou a multiplicação em matemática, uma receita culinária, etc.). Ajustando à aprendizagem automática (machine learning), o algoritmo é conjunto de instruções que um computador executa para aprender com os dados.

PUB • CONTINUE A LER A SEGUIR

Aplicado à realidade da seleção e recrutamento de trabalhadores, o algoritmo pode ser programado para qualquer fase do processo: agregação e seleção de perfis, avaliação de potenciais candidatos, verificação de credenciais, etc.  Numa primeira abordagem, este poder que é conferido ao algoritmo pode assustar, mas as vantagens são evidentes: automação é sinónimo de velocidade – as redes de comunicações continuam a aumentar exponencialmente a capacidade de processamento de dados – e de eficácia –graças à quantidade massiva de dados hoje disponibilizados online, os resultados gerados pela máquina são cada vez mais fiáveis.

Então quais são os desafios do recrutador algoritmo?

O grande problema da linguagem computacional de hoje em dia é que é uma linguagem binária. Parte de uma lógica de sim ou não, verdadeiro ou falso. Não há meios termos.

Esta lógica de aceitação vs. exclusão com base em instruções previamente programadas que assentam, elas próprias, em dados e informações padrão (e na comparação e encaixe dos dados e informações dos candidatos nesses padrões) pode conduzir com alguma facilidade a riscos de discriminação. Por exemplo: se olharmos para o LinkedIn como uma potencial base de dados, um processo de recrutamento cujo algoritmo esteja instruído para verificar os dados dessa rede social, pode favorecer um candidato com mais informação publicada nessa rede face a outro que, por opção, não use aquela plataforma, sem que seja, necessariamente, um candidato menos adequado do que o primeiro. E pior: o candidato rejeitado pode nem sequer se aperceber de que pode ter sido vítima de discriminação, não lhe sendo dada, em regra, visibilidade sobre os processos ou critérios que levaram à sua preterição.

A verdade é que não existe nenhuma garantia que o recrutador humano não seja, também ele, discriminador. E ainda que não o seja de forma consciente, pode sê-lo inconscientemente (por exemplo, apenas porque se identifica mais com determinado candidato no seu percurso profissional, ou na idade, ou em género, etc.).

O que diz a legislação laboral portuguesa?

O recurso à tecnologia inteligente na seleção e recrutamento de pessoal não é vedado pela lei do trabalho. No entanto, a empresa tem de se mostrar preparada para demonstrar o respeito pelos princípios da igualdade e não discriminação no recrutamento tanto num processo de seleção totalmente “manual” como naquele que recorra a algoritmos de triagem e ferramentas assentes em tecnologia inteligente. O Código do Trabalho acolhe aqueles princípios nas suas diversas vertentes e manifestações. No acesso ao emprego é reconhecido aos candidatos o direito à igualdade de oportunidades e de tratamento, impondo-se que nenhum seja privilegiado, beneficiado ou prejudicado em razão, por exemplo, de ascendência, idade, sexo, orientação sexual, identidade de género, estado civil, situação familiar ou económica, origem ou condição social, território de origem, língua, religião, entre outros. A complexidade e, mais do que isso, a opacidade que grande parte das soluções inteligentes e automatismos de pré-seleção e triagem de candidatos apresentam podem constituir barreiras à possibilidade de a empresa demonstrar que respeita os princípios da igualdade de oportunidades e de tratamento nos seus processos de seleção e recrutamento. Logo, a transparência do sistema e algoritmos, antes de mais para o próprio recrutador, é crítica e não pode ser descurada pelas empresas quando decidem adotar soluções de inteligência artificial nos seus processos de recrutamento.

E qual o impacto em matéria de proteção de dados pessoais?

As decisões exclusivamente automatizadas correspondem à capacidade de tomar decisões através de meios tecnológicos e sem intervenção humana. O Regulamento Geral de Proteção de Dados (RGPD) reconhece que a definição de perfis e as decisões automatizadas geram riscos para os direitos e as liberdades das pessoas e, por isso, não obstante as vantagens que podem apresentar, exigem garantias adequadas àqueles riscos. Neste contexto, os processos de seleção e recrutamento são um campo propício à criação de perfis e à tomada de decisões automatizadas.

Para prevenir impactos injustificados nos direitos das pessoas, o RGPD restringe a admissibilidade do recurso a decisões exclusivamente automatizadas e exige da organização que a elas recorra nos casos em que são admitidas que: (1) comunique ao visado que está fazê-lo; (2) lhe forneça informações úteis sobre a lógica decisória subjacente; (3) explique a sua importância e consequências previstas; e (4) implemente medidas de salvaguarda que, no mínimo, confiram ao visado um meio de obter intervenção humana no processo, de manifestar o seu ponto de vista e de contestar a decisão de que for alvo.

Assim sendo, como se avalia (e dessa forma, se evita) a discriminação?

Ao contrário da perspetiva regulatória americana, na Europa, o critério de avaliação é muito subjetivo e entra numa lógica de análise contextual. Por isso, automatizar a equidade ou a não discriminação pode ser um desafio, mas será uma questão de tempo até que cientistas e juristas consigam encontrar uma linguagem comum de entendimento.

A União Europeia apresentou em abril de 2021 uma proposta de Regulamento para a harmonização de regras aplicáveis à Inteligência Artificial que identifica a utilização de ferramentas em recrutamento como uma atividade de alto risco. Sendo louvável o avanço material, não deixa de ser lamentável – mais uma vez – o atraso que o legislador leva sobre o tema. As organizações não podem esperar tanto tempo por regras para atuarem e se adaptarem, sob pena de perderem competitividade.

Concluindo: já podemos confiar no recrutador algoritmo?

Já será contextualmente difícil adiar o recurso a estas tecnologias por isso, use-se, mas com cautela: pese embora ainda não se encontre em vigor, já temos uma proposta de regulamento europeu que nos dá luzes sobre como nos devemos posicionar enquanto organizações no uso destes sistemas. E ainda que este documento possa vir a sofrer alterações, é francamente recomendável que, de um modo geral, seja implementada uma lógica de: Avaliação (inicial e contínua dos riscos); Auditoria (inicial e contínua dos resultados gerados); Transparência (na sua utilização perante o candidato); e Recurso (das decisões geradas automaticamente).

Em suma, as organizações devem estar preparadas para justificar os resultados gerados de forma automática quase numa lógica de inversão do ónus da prova (aqui, diríamos, a bem da própria organização).