Pedro Saleiro tem 32 anos, nasceu em Esposende e é investigador em pós-doutoramento na Universidade de Chicago. Em 2017, decidiu ir para os Estados Unidos estudar apenas “durante uns meses”, mas agora, um ano e quatro meses depois, continua no país sob a orientação de Rayid Ghani, antigo responsável pela análise de dados da campanha de Barack Obama. Foi Ghani que o desafiou a ajudá-lo numa missão: ensinar um software de inteligência artificial a não discriminar pessoas.

Para alcançar este objetivo, Pedro faz parte da equipa de Rayid que desenvolveu a Aequitas (do latim, equidade), uma plataforma que audita sistemas de análise de dados que utilizam inteligência artificial para filtrar dados. Ou seja, a Aequitas analisa algoritmos que vão ser utilizados na vida real com pessoas e deteta vários tipos de discriminação, seja racial, de género ou etária. O trabalho tem sido bem sucedido e esta ferramenta, que tem como público alvo cientistas de dados e entidades governamentais já foi destacada pela revista Nature, numa artigo sobre como os investigadores estão a tentar tornar os algoritmos justos.

O problema da equidade não é resolvido de forma automática. Não existe um algoritmo que não vá ser racista. Os dados são só um artefacto. São reflexo da sociedade e a sociedade é racista”, conta Pedro Saleiro.

Antes de ir para os Estados Unidos, Pedro fez um doutoramento na Faculdade de Engenharia da Faculdade do Porto (FEUP) em machine learning (uma área da inteligência artificial que permite que os computadores aprendam a partir da extração de regras e padrões de dados). Neste percurso de estudos para saber mais sobre inteligência artificial e análise de dados, além de dar aulas na FEUP, passou pelo Microsoft Research (centro de investigação da Microsoft), em Cambridge. Agora, está a juntar o que aprendeu em análise de dados para ajudar o projeto de Rayid de “Social Science for Social Good“.  Este trabalho tem como fim alcançar o bem-estar social na utilização da inteligência artificial.

Queremos dar instrumentos às pessoas que estão no Governo e não percebe disto”, explica Pedro Saleiro.

Desde que chegou à Universidade de Chicago em 2017, este investigador português já esteve envolvido em vários projetos que mostram como a análise de dados e a inteligência artificial podem ajudar o mundo, conta. O primeiro caso em que trabalhou foi no Kansas a ajudar pessoas que tinham um historial de problemas de saúde mental. “Há pessoas com doenças mentais que estavam em crise, alguém ligava para o 112 e depois passavam dias na cadeia. O governo não vê que estas pessoas não estão a tomar a medicação”, explica.

Aqui, a análise de dados foi aplicada num projeto piloto que já está a dar frutos: “A ideia foi cruzar dados de vários serviços públicos, como da polícia. Qualquer dado relativo a pessoas de elevado risco fica registado. A ideia é telefonar-lhes, tentar saber como estão e oferecer acesso a serviços”. Desta forma, antes de poder existir uma crise “que pode levá-los a alterações como andarem nus e, por isso, irem para a cadeia”, a análise de dados está ajudar a prevenir estes cenários.

Vamos imaginar que quero desenvolver um sistema que detete o risco de abandono escolar precoce: é importante que o sistema não funcione pior no interior do país do que no litoral ou em determinados grupos minoritários ou etnias, porque aí estaríamos a exacerbar desigualdades. É imperativo auditar sistemas de apoio à decisão baseados em inteligência artificial e tornar públicos os resultados antes destes sistemas serem utilizados por entidades públicas”, explica o investigador.

Outro dos exemplos em que Pedro esteve envolvido para criar a Aequitas, também ligado à saúde, foi para prever o risco de diabetes num milhão de pessoas. Para isso, teve acesso a dados de 46 clínicas de saúde. Com Rayid, ao olharem para a forma como se previa o risco em pacientes viram que só eram aplicadas duas variáveis: o Índice de Massa Corporal (IMC) e a idade. Contudo, Pedro explica que “os valores foram feitos tendo em conta uma população de pessoas brancas” e, por isso, “não se aplica a muita gente, há pessoas de outras raças ou etnias e ter elevado risco“.

Outro fatores, como o escalão económico ou a possibilidade de os modelos de análise terem acesso a um registo de saúde mais pormenorizado, fizeram com que se começasse a perceber que havia pessoas em risco, que estavam a ser discriminadas pelos modelos. Além deste projeto, Pedro começou também a trabalhar na mesma ideia, mas aplicada ao futuro do trabalho. Sem poder dar muitos detalhes, explica que está a tentar perceber que pessoas estão em risco de perder o seu trabalho para perceber se são desadequadas ao que o mercado de trabalho vai precisar no futuro.

Quando estou a utilizar serviços estatais não quero ser discriminado. Mas os sistemas para saberem se há discriminação têm de saber todas as características”, conta.

Comum a estes três projetos em que trabalha desde que começou a fazer investigação em Chicago, está o “elevado impacto social que tenta alcançar a equidade e justiça”, afirma. No fim, a ideia é minimizar a discriminação que existe na análise de dados. E isto não se aplica só aos EUA. Pedro fala também do Instituto do Emprego e da Formação Profissional (IEFP) para mostrar como a análise de dados pode afetar Portugal. Basta que um algoritmo que esteja a ser utilizado não tenha em conta todas as variáveis, para poderem existir discriminações no acesso a ofertas profissionais.

“As pessoas de recursos humanos não conseguem ler dois mil curriculae” e há mecanismos que já estão a ser utilizados em empresas privadas para fazer a triagem. Para garantir que há transparência nesta triagem, a solução pode passar pela Aequitas que, através da auditoria destes modelos, permite descobrir que variáveis não estão a ser consideradas. “Queremos é que as pessoas olhem para a sociedade de forma menos discriminatória e que exista mais noção das discriminações que existem“, diz ainda.

As forças políticas estão a avançar numa direção em que o Estado 3.0 utiliza cada vez mais dados e podemos modernizar a administração pública. o potencial da inteligência artificial é enorme para melhorar a distribuição de recursos. Agora, o governo vai poder divulgar os resultados destas auditorias”, refere Pedro.

Uma viagem de comboio do Porto para Lisboa para conhecer Rayid que acabou em Chicago

Trabalhar com o especialista em análise de dados é “muito gratificante”, diz Pedro Saleiro. “Os teus interesses, o teu conhecimento e a forma como o conhecimento é aplicado para teres o impacto social”, refere também quanto ao trabalho que está a desenvolver na equipa de Rayid Ghani que até já valeu uma menção na revista Nature ao projeto Aequitas. Para chegar aqui, a fórmula passou por compatibilidade e uma viagem de comboio do Porto para Lisboa.

Em 2017, numa das visitas de Rayid a Portugal no âmbito do projeto “Social Science for Social Good”, o professor da FEUP Carlos Soares enviou um e-mail ao analista de dados a dizer que conhecia um estudante que valia a pena conhecer. Pedro estava “a acabar o doutoramento aplicado em machine learning”, e, tendo a oportunidade de conhecer Rayid, não hesitou. “Meti-me no comboiom fui para Lisboa e fui falar com o Rayid. Apesar de ser uma pessoa super ocupada está sempre preparada para falar”, conta.

Foi preciso apenas um mês para Rayid afirmar que havia “budget” (orçamento) para receber em Chicago o investigador. Inicialmente, seria apenas uma research visit (visita académica de investigação), que duraria uns meses. “As research visits por vezes não dão em nada, mas se as pessoas são compatíveis começam a criar projetos a longo prazo” e foi assim que acabou a trabalhar no Data Center for Data Science and Public Policy, da Universidade de Chicago, na Aequitas.

Quanto ao futuro, Pedro parece convicto em querer continuar a melhorar a forma como a análise de dados é feita, até porque “vai ser cada vez mais utilizada”. Mesmo com possíveis receios de privacidade que podem ser questionados, o investigador defende que ao utilizar-se dados massivos o importante é criar modelos que olhem para a sociedade como é. Os governos vão ter cada vez mais a responsabilidade de poder utilizar estas ferramentas e este português quer que, ao menos, a forma como são utilizados seja mais transparente.