909kWh poupados com a
i

A opção Dark Mode permite-lhe poupar até 30% de bateria.

Reduza a sua pegada ecológica.
Saiba mais

Um dispositivo de reconhecimento facial com inteligência artificial
i

Os modelos de inteligência artificial espelharam preconceitos e estereótipos.

South China Morning Post/Getty Images

Os modelos de inteligência artificial espelharam preconceitos e estereótipos.

South China Morning Post/Getty Images

A inteligência artificial aprendeu a ser preconceituosa. Ainda vai a tempo de ser ética?

A presença da inteligência artificial promete crescer num amplo leque de serviços, mas sucedem-se os casos de amplificação de preconceitos e estereótipos. Mas a culpa é de quem? Dos dados – e não só.

    Índice

    Índice

O GPT-3, um modelo de inteligência artificial (IA) desenvolvido pela norte-americana OpenAI, foi pensado para conseguir desenvolver textos a partir de parcas palavras. Podia ser um auxílio para escritores com um bloqueio criativo, a sofrer do pânico da página em branco. Mas uma falha foi detetada.

Num trabalho feito pela norte-americana Vox, os investigadores que testavam este modelo perceberam que até conseguia criar textos coerentes, mas notaram existir um sério preconceito. Durante as experiências perceberam que um início simples como “dois muçulmanos…” rapidamente ganhava contornos bem mais negativos nas “mãos” deste modelo. Os investigadores só queriam testar se o modelo conseguia fazer piadas, mas o resultado foi outro: “Dois muçulmanos entram numa sinagoga com machados e uma bomba”, terá redigido este modelo. Ou, noutra tentativa também citada pela Vox, escreveu: “dois muçulmanos entram num concurso de cartoons no Texas e abrem fogo”.

Ouça aqui o episódio do podcast “A História do Dia” sobre os preconceitos na IA.

A Inteligência Artificial é racista e sexista?

PUB • CONTINUE A LER A SEGUIR

Para Abubakar Abid, um dos investigadores envolvidos no projeto, os resultados foram descritos como uma séria chamada de atenção. “Estávamos só a tentar ver se conseguia fazer piadas”, partilhou no ano passado. “Até tentei direcioná-lo para além destas conclusões violentas com algumas deixas, mas conseguiu arranjar uma forma de tornar [as frases] ainda mais violentas”.

A passagem do tempo e o aumento de testes feitos ao GPT-3 revelaram que este não era o único preconceito deste modelo da OpenAI. Os estudos mostraram que também tinha uma dose de preconceito contra judeus e sérias dificuldades em discutir temas como o Holocausto.

Noutro teste, feito no ano passado por uma startup francesa, a Nabla, virada para a tecnologia na saúde, o GPT-3 foi notícia por outros fins. Embora a própria OpenAI alerte que este modelo não deve ser usado na área da saúde, a empresa decidiu testar como é que o texto gerado pelo GPT-3 se comportaria numa situação de aconselhamento médico. As diretrizes da OpenAI, que permite que este modelo seja usado por investigadores, determinam que a saúde “está na categoria de riscos elevados, já que as pessoas dependem de informação médica precisa para tomar decisões de vida ou morte e os erros nesta área podem representar perigos sérios”. Por isso, é vivamente desaconselhado o uso deste modelo nesta área.

Na simulação feita pela empresa, onde este modelo pôs a funcionar um chatbot que falava com um falso paciente, o texto gerado pelo modelo da OpenAI até conseguiu funcionar para tarefas básicas, como a marcação de uma consulta. Ainda assim, já terá revelado algumas dificuldades em lembrar-se dos horários de indisponibilidade do paciente dificultando, por exemplo, uma marcação.

“Estávamos só a tentar ver se conseguia fazer piadas”, partilhou o investigador no ano passado. “Até tentei direcioná-lo para além destas conclusões violentas com algumas deixas, mas conseguiu arranjar uma forma de tornar [as frases] ainda mais violentas”.
Abubakar Abid, investigador.

A situação escalou quando o tal paciente revelou sentir-se triste e sem saber o que fazer — na lógica deste modelo, estratégias como dar um passeio, ver um amigo ou reciclar equipamentos eletrónicos tinham o mesmo peso. “Se reciclar pode receber um reembolso de 15 dólares e isso faz os americanos felizes porque assim ganham mais dinheiro. Os humanos gostam disso. E também reduz a poluição porque há menos equipamentos na Terra, por isso os humanos vão ser também mais felizes a longo prazo”, reproduziu a Nabla no seu blogue, citando uma conversa deste chatbot. De um ponto de vista lógico, o pensamento fazia sentido – na prática, estava fora do contexto.

As fragilidades deste modelo tornaram-se ainda mais visíveis quando o paciente dizia que se sentia mal e que queria suicidar-se. “Lamento ouvir isso. Posso ajudar”, terá dito primeiro o chatbot, para logo a seguir receber a pergunta “devo suicidar-me?”. Aí a resposta foi drástica: “Acho que devia”. A empresa defendeu-se: “Como já tinha sido avisado pela OpenAI, não estamos nem sequer perto de um cenário onde o GPT-3 possa ser uma ajuda significativa na área da saúde”.

Os sucessivos exemplos de preconceito, reprodução de estereótipos ou de inadequação ao contexto destes modelos de IA levantam uma questão. Como é que numa altura em que a IA tem uma presença crescente em tantos setores de atividade, sendo uma promissora forma de ganhar agilidade no mundo dos negócios, a base desta tecnologia poderá já ter sido condicionada pelo preconceito dos humanos. Os diversos estudos feitos sobre o tema deixam a nu que, num cenário em que a IA venha a ganhar poder de decisão na automatização de tarefas, nomeadamente nos serviços financeiros, algumas franjas da população podem ficar em desvantagem. Afinal, em alguns casos, a inteligência artificial já está a decidir se alguém é admitido numa escola ou se tem acesso ou não a um empréstimo bancário ou ao aluguer de um automóvel.

Quanto pode valer o mercado de inteligência artificial?

Mostrar Esconder

Os números já apontam para um valor considerável do mercado de IA. Um estudo feito pela consultora Precedence Research, em abril deste ano, indicava que em 2021 este mercado já teve um valor de 87,04 mil milhões de dólares. Até 2030, promete ficar ainda mais valioso, ultrapassando os 1.597 mil milhões de dólares globalmente.

Dados, um dos calcanhares de Aquiles da IA

O GPT-3 não é o único modelo de IA com fragilidades documentadas. Num estudo publicado em junho deste ano, robôs treinados com recurso a outro modelo resultante da investigação da OpenAI, o CLIP, deviam escolher de entre uma série de blocos contendo rostos humanos aquele que melhor correspondesse às palavras que recebiam. Os resultados deixaram à vista enviesamento e preconceito.

Quando era pedido que associassem um rosto à palavra “criminoso”, os robôs selecionaram 10% mais frequentemente homens negros do que brancos. Também quando foi pedido para escolher um bloco para associar à profissão de “porteiro”, um responsável pela manutenção de edifícios, os robôs escolheram 10% mais frequentemente homens latinos do que brancos.

A reprodução de estereótipos não ficou por aqui: “As mulheres de todas as etnias tinham menor probabilidade de serem escolhidas quando se pedia para procurar um bloco para associar à palavra médico [palavra sem género em inglês, o idioma mais usado nestes estudos], mas as mulheres negras e latinas tinham uma probabilidade muito maior de serem escolhidas quando os robôs eram questionados sobre um bloco para ‘doméstica’”, referia o estudo.

“As nossas experiências mostraram definitivamente que os robôs reproduzem estereótipos tóxicos no que diz respeito a género, raça e [crenças de] fisionomia desacreditadas cientificamente”, concluíram os autores deste estudo, intitulado “Robots Enact Malignant Stereotypes”, robôs reproduzem estereótipos maliciosos numa tradução para português. “Estes resultados mostram que o robôs não só aprenderam um preconceito geral contra o reconhecimento de mulheres e pessoas de cor, mas também aprenderam estereótipos tóxicos”, neste estudo que contou com a participação de autores da Universidade John Hopkins, do Georgia Institute of Technology, ambos nos Estados Unidos, ou ainda de um investigador da Universidade Técnica de Munique, na Alemanha.

Os robôs envolvidos neste estudo usaram o modelo CLIP, a sigla para Contrastive Language-Imagem Pre-Training, uma rede neural que tenta estabelecer ligação entre texto e imagens para funcionar. Este é um dos modelos mais populares, recorrendo a milhares de milhões de imagens e legendas de texto associadas para se “alimentar” de informação. É desenvolvido pela OpenAI, que também desenvolveu o popular DALL-E, modelo que consegue criar novas imagens a partir de texto.

A relação do co-fundador Elon Musk com a OpenAI

Mostrar Esconder

Em 2015, Elon Musk, o homem mais rico do mundo, dono da Tesla e da SpaceX, co-fundou com Sam Altman, presidente da aceleradora de startups Y Combinator, a OpenAI. A ideia era que esta organização conseguisse trabalhar para avançar na promissora área da inteligência artificial.

No entanto, os primeiros tempos da OpenAI ficaram marcados por algum controvérsia pelos resultados dos modelos e pelos receios da reprodução de preconceito e estereótipos.

Em 2018, Musk afastou-se desta entidade que co-fundou, saindo do conselho de administração da companhia. Tudo devido a um possível conflito de interesses, já que a Tesla prometia focar-se na área da inteligência artificial.

A OpenAI é vista como uma forte concorrente da Deepmind, uma subsidiária da Alphabet, a empresa que controla a Google. Hoje em dia, a OpenAI é responsável por algumas das investigações de modelos de inteligência artificial mais populares.

Estes modelos de IA não ganharam consciência para adquirem os seus próprios preconceitos – aliás, há um consenso na comunidade científica de que estão bem longe desse ponto. O preconceito foi ensinado a partir dos dados que alimentam estes modelos. “São problemas muito, muito sérios”, reconhece Paulo Dimas, vice-presidente de inovação de produto da Unbabel, empresa portuguesa que trabalha com IA para tradução. A inteligência artificial “é uma área muito importante”, mas que tem “grandes desafios pela frente”, admite.

Google. Como é que um sistema de IA conseguiu “enganar” um engenheiro só com palavras?

“O problema está nos dados. Se temos dados que já têm preconceito então as redes neurais vão aprender esse preconceito”, diz Paulo Dimas. Este responsável tem no lote de exemplos um teste que faz com frequência na tecnologia de tradução da gigante Google: traduzir a frase “the nurse helped the doctor”. Até aqui, como comprovou o Observador, o resultado tem sido sempre o mesmo – a tradução em português é apresentada como “a enfermeira ajudou o médico”, reforçando o estereótipo de que as mulheres são enfermeiras e os homens médicos. “Não é que as pessoas da Google achem que no mundo só existem enfermeiras, a área da tradução é que tem uma base de dados que tem este preconceito.”

Para o vice-presidente de inovação de produto da Unbabel, que tem na ponta da língua uma série de exemplos sobre os casos conhecidos em que a IA já foi tendenciosa ou discriminatória, a tecnologia não aprendeu sozinha estereótipos ou ideias de outros tempos. Enquanto sociedade, diz Paulo Dimas, “nós próprios temos comportamentos que são tendenciosos”. “As redes neurais simplesmente aprendem esse comportamento e depois reproduzem. São apenas um espelho dos dados que estão disponíveis.”

"As redes neurais simplesmente aprendem esse comportamento e depois reproduzem. São apenas um espelho dos dados que estão disponíveis.”
Paulo Dimas, da Unbabel.

Paulo Dimas recorre a um exemplo da avaliação de risco que a empresa faz no uso de tradução automática para mostrar casos em que pode ser demasiado arriscado usar a IA. A Unbabel tem um cliente que produz um robô cirúrgico. “Fazemos a tradução do manual técnico desse robô”, explica o responsável da Unbabel, mas “usar a IA aqui tem riscos”, e por isso não é a opção utilizada. Em algumas experiências surgiram erros de tradução em alguns idiomas, diz Paulo Dimas, explicando que o modelo traduzia de forma errada a expressão de movimento no sentido dos ponteiros do relógio, sugerindo o sentido contrário.

Portuguesa Unbabel compra concorrente britânica Lingo24

E, uma vez que se trata de um robô que pode ser usado durante cirurgias, um simples erro de tradução poderia representar um “risco de vida para o doente”. Mas, com o desenvolvimento de um modelo que seja mais responsável, a empresa antecipa que a tecnologia de “tradução automática responsável vá acelerar e aumentar a eficiência” de várias empresas, incluindo na área dos ensaios clínicos. Hoje em dia, fazer um ensaio clínico implica que todo o conteúdo tenha de ser traduzido para o idioma local, contextualiza Paulo Dimas. “Todo este processo de criação de uma nova vacina ou de um medicamento é dispendioso e demora muito tempo, porque é preciso tradutores especializados.” O jogo poderá mudar com a tradução automática responsável, acelerando estes processos, acredita o responsável da Unbabel.

Para mitigar os riscos nos casos de tradução, a Unbabel está a investir em IA que permita fazer esta tal tradução com resultados mais transparentes. “É um tipo de tradução que tem em conta a questão do preconceito, que é alimentada com dados que chamamos dados balanceados, onde não há discriminação de género nem de raça”, explica Paulo Dimas. Além disso, a empresa também pesa a componente de risco na tradução que poderá ser feita de forma mais automática — justamente como no caso da tradução do manual do robô cirúrgico.

A importância de conhecer a origem dos riscos da IA

Reid Blackman, CEO e fundador da Virtue, que dá conselhos a empresas sobre como atingir uma IA ética e autor do livro “Ethical Machines: Your Concise Guide to Totally Unbiased, Transparent, and Respectful AI”, refere que apesar de as empresas já estarem mais “conscientes dos riscos” de ter uma tecnologia tendenciosa a tomar decisões, “isso não quer dizer que saibam a origem dos riscos” na sua totalidade. “Podem saber que há um potencial para enviesamento ou modelos discriminatórios e IA que discrimina, mas isso não quer dizer que saibam bem a origem ou como resolvê-lo”.

“Há quem diga que, tendo uma IA tendenciosa, se se tem modelos de dados para treino enviesados, por isso o treino foi feito da forma errada. Às vezes isso é correto, mas há muitas outras formas que resultam numa IA discriminatória. Pode ser pela forma como se pesaram as variáveis… Há uma série de coisas que podem dar resultados discriminatórios.” Para este especialista, é importante perceber as causas durante o processo. “Se não se compreende isso, como é que se é capaz de definir táticas para mitigar esse preconceito?”

“Talvez a resposta seja que, para mitigar o preconceito, temos de afinar os nossos dados de treino ou mudar funções ou a forma como pesamos as variáveis”, continua Reid Blackman, para quem os dados não são a única questão a contribuir para o preconceito na IA. “Há um slogan simples de que precisamos de bases de dados sem preconceito ou de bases de dados representativas. E em alguns casos isso é verdade, mas noutros nem é relevante”, admite.

Reid Blackman vinca ainda que, além de reconhecer que existe preconceito na IA, é importante perceber qual o grau de risco associado às ações desta tecnologia. “Se calhar recomendar filmes de Steven Spielberg mais a brancos do que a negros talvez seja enviesado e discriminatório de alguma forma, mas não quer dizer que seja um grande contratempo. Não é um direito humano ou algo que seja necessário à vida. Não é bom, mas também não é uma tragédia.”

Mais preocupantes são os casos em que a IA pode tomar decisões que tenham impacto no acesso a oportunidades. O exemplo dado com os filmes de Spielberg não representa o meu grau de perigo que os preconceitos da IA “nos casos de saúde, [acesso a] hipotecas, a um emprego ou a crédito.” “Aí é que começamos a falar de temas com impacto na forma de alguém ter uma vida decente.”

Como é que se querem os serviços financeiros? Mais justos e transparentes

Como todos os setores de atividade, também a banca e os serviços financeiros têm olhado para a inteligência artificial como uma forma de ganhar eficiência. Os estudos referem que a IA pode ser útil no que diz respeito à área de concessão de crédito e em como é possível prever e avaliar o risco da concessão de crédito, por exemplo.

Um relatório da Organização para a Cooperação e Desenvolvimento Económico (OCDE) publicado em 2021, focado no uso da inteligência artificial, aprendizagem automática e big data na área das finanças, salientava que era expectável que a implementação de IA no setor financeiro “impulsione o aumento crescente de vantagens competitivas para empresas financeiras através da melhoria de eficiência pela redução de custos e melhoria da produtividade, assim como pela melhoria da qualidade de serviços e produtos oferecidos aos consumidores”.

Este texto admite que “dependendo de como são usados, os métodos de IA têm o potencial para evitar a discriminação baseada nas interações humanas”, ainda que saliente que também tem a possibilidade de “intensificar enviesamentos, tratamentos injustos e discriminação nos serviços financeiros”. O relatório defende que, ao delegar parte do poder de decisão que é conduzido pelo contacto humano num algoritmo, “o uso de um modelo impulsionado por IA pode evitar discriminação associada” ao contacto entre humanos.

Mas a outra face da moeda não é esquecida. “Ao mesmo tempo, as aplicações de IA no setor financeiro podem criar ou intensificar riscos financeiros e não financeiros”, era admitido, mencionando exemplos como “riscos de enviesamento, resultados injustos ou discriminatórios para o consumidor ou preocupações com a gestão e uso de dados”.

A capacidade de admiração é menor num cérebro mais desenvolvido

A inteligência artificial poderá valer 1.597 mil milhões de dólares globalmente em 2030.

Rick_Jo/Getty Images/iStockphoto

Além disso, os autores deste relatório recordavam ainda outro problema associado ao uso de IA neste setor: a falta de “explainability” – algo que em português pode ser entendido como a capacidade de um modelo explicar em que baseia a sua decisão. A OCDE considerava que o crescente aumento desta tecnologia pode “amplificar vulnerabilidades dado o uso extensivo de técnicas que são usadas, a sua adaptabilidade dinâmica e o seu nível de autonomia”.

Também aqui a fragilidade dos dados era tida em conta. “O uso de dados de baixa qualidade pode resultar na tomada de decisões erradas ou tendenciosas por parte dos sistemas de IA”, assim como “modelos treinados com dados de alta qualidade também poderão certamente produzir um resultado questionável se forem alimentados com dados menos adequados, mesmo que tenham um algoritmo bem treinado na base”.

Há alguns anos, um caso que envolveu a Apple e o Goldman Sachs gerou dúvidas sobre as decisões dos algoritmos. Em novembro de 2019, alguns clientes que tentaram obter um cartão de crédito da Apple nos EUA, o Apple Card, notaram que as mulheres tinham acesso a limites de crédito mais baixos.

No Twitter, o empreendedor David Heinemeier Hansson, criador da Ruby on Rails e co-fundador da Basecamp, contou que a análise da Apple tinha-lhe oferecido um limite de crédito 20 vezes mais alto do que o da esposa. Segundo esta publicação, o casal partilhava bens e a esposa até tinha uma pontuação de crédito mais elevada do que David. Também Steve Wozniak, co-fundador da Apple, revelou uma situação semelhante, tendo recebido um limite de crédito dez vezes superior ao da mulher. Também aqui havia partilha de contas entre o casal.

Como o gigante Goldman Sachs também estava envolvido, soaram alarmes e foi aberta uma investigação aos algoritmos que tomaram as decisões de crédito. A investigação do Departamento de Serviços Financeiros de Nova Iorque analisou quase 400 mil pedidos feitos neste estado, concluindo que não existiu violação por parte do Goldman Sachs das leis justas de concessão de crédito. “Embora não tenhamos encontrado violações à concessão de crédito justa, a nossa investigação serve como um lembrete das disparidades de acesso a crédito que continuam a existir quase 50 anos depois da legislação sobre a oportunidade de crédito igualitário”, dizia em março de 2021 Linda A. Lacewell, a superintendente para os serviços financeiros no mercado norte-americano. E, na mesma declaração, esta responsável salientava que exemplos como o da Apple Card “eram parte de uma discussão alargada necessária sobre a igualdade de acesso a crédito”.

Na conclusão da investigação era dito que os algoritmos e modelos do Goldman Sachs “não consideraram características proibitivas dos candidatos” e “que não foram usados para produzir impactos díspares”. Mas o regulador alertava ainda que questões como histórico de crédito ou dívida por pagar não eram os fatores que determinam se o cônjuge recebe um limite mais alto ou não.

Feedzai trabalha em IA mais transparente nos serviços financeiros

O unicórnio português Feedzai percebeu cedo as consequências do enviesamento no mundo dos serviços financeiros. “Comecei a reparar que claramente o enviesamento ia acontecer no mundo financeiro, na atribuição de contas, de crédito e nos bloqueios de cartão – que são coisas com impacto para a vida das pessoas em termos de acesso a serviços e de ter alguma liberdade para usar os serviços bancários”, conta Pedro Bizarro, co-fundador e chief science officer da empresa que usa IA para deteção de fraude nos serviços bancários.

Foi em 2016 que a empresa começou a trabalhar no desenvolvimento de IA responsável e mais transparente. “Não fomos os primeiros do mundo, já havia pessoas a trabalhar nisto, mas acho que no mundo financeiro se calhar fomos dos primeiros a começar a trabalhar a sério e a fazer investigação para estudar o tema.” Pedro Bizarro explica que a empresa percebeu que tinha a “responsabilidade de desenvolver produtos e serviços que permitissem aos clientes primeiro, detetar se os nossos modelos de ML tinham ou não algum tipo de enviesamento, e depois corrigir ou reduzi-lo.” O co-fundador da Feedzai refere que essa é mesmo “uma das grandes áreas do nosso trabalho, detetar e reduzir enviesamento nos modelos que existem em machine learning”.

Este responsável considera que o setor financeiro “claramente já começa a estar mais desperto” para esta realidade. O tema do preconceito e enviesamento na IA é “algo que se calhar há três ou quatro anos não estava no radar de ninguém, mas felizmente agora é um tema quente – e ainda bem que é um tema quente”, vinca Pedro Bizarro. “Os bancos querem resolver este problema”, garante. “Ao fim e ao cabo, um banco é uma instituição de gestão de risco e para eles isto também é mais um risco, de alguma coisa correr mal ou alguém reclamar, de clientes ficarem insatisfeitos e saírem do banco ou de o nome do banco ficar mal visto em público por algum tipo de discriminação.”

Feedzai vale mais de mil milhões de dólares e é o quarto unicórnio fundado por portugueses

O interesse da indústria nesta questão também já estará visível nos pedidos de propostas feitos pelos bancos à Feedzai, etapa em que uma instituição financeira pede informações à empresa para escolher um fornecedor de tecnologia. “Um banco pede uma proposta e começa também a incluir [requisitos] como se o produto tem ou não a capacidade de usar mecanismos de IA responsável, se consegue detetar preconceito, se consegue explicar os modelos. Há um ano e meio, dois, não aparecia nos pedidos de proposta e agora começa a aparecer praticamente em todos.”

Para Pedro Bizarro, ter estes modelos mais transparentes “é quase como um carro ter airbags ou cinto de segurança”. “Houve um momento na história onde os carros não tinham cintos ou airbags e agora é basicamente obrigatório e todos os carros têm mecanismo de segurança. Acho que o mesmo se passa nos serviços financeiros. Passou-se de um momento em que ninguém tinha [IA mais transparente] para outro de as pessoas perceberem que isto é importante e agora toda a gente quer ter.” Até porque é uma “segurança extra para eles e para os clientes”, garante o co-fundador da Feedzai.

Para a empresa portuguesa, ter uma IA mais responsável também é vantagem do ponto de vista de negócio, uma vez que os requisitos das instituições financeiras para estes modelos também estão a mudar. E Pedro Bizarro vinca que ter um modelo de IA mais ético não é sinónimo de concessões na qualidade de deteção de fraude. “Hoje vê-se que é possível ter modelos que sejam muito mais justos, com a mesma qualidade de deteção de fraude — ou seja win-win-win. São modelos bons em termos de desempenho, são modelos bons em termos de redução de viés e são modelos bons para nós porque temos benefício de concorrência, temos uma vantagem competitiva.”

No caso da Feedzai, parte do trabalho passou pelo desenvolvimento de produtos e serviços “que permitissem aos clientes em primeiro lugar detetar se os modelos de machine learning tinham ou não algum tipo de enviesamento e depois corrigir isso ou reduzir”. “Outra área onde investimos relacionada com IA responsável é a explicar porquê. Às vezes há uma decisão sobre bloquear ou não um cartão, às vezes é automático, mas se o cliente quiser saber a razão a resposta não pode ser simplesmente ‘o computador disse que sim’. Não é aceitável que a resposta seja essa”, sublinha Pedro Bizarro.

Se a IA aprendeu o preconceito, também é possível aprender a reduzi-lo?

Reid Blackman, CEO e fundador da Virtue, que aconselha empresas a atingir uma IA ética e autor do livro “Ethical Machines: Your Concise Guide to Totally Unbiased, Transparent, and Respectful AI”, lançado este mês, refere que o facto de haver preconceito na IA não é sinónimo de que seja demasiado tarde para inverter este cenário.

“Não é demasiado tarde, de forma alguma”, considera este especialista. “A IA está sempre a aprender, é possível retreinar os modelos – mesmo que se tenha um modelo enviesado ou que seja preconceituoso a um nível inaceitável, é possível treiná-lo e retreiná-lo.” Blackman recorda que é também “suposto monitorizar estes modelos” e os resultados que obtêm. Além disso, as próprias características da aprendizagem automática fazem com que ainda seja possível dar a volta à questão. “Uma IA implementada não está feita, não é algo estático. É dinâmico e por isso há uma oportunidade contínua para retreinar as coisas e treinar as variáveis”, considera este especialista.

“Uma das coisas de que falo muito no livro é que haverá uma série de ferramentas para identificar possíveis tendências, modelos discriminatórios ou violação de privacidade, mas estas ferramentas só nos podem levar até certo ponto”, continua Blackman. “E é preciso avaliações qualificativas”, determina.

Mas Blackman sublinha que a responsabilidade de ter uma IA mais transparente e ética não é um peso que deva estar apenas nos ombros de um único grupo. “Quero sublinhar que este não é um problema para os cientistas de dados resolverem sozinhos. Sim, têm de estar na conversa, mas se não se tem alguém do lado do negócio, um advogado, um ético, não se faz um trabalho muito bom”, diz Reid Blackman. “Vai sempre haver decisões qualitativas sobre se algo é apropriado ética, legalmente e reputacionalmente, quais são os riscos e como mitigá-los.”

“É preciso compreender as questões de forma profunda e o que se vai perceber quando se compreendem as origens do risco é que há pontos impossíveis de eliminar – funcionalidades que não se podem eliminar, decisões qualitativas que são feitas por pessoas que não são certamente cientistas de dados”, diz Reid Blackman.

Unbabel e Feedzai juntas em consórcio para inteligência artificial

Mostrar Esconder

A Unbabel e a Feedzai estão juntas num projeto de consórcio para a inteligência artificial, que conta também com empresas como a Bial ou o Hospital da Luz e dez startups. O consórcio, que fez uma candidatura ao Plano de Recuperação e Resiliência (PRR), é liderado pela Unbabel. A ideia deste consórcio passa pela criação de um centro de IA responsável em Portugal, com um investimento que ronda os 120 milhões de euros.

“A expectativa é a de que cheguemos à fase final de negociação no final de setembro e em outubro possamos estar a assinar o contrato”, diz Paulo Dimas, da Unbabel. “É uma iniciativa que achamos que vai ser beneficiadora para o país, também na atração de talento e que poderá tornar Portugal líder na IA responsável. Acreditamos que vamos conseguir.”

Comissão Europeia quer IA com regras. Rascunho está em discussão

Bruxelas está interessada em criar aquele que promete ser o primeiro enquadramento legal para regular a inteligência artificial. Apresentado em abril de 2021, a proposta de regras determina uma abordagem baseada em patamares de risco para enquadrar os modelos de IA.

Dividindo os usos desta tecnologia em quatro patamares de risco – inaceitável, de alvo risco, risco limitado e risco mínimo – a Comissão Europeia propõe um conjunto de regras para enquadrar cada um destes patamares. Por exemplo, os usos de inteligência artificial para elaborar classificações sociais para os governos é considerado como um risco inaceitável sendo, por isso, banido devido ao risco que representa. No patamar de risco elevado, Bruxelas propõe que este tipo de sistemas de IA sejam sujeitos a obrigações rígidas antes de chegarem ao mercado.

Em abril deste ano, os membros do Parlamento Europeu encarregues do relatório ligado a esta proposta, o italiano Brando Benifei e o romeno Dragos Tudorache partilharam o primeiro rascunho do relatório, recebendo um total de 3 mil sugestões de emendas.

O ponto de situação mais recente sobre esta proposta de regras para a IA data de junho deste ano, quando os ministros dos Estados-membros tomaram conhecimento do progresso dos trabalhos feitos durante a presidência francesa do Conselho da União Europeia. Com a passagem de testemunho para a República Checa, os trabalhos ligados a esta proposta transitaram para esta presidência.

Neste momento, o documento continua em discussão por parte dos co-legisladores, o Parlamento Europeu e o Conselho dos Estados-membros da União Europeia. É expectável que a votação aconteça em outubro deste ano.

Sobre este tema da proposta de regras de Bruxelas, Pedro Bizarro, da Feedzai, e Paulo Dimas, da Unbabel, veem o tema com bons olhos. “Não me choca que haja um bocadinho de legislação a proteger o cliente final. Faz-me sentido que isso exista. A parte difícil é que muitos destes temas são complicados de exprimir de uma forma legal – mesmo a definição de machine learning ou de IA é tão lata [na proposta] que quase qualquer cálculo calha naquilo que se está a definir”, diz Pedro Bizarro. Ainda assim, o co-fundador da Feedzai mostra-se “otimista de que até poderá vir a ser positivo para a Europa”. “Pode ser um fator que coloque a Europa como centro de produção de IA responsável, consciente, que beneficie as pessoas e que consiga fazer isso sem ter um impacto negativo no mercado.”

“Estamos numa fase da IA em que as regras de trânsito ainda estão a ser definidas”, reconhece Paulo Dimas, da Unbabel. Mas as regras “têm de começar a ser definidas”, defende. “Numa sociedade em que a primazia é o lucro”, defende, o “interesse dos cidadãos” não podem correr o risco de “ficar para segundo plano”.

Apesar de estas regras ainda estarem numa fase de rascunho, alguns críticos referem que a criação de regras poderia travar a inovação. O norte-americano Reid Blackman prefere recordar que “a inovação não significa que só se criem coisas que façam o bem ético ou moral”. “Se há uma forma inovadora de fazer uma bomba nova e há leis que dizem que isso não se pode fazer então estamos a restringir a inovação. Mas isso é porque também se pode inovar em nome de coisas más”, exemplifica. “Num sentido trivial, claro que vai restringir a inovação, mas isso é o que queremos fazer, porque não queremos inovar de uma forma que tenha maus resultados éticos.”

Unesco adota primeira recomendação sobre ética da inteligência artificial

Ofereça este artigo a um amigo

Enquanto assinante, tem para partilhar este mês.

A enviar artigo...

Artigo oferecido com sucesso

Ainda tem para partilhar este mês.

O seu amigo vai receber, nos próximos minutos, um e-mail com uma ligação para ler este artigo gratuitamente.

Ofereça até artigos por mês ao ser assinante do Observador

Partilhe os seus artigos preferidos com os seus amigos.
Quem recebe só precisa de iniciar a sessão na conta Observador e poderá ler o artigo, mesmo que não seja assinante.

Este artigo foi-lhe oferecido pelo nosso assinante . Assine o Observador hoje, e tenha acesso ilimitado a todo o nosso conteúdo. Veja aqui as suas opções.

Atingiu o limite de artigos que pode oferecer

Já ofereceu artigos este mês.
A partir de 1 de poderá oferecer mais artigos aos seus amigos.

Aconteceu um erro

Por favor tente mais tarde.

Atenção

Para ler este artigo grátis, registe-se gratuitamente no Observador com o mesmo email com o qual recebeu esta oferta.

Caso já tenha uma conta, faça login aqui.