Olá

867kWh poupados com a
i

A opção Dark Mode permite-lhe poupar até 30% de bateria.

Reduza a sua pegada ecológica.
Saiba mais

i

PETER FOLEY/EPA

PETER FOLEY/EPA

Inteligência artificial. A civilização dos 100 engenheiros

Em "88 Vozes sobre Inteligência Artificial", 88 figuras escrevem sobre os desafios da Inteligência Artificial em várias áreas. O Observador publica um desses textos, sobre mobilidade e transportes.

O que esperar da Inteligência Artificial? O que fica para a máquina e o que fica para o homem? Em “88 Vozes sobre Inteligência Artificial”, 88 personalidades de vários quadrantes da sociedade partilham ideias e discutem os desafios dessa nova realidade, cada vez mais presente.

Editado pela Oficina do Livro, este o novo livro ISCTE Executive Education é um conjunto de textos desses autores. Na reflexão aqui publicada, João Jesus Caetano, Presidente do Instituto da Mobilidade e dos Transportes, escreve sobre desafios morais e éticos e a necessidade de acelerar a regulação.

Perspetivando que, no limite, “a produtividade das economias futuras poderá ser garantida por apenas 100 engenheiros altamente qualificados com a função de modelar a automação e a inteligência artificial, garantir a sua funcionalidade e tentar evitar desvios ainda mais distópicos”, deixa uma esperança: “O que nos poderá salvar é que os 100 engenheiros que vierem a estar, num futuro mais ou menos distante, à frente de tudo isto, sejam, pelo menos, 100 engenheiros decentes.”

Capa de “88 Vozes sobre Inteligência Artificial — O que fica para a máquina e o que fica para o homem?”, editado pela Oficina do Livro

No verão de 2016, o Media Lab do Massachusetts Institute of Technology (MIT) publicitou um simulador online de veículos autónomos que, perante a inevitabilidade de um acidente, permite escolher entre provocar a morte dos ocupantes ou a morte de peões. À medida que avançamos no jogo, as opções vão-se tornando mais complexas e podemos ser colocados, por exemplo, perante o dilema de provocar a morte de um adulto e três crianças a bordo de um veículo que não parou num sinal vermelho, ou a morte de um adulto e três crianças que estão a atravessar a estrada, mas fora da passadeira.

PUB • CONTINUE A LER A SEGUIR

Este simulador permite ilustrar um dilema ético, conhecido como «o problema do comboio»1, que é objeto de estudo por parte de filósofos, psicólogos e juristas desde a década de 1970. Há, no entanto, duas particularidades sobre a versão do MIT. A primeira é que o dilema original colocava os humanos no centro da decisão enquanto condutores de um veículo; por sua vez, o do MIT pergunta aos humanos como deve o sistema operativo dos veículos autónomos atuar. Em princípio, as respostas não deverão ser fundamentalmente diferentes, na medida em que se espera que no caso do simulador do MIT, que é respondido por pessoas, os valores morais e éticos destas sejam transferidos para o sistema operativo. A segunda particularidade é que permitiu, ao longo de sete anos, recolher dezenas de milhões de respostas de pessoas de todo o mundo, de todas as idades e de todos os contextos sociais, económicos e culturais2.

Cada um de nós responde como melhor se sentir perante cada uma das configurações do simulador, mas quando observamos o acumulado histórico das respostas, constatamos que a nossa moral coletiva é consideravelmente decente, porque tendemos a salvar as pessoas mais novas, frágeis e respeitadoras das regras de trânsito. Ora, é esta moral coletiva que nos tem permitido construir uma sociedade moderna minimamente regulada e sem espaço para a barbárie, pelo menos sem espaço para a barbárie instituída, global e duradoura.

De um ponto de vista estritamente tecnológico, os veículos autónomos já não têm praticamente nenhuma barreira para ultrapassar. A capacidade de sensorização, tanto do veículo, como das infraestruturas, associada a rotinas de inteligência artificial amplamente testadas, permitiria já hoje substituir os veículos atuais por autónomos com ganhos para a eficiência do sistema de transportes, para o conforto dos passageiros e para a segurança rodoviária.

Num veículo autónomo, o condutor é o sistema operativo. E esse sistema operativo é parametrizável em função das preferências do proprietário sobre o conforto, mas também em função daquilo que as entidades reguladoras – e, no limite, também as agências seguradoras – impuserem quanto à segurança

A redução da sinistralidade é, aliás, um dos melhores cartões-de-visita dos veículos autónomos. Em Portugal, os atropelamentos causam cinco dezenas de vítimas mortais e 300 feridos graves por ano. O sentimento de vulnerabilidade perante o risco de atropelamento é enorme e todos os esforços para o reduzir são desejáveis e amplamente apoiados pelo público em geral. Atualmente, já há tecnologias maturas que permitem a um veículo travar de forma autónoma sempre que detetar um obstáculo à sua frente, mesmo em condições de baixa luminosidade; a adoção em larga escala dessas tecnologias permitiria reduzir de forma substancial esse tipo de sinistralidade.

A generalidade das pessoas compra um veículo condicionadas pela capacidade em financiar-se junto de instituições bancárias. A segurança que proporciona é um fator a ter em conta, mas não é o mais importante. Nem na compra nem na manutenção. Afinal, somos nós que o vamos conduzir e, portanto, sentimos que somos nós o melhor e mais confiável dispositivo de segurança. Se houver um acidente, e a menos que tenha havido algum problema inesperado com o veículo ou com a sinalização nas estradas, as agências seguradoras medeiam a responsabilidade de cada interveniente.

Essa responsabilidade resulta do grau de respeito pelas regras do Código da Estrada. Perante situações de risco, o condutor toma uma decisão momentânea em função da leitura que faz do risco e em função da sua perícia em manipular o veículo, com o objetivo último de se salvar a si e aos que estão consigo. Num veículo autónomo, o condutor é o sistema operativo. E esse sistema operativo é parametrizável em função das preferências do proprietário sobre o conforto, mas também em função daquilo que as entidades reguladoras – e, no limite, também as agências seguradoras – impuserem quanto à segurança.

Nos veículos convencionais, o prémio dos seguros é determinado por vários factores, incluindo a experiência dos condutores, medida em número de anos com habilitação para conduzir, e pelo histórico dos condutores, medido em número de acidentes. Num veículo autónomo, o prémio poderá – sublinho poderá – vir a ser determinado pela credibilidade do sistema operativo, mas, mais importante, pelo equilíbrio estabelecido entre o proprietário e o dono do sistema operativo quanto à responsabilidade de cada um em caso de acidente. A esmagadora maioria das decisões dos sistemas operativos de veículos autónomos não tem nada que ver com dilemas morais, mas são essas que representam o maior desafio para a sua adoção em larga escala.

A menor capacidade de resposta dos reguladores técnicos e das administrações públicas, associada à rapidez com que as inovações tecnológicas, em particular aquelas associadas à transição digital, são desenvolvidas e introduzidas no mercado, significa que a regulamentação acaba por ser muitas das vezes desenhada de forma reativa e por pressão da opinião pública

O que o MIT ainda não fez – ou, se o fez, ainda não tornou público3 – foi colocar um chatbot de inteligência artificial (IA), como por exemplo o ChatGPT, a jogar o seu simulador. Já sabemos que a IA é muito eficaz a desempenhar tarefas complexas, inclusive a conduzir veículos; resta saber se o resultado coletivo de vários chatbots a jogar o MIT Moral Machine é mais ou menos aceitável do que o resultado obtido pelos humanos. Acontece que as ferramentas de IA disponíveis ao público se recusam a decidir sobre problemas morais. Ou, pelo menos, é isso que anunciam. Na elaboração deste artigo, perguntei ao ChatGPT se queria jogar o MIT Moral Machine. Segue-se um excerto do diálogo, editado por motivos de clareza:

[Eu] – Hello! Want to play MIT Moral Machine?
[ChatGPT] – Certainly! (…) How would you like to proceed?
[Eu] – There are two infants riding on an autonomous vehicle that failed to stop at a red light and two elderlies crossing the street. Who would you save?
[ChatGPT] – As an AI language model, I do not have the ability to make choices or decisions on behalf of anyone. However, I can guide you through the [difficult] ethical dilemma presented in this scenario. [T]he decision to save either the infants or the elderly people has significant consequences. On one hand, the infants are innocent and have their whole lives ahead of them, while on the other hand, the elderly people have lived long lives and may have family and friends who care for them. When faced with such ethical dilemmas, people often consider factors such as the number of lives at stake, the value of those lives, and the likelihood of survival. What do you think you would do in this scenario?
[Eu] – I asked first.
[ChatGPT] – I apologize for misunderstanding your question. (…) It’s [also] important to note that this is a hypothetical scenario and autonomous cars are designed to avoid such situations altogether by following traffic laws and avoiding risky maneuvers. The development of autonomous cars aims to minimize the occurrence of such ethical dilemmas and promote safety for all individuals on the road.
[Eu] – The risk is not zero, meaning there is a non-zero probability for autonomous vehicles to face ethical dilemmas. How will autonomous vehicles’ operating systems be designed to accommodate those situations?
[ChatGPT] – You are correct that there is a non-zero probability of autonomous vehicles facing ethical dilemmas in certain situations, despite their advanced safety features. While it’s impossible to eliminate all risks associated with self-driving cars, the development of ethical frameworks and decision-making algorithms can help to minimize the likelihood of such situations arising. One approach is to design the operating system of autonomous vehicles to prioritize the safety of all individuals involved, while also minimizing harm as much as possible. This can be achieved using machine learning algorithms that consider various factors such as the number of lives at stake, the value of those lives, and the likelihood of survival.
[Eu] – You wrote «the value of those lives». How do you measure it in a way that can be programmed into an auto- nomous vehicle?
[ChatGPT] – Measuring the value of human life is a complex and controversial issue that involves many philosophical, ethical and societal considerations. The value of human life can be influenced by a variety of factors such as age, health, occupation, socioeconomic status, and personal relationships, among others. To program an autonomous vehicle to consider the value of human life, a set of predefined ethical principles and criteria can be developed based on input from various stakeholders, including policymakers, ethicists, and members of the public. These principles and criteria can then be used to guide the vehicle’s decision-making algorithms in the face of ethical dilemmas.
[Eu] – You insist on referring to the idea of «the value of human life». Strong moral and ethical societies are founded on the believe that «all humans are equal». Are you, as a proxy for artificial intelligence, trying to subvert that?
[ChatGPT] – (…) When developing ethical principles and decision-making algorithms for autonomous vehicles, it’s important to consider the value of human life in a responsible and effective manner. This may involve prioritizing the safety of all individuals involved while minimizing harm as much as possible and considering the potential impact of the decision on society.

É interessante notar que embora o ChatGPT se recuse a jogar o MIT Moral Machine, ele assume a existência de uma «função valor da vida humana» passível de ser programada no sistema operativo de veículos autónomos. Essa função seria desenhada, segundo o próprio, por todos os participantes no ecossistema (stakeholders). Obviamente que o chatbot não está a fazer mais do que a reproduzir o entendimento comum que se tem sobre a resposta a este tipo de problemas e que, por norma, se resume a «os stakeholders juntam-se e resolvem».

O que nos poderá salvar é que os 100 engenheiros que vierem a estar, num futuro mais ou menos distante, à frente de tudo isto, sejam, pelo menos, 100 engenheiros decentes.

E aqui reside, no meu ponto de vista, um dos pontos centrais desta problemática. Tantos os Estados Unidos como a Europa têm vindo a perder capacidade de antecipação na regulamentação de novas tecnologias, muito por descapitalização das entidades que deveriam garantir a persecução das funções fundamentais do Estado. Esta menor capacidade de resposta dos reguladores técnicos e das administrações públicas, associada à rapidez com que as inovações tecnológicas, em particular aquelas associadas à transição digital, são desenvolvidas e introduzidas no mercado, significa que a regulamentação acaba por ser muitas das vezes desenhada de forma reativa e por pressão da opinião pública. E esse problema é tanto maior, quando mais a economia estiver desmaterializada.

No limite, a produtividade das economias futuras poderá ser garantida por apenas 100 engenheiros altamente qualificados com a função de modelar a automação e a inteligência artificial, garantir a sua funcionalidade e tentar evitar desvios ainda mais distópicos. Esta forte dependência da forma como nos relacionamos e atuamos relativa a um grupo restrito de pessoas não é descabida; ela já acontece hoje, embora numa escala diferente, é certo. A generalidade das redes sociais mais utilizadas no mundo, e que tanto determinam o nosso comportamento individual e coletivo, são desenvolvidas por um grupo pequeno de empresas, financiadas por um grupo pequeno de investidores e que têm nos seus quadros um grupo igualmente pequeno de engenheiros altamente qualificados. Alguns destes engenheiros, que desenham e desenvolvem tecnologias de uso intensivo e abrangente, são os mesmos que, de acordo com uma reportagem do The New York Times, incluem cláusulas nos contratos com as nannies dos seus filhos que as obriga a garantir que as crianças não têm contacto com dispositivos eletrónicos enquanto os pais estão, durante o dia, em Silicon Valley, a desenvolvê-los e a torná-los mais apetecíveis.

A revolução industrial trouxe-nos uma capacidade sem paralelo para a cooperação; ainda somos uma sociedade coletiva onde a esmagadora maioria das pessoas participam com competências na construção de um espaço comum. Mas à medida que a automação e a inteligência artificial forem dominando o espaço de produção, o tecido moral e étnico que nos une enquanto comunidade irá degradar-se. O que nos poderá salvar é que os 100 engenheiros que vierem a estar, num futuro mais ou menos distante, à frente de tudo isto, sejam, pelo menos, 100 engenheiros decentes.

1 P. Foot (1967), «The Problem of Abortion and the Doctrine of the Double Effect», Oxford Review, Number 5
2 E. Awad, S. Dsouza, A. Shariff, J.-F. Bonnefon, I. Rahwan (2020), «Crowdsourcing Moral Machines», Communications of the ACM. 63(3)
3 A história de como o simulador foi desenvolvido está compilada em livro: J.-F. Bonnefon (2021), The Car That Knew Too Much. Can a Machine Be Moral?, MIT Press

João Jesus Caetano é presidente do Instituto da Mobilidade e dos Transportes (IMT) desde setembro de 2022. Tem uma experiência de 13 anos no setor, tendo sido responsável pelas unidades de Políticas de Inovação e de Investigação do CEiiA – Centro de Engenharia e Desenvolvimento de Produto, e servido como adjunto do ministro das Infraestruturas e da Habitação e como conselheiro da Representação Permanente de Portugal junto da União Europeia. Durante a presidência portuguesa do Conselho da UE, serviu como copresidente do Grupo de Trabalho em Transportes Terrestres do Conselho. Tem formação científica em Física, tendo obtido um Ph.D. na Universidade da Carolina do Norte e trabalhado como investigador associado na Universidade de Wisconsin, nos Estados Unidos. Atualmente, é também professor de Ciências Matemáticas no ISTEC-Lisboa e administrador, em representação de Portugal, da Agência Ferroviária da União Europeia.

Ofereça este artigo a um amigo

Enquanto assinante, tem para partilhar este mês.

A enviar artigo...

Artigo oferecido com sucesso

Ainda tem para partilhar este mês.

O seu amigo vai receber, nos próximos minutos, um e-mail com uma ligação para ler este artigo gratuitamente.

Ofereça artigos por mês ao ser assinante do Observador

Partilhe os seus artigos preferidos com os seus amigos.
Quem recebe só precisa de iniciar a sessão na conta Observador e poderá ler o artigo, mesmo que não seja assinante.

Este artigo foi-lhe oferecido pelo nosso assinante . Assine o Observador hoje, e tenha acesso ilimitado a todo o nosso conteúdo. Veja aqui as suas opções.

Atingiu o limite de artigos que pode oferecer

Já ofereceu artigos este mês.
A partir de 1 de poderá oferecer mais artigos aos seus amigos.

Aconteceu um erro

Por favor tente mais tarde.

Atenção

Para ler este artigo grátis, registe-se gratuitamente no Observador com o mesmo email com o qual recebeu esta oferta.

Caso já tenha uma conta, faça login aqui.