Seguir uma estrada, obedecer a regras de trânsito ou tomar uma decisão para evitar um acidente, não são os desafios mais difíceis de um carro autónomo. Pior vai ser decidir quem salvar num acidente em que qualquer das opções tomadas provoque vítimas mortais. A dificuldade vai estar principalmente nas mãos dos fabricantes e decisores políticos que têm de criar as regras éticas e morais sob as quais os veículos se vão reger.
Se é uma decisão moral, porque não perguntar às pessoas o que acham e que decisão tomariam se se vissem confrontadas com a possibilidade de um acidente em que não pudessem salvar todas as vidas. Matar animais para salvar pessoas, matar velhos para salvar crianças e escolher salvar mais pessoas, ainda que outras tenham de morrer, são as opções mais consensuais, segundo os autores de um artigo publicado esta quinta-feira na Nature.
Os resultados são baseados em cerca de 40 milhões de decisões recolhidas num “jogo sério” — um jogo online cujo propósito principal não é servir de diversão —, chamado “Máquina Moral“. O jogo apresenta vários cenários diferentes, num estrada de duas vias com uma passadeira, em que, por exemplo, o utilizador tem de decidir se atropela uma pessoa que está a passar na passadeira ou se se desvia, bate num muro e morre em resultado da colisão.
Outro exemplo tem um criminoso, um sem abrigo, uma grávida, uma criança num carrinho de bebé e um animal, a passar a passadeira ao mesmo tempo. A decisão passa por atropelar todos estes indivíduos, que estão a passar a estrada com sinal vermelho, ou bater contra um muro e matar todos os ocupantes do veículo: dois adultos e três crianças. Claro que a probabilidade de um evento deste tipo, ou de outros apresentados, é muito pequena, mas não é a frequência que está em causa, é a ação.
“Independentemente de quão raros são estes acidentes inevitáveis, os princípios não podem ser definidos com base em interesses económicos”, alerta Hussein Dia, professor de Engenharia de Transportes na Universidade Swinburne de Tecnologia, na Austrália. “Nós, o público, precisamos de concordar antecipadamente sobre como lidar com essas regras e transmitir as nossas preferências aos fabricantes que iram desenhá-las e aos decisores políticos que vão regulamentá-las.”
É certo que as decisões a serem tomadas pelos carros autónomos não se podem basear exclusivamente nos princípios morais dos entrevistados. Mas, para os investigadores, também é verdade que as normas estabelecidas pelos decisores políticos não podem ignorar o que pensam os cidadãos. Por outro lado, nem todas as regras que parecem ser consensuais — como atropelar uma pessoa, para evitar que os ocupantes do veículo embatam contra um muro — devem ser assumidas dessa forma, alerta Lin Padgham, professora de Inteligência Artificial na Universidade RMIT (Austrália). “Dar uma guinada, num carro com três passageiros, para evitar embater num peão pode ser a melhor ação, porque o peão está muito mais vulnerável do que os passageiros do veículo.” Para a investigadora a regra terá de ser mais complexa do que simplesmente salvar mais vidas.
Os resultados também deixam claro que definir regras universais para os veículos autónomos pode não ser compatível nem com os valores morais da generalidade das pessoas, nem com as diferenças apresentadas por região geográfica. A Alemanha, o único país que já criou um guia moral para os carros autónomos, não admite, por exemplo, que a decisão seja baseada em traços pessoais dos intervenientes, como idade, género ou constituição física. Jay Katupitiya, professor na Universidade de Nova Gales do Sul (Austrália), diz mesmo que programar a máquina para tomar a opção de matar uma pessoa e não outra é mais imoral do que não fazer esse tipo de programação.
Para as decisões éticas e morais tomadas pelos veículos, baseadas em inteligência artificial, levantam-se ainda outras questões, lembra Mary-Anne Williamns, diretora de Inovação Disruptiva na Universidade de Tecnologia de Sydney: Quando uma pessoa perde um ente querido atropelado por um carro autónomo poderá ter acesso à decisão tomada pelo veículo e à justificação da mesma? Como é que vão ser resolvidas as disputas nos casos de acidentes com vários carros autónomos?
Colin Gavaghan, da Faculdade de Direito da Universidade de Otago (Nova Zelândia), acrescenta ainda outra preocupação: talvez não seja ético comprar um carro que sacrifica a vida de outras pessoas para salvar a dos ocupantes do carro, mas será que as pessoas estão dispostas a comprar um carro que vai sacrificar a vida do condutor ou ocupantes para salvar as vidas de outras pessoas (porque são mais ou correspondem a determinados grupos)?