Tem acesso livre a todos os artigos do Observador por ser nosso assinante.

Em março deste ano, uma mulher de 49 anos morreu, depois de ter sido atropelada por um carro sem condutor ao serviço da Uber, nos EUA. O carro estaria em modo “autónomo”, com um condutor de segurança que não conseguiu impedir o acidente, tendo a vítima alegadamente atravessado a rua fora da passadeira, de noite. Estudos já publicados demonstram que os carros autónomos não são infalíveis, o que pode levar, por exemplo, a leituras erradas sobre o sentido de sinais de trânsito e, consequentemente, a acidentes provocados por esse erro. Os principais intervenientes nesta matéria, como a Google ou a Tesla, já admitiram, aliás, que os acidentes serão inevitáveis: ainda que o recurso a algoritmos complexos que permitem compreender os padrões de trânsito, salvaguardando a existência de peões e objectos, tenha como objectivo último contribuir para uma melhoria na segurança rodoviária, a condução é uma actividade que depende de variáveis muito diversas, o que apresenta dificuldades a  uma codificação adequada.

Havendo estimativas que apontam para que em 2040 circularão nas estradas cerca de 33 milhões de veículos autónomos, e estando Portugal prestes a arrancar com testes a este tipo de veículos, há (também) um conjunto de questões jurídicas que se afiguram relevantes a este respeito.

Sendo certo que os acidentes que envolvem veículos não autónomos também suscitam variados problemas jurídicos, facilmente se compreende que o envolvimento de um veículo autónomo num acidente torna mais complexa a resposta à pergunta sobre quem é responsável (aquilo que muitas vezes, na linguagem comum, acaba por ser traduzido por “quem tem a culpa?”). O fabricante do veículo? O programador do algoritmo? O condutor de segurança? A própria vítima? Explicando: será a resposta à pergunta “quem é responsável?” idêntica se estivermos a falar de um acidente que ocorre não por negligência do condutor mas antes i) por um erro ou defeito do sistema no interface entre diferentes veículos ou entre o carro autónomo e o meio envolvente (por exemplo, a errada leitura de um sinal de trânsito, como o caso referido no início do texto)?, ii) por uma intervenção externa que afeta o sistema (como um ataque informático) ou iii) devido a uma escolha efetuada pelo próprio veículo (virar para o
lado esquerdo, provocando uma vítima mortal, em vez de virar para o lado direito, sendo que esta teria sido a escolha do condutor)?

Talvez a questão mais interessante seja como poderá o software do carro ser programado para resolver dilemas éticos (o já conhecido problema do trolley, como escolher entre virar à esquerda e ferir um grupo de crianças ou virar à direita e ferir uma pessoa idosa, como foi desenvolvido num artigo pelo Global Shaper João Romão) e de que forma esta escolha afectará – aliás, se
afectará – a imputação de danos.

Este artigo é exclusivo para os nossos assinantes: assine agora e beneficie de leitura ilimitada e outras vantagens. Caso já seja assinante inicie aqui a sua sessão. Se pensa que esta mensagem está em erro, contacte o nosso apoio a cliente.