Em março deste ano, uma mulher de 49 anos morreu, depois de ter sido atropelada por um carro sem condutor ao serviço da Uber, nos EUA. O carro estaria em modo “autónomo”, com um condutor de segurança que não conseguiu impedir o acidente, tendo a vítima alegadamente atravessado a rua fora da passadeira, de noite. Estudos já publicados demonstram que os carros autónomos não são infalíveis, o que pode levar, por exemplo, a leituras erradas sobre o sentido de sinais de trânsito e, consequentemente, a acidentes provocados por esse erro. Os principais intervenientes nesta matéria, como a Google ou a Tesla, já admitiram, aliás, que os acidentes serão inevitáveis: ainda que o recurso a algoritmos complexos que permitem compreender os padrões de trânsito, salvaguardando a existência de peões e objectos, tenha como objectivo último contribuir para uma melhoria na segurança rodoviária, a condução é uma actividade que depende de variáveis muito diversas, o que apresenta dificuldades a  uma codificação adequada.

Havendo estimativas que apontam para que em 2040 circularão nas estradas cerca de 33 milhões de veículos autónomos, e estando Portugal prestes a arrancar com testes a este tipo de veículos, há (também) um conjunto de questões jurídicas que se afiguram relevantes a este respeito.

Sendo certo que os acidentes que envolvem veículos não autónomos também suscitam variados problemas jurídicos, facilmente se compreende que o envolvimento de um veículo autónomo num acidente torna mais complexa a resposta à pergunta sobre quem é responsável (aquilo que muitas vezes, na linguagem comum, acaba por ser traduzido por “quem tem a culpa?”). O fabricante do veículo? O programador do algoritmo? O condutor de segurança? A própria vítima? Explicando: será a resposta à pergunta “quem é responsável?” idêntica se estivermos a falar de um acidente que ocorre não por negligência do condutor mas antes i) por um erro ou defeito do sistema no interface entre diferentes veículos ou entre o carro autónomo e o meio envolvente (por exemplo, a errada leitura de um sinal de trânsito, como o caso referido no início do texto)?, ii) por uma intervenção externa que afeta o sistema (como um ataque informático) ou iii) devido a uma escolha efetuada pelo próprio veículo (virar para o
lado esquerdo, provocando uma vítima mortal, em vez de virar para o lado direito, sendo que esta teria sido a escolha do condutor)?

Talvez a questão mais interessante seja como poderá o software do carro ser programado para resolver dilemas éticos (o já conhecido problema do trolley, como escolher entre virar à esquerda e ferir um grupo de crianças ou virar à direita e ferir uma pessoa idosa, como foi desenvolvido num artigo pelo Global Shaper João Romão) e de que forma esta escolha afectará – aliás, se
afectará – a imputação de danos.

As chamadas “leis” da robótica de Asimov – (1) Um robô não pode magoar um ser humano ou, por inação, permitir que tal aconteça; (2) Um robô tem de obedecer às ordens dos seres humanos, exceto se essas ordens entrarem em conflito com a primeira lei; (3) Um robô tem de proteger a sua própria existência desde que essa proteção não entre em conflito com a primeira ou com a segunda lei e (0) Um robô não pode magoar a humanidade ou, por inação, permitir que a humanidade se magoe – têm como destinatários, obviamente, os programadores e produtores, mas não têm qualquer relevância jurídica directa para o problema da responsabilidade civil por danos causados por robôs.

As respostas às questões levantadas poderão ser mais claras nuns casos do que noutros e, mesmo assim, há dados que podem dificultar novamente a resolução do problema: se a responsabilidade do produtor se apresenta como um candidato natural, o que dizer se o erro for causado por um atraso na actualização do sistema por parte do condutor? Ou se o carro tiver uma opção de condução manual ou a possibilidade de o condutor alterar a programação pré-definida para casos de perigo de acidente?

Estas diferentes configurações anunciam que a relação entre o proprietário e o condutor do veículo, as companhias seguradoras e o fabricante do automóvel vão claramente sofrer uma transformação, em virtude de um inevitável novo enquadramento em sede de responsabilidade civil. Vejamos: fará sentido continuar a falar de seguro contra terceiros no caso de condução de carros autónomos? Ou o foco estará antes num seguro de responsabilidade do produtor? Onde terminará a responsabilidade de quem programou e começará a responsabilidade de quem fabricou o veículo? E como se interligarão estas com a responsabilidade do condutor?

Não é por isso uma surpresa que a União Europeia procure encontrar um quadro regulatório para atender aos problemas jurídicos suscitadas pela evolução tecnológica, falando-se, no caso dos carros autónomos, da necessidade de alterar a Convenção de Viena sobre a Circulação Rodoviária, de 8 de novembro de 1968, para permitir a condução sem condutor ou de disposições específicas que devem ser tidas em conta pelos legisladores nacionais, tendo como exemplo a Alemanha, que legislou no sentido da obrigatoriedade de instalação de caixas negras no veículo e de garantir que o condutor possa sempre recuperar o controlo do carro.

As Disposições de Direito Civil sobre Robótica (Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contêm recomendações à Comissão sobre disposições de Direito Civil sobre Robótica) procuram precisamente apontar para regras que considerem o impacto jurídico e ético destas novas tecnologias na sociedade. Delas resulta, entre outros aspectos (como um código de ética para os engenheiros de robótica) que qualquer solução jurídica aplicada à responsabilidade dos robôs e da inteligência artificial em caso de danos não patrimoniais não deverá, em caso algum, limitar o tipo ou a extensão dos danos a indemnizar nem as formas de compensação que podem ser disponibilizadas à parte lesada, pelo simples facto de os danos terem sido provocados por um agente não humano e que deverá ser criado um regime de seguro obrigatório, que poderá basear-se na obrigação do produtor de subscrever um seguro para os robôs autónomos que produz, devendo o regime de seguros ser complementado por um fundo, a fim de garantir que os danos possam ser indemnizados caso não exista qualquer cobertura de seguro.

Porém, enquanto esse enquadramento não existir, os condutores ao volante do veículo continuarão a ser os primeiros responsáveis pelos danos causados.

Mariana Melo Egídio tem 31 anos e é Assistente Convidada da Faculdade de Direito da Universidade de Lisboa desde 2009, onde se licenciou e está a concluir o doutoramento em Ciências Jurídico-Políticas. É também docente em pós-graduações na área do Direito Público e autora de vários artigos em Direito Constitucional e Direito Administrativo.

O Observador associa-se aos Global Shapers Lisbon, comunidade do Fórum Económico Mundial para, semanalmente, discutir um tópico relevante da política nacional visto pelos olhos de um destes jovens líderes da sociedade portuguesa. Ao longo dos próximos meses, partilharão com os leitores a visão para o futuro do país, com base nas respetivas áreas de especialidade. O artigo representa, portanto, a opinião pessoal do autor enquadrada nos valores da Comunidade dos Global Shapers, ainda que de forma não vinculativa.