Há uns tempos, inscrevi-me num mestrado de Filosofia Política, aqui na Universidade do Minho. Uma das melhores coisas de fazer um mestrado destes foi o de começar a ler coisas interessantíssimas sem interesse nenhum. Quando uma pessoa se inicia nestas lides da Filosofia Política — e nada do que eu vou escrever tem qualquer pretensão a ser mais do que uns bitaites de um bronco que ainda está a meio do seu primeiro ano de mestrado —, um dos primeiros temas que vem à baila é o da justiça. Saber aquilo que para cada um de nós é justo e, naturalmente, pôr esse conceito à prova.
Um dos dilemas clássicos com que os iniciados são confrontados é algo como o que descrevo a seguir. Suponha estas duas situações hipotéticas:
1. Uma médica tem pela frente 6 feridos. Um muito grave e cinco menos graves. Pode dedicar cinco horas a salvar o doente grave, deixando morrer os outros, ou dedicar uma hora a cada um dos menos graves, salvando-os, e deixar morrer o mais grave. A grande maioria das pessoas dirá que se devem salvar os cinco pacientes menos graves.
2. Agora admita que há cinco doentes a precisar de um transplante (cada um de um órgão diferente). Sem o transplante morrem. Na sala ao lado, está uma pessoa perfeitamente saudável a dormir. Pode facilmente anestesiá-la, retirar-lhe os cinco órgãos e com isso salvar os cinco doentes que precisam de transplante. Se estivesse no lugar da médica, fá-lo-ia? Quero acreditar que não. Uma coisa é deixar morrer alguém que está para morrer, outra coisa é matar alguém com o fito de salvar outrem.
Uma concepção estritamente utilitarista dir-nos-ia que é sempre preferível evitar cinco mortes a evitar apenas uma. E, de facto, é esse o critério que nos guia ao decidir o que fazer na primeira situação. O facto de na segunda situação não optarmos por essa alternativa quer dizer que não somos, verdadeiramente, utilitaristas. Mas, na verdade, essa concepção de justiça está sempre presente nas políticas públicas. Por exemplo, se apenas houver 100 milhões de euros para escolher entre investigar a cura de uma doença ou de outra, é muito provável que se escolha investir na doença que mais pessoas afecta (sendo tudo o resto igual, naturalmente).
Suponha agora que tem cinco doentes a precisar de transplante, que irão morrer rapidamente sem ele. Entretanto, chega alguém que sofreu um acidente grave, mas que deixou os seus órgãos intactos. Pode dedicar-lhe várias horas de trabalho, salvando-o e deixando morrer os outros cinco, ou pode deixá-lo morrer rapidamente, aproveitando os órgãos para salvar cinco doentes a precisar de transplante. Penso que a maioria das pessoas terá de pensar um pouco antes de fazer uma escolha. Ao contrário da situação 2, acima descrita, já não se trata de matar alguém que, de outra forma, sobreviveria. Por outro lado, a escolha parece não ser tão óbvia como na primeira situação. Recorrer a um paciente para salvar os outros deixa um amargo de boca.
Felizmente, muito raramente somos confrontados com estes dilemas com que a profissão médica tem de lidar. Mas este dilema vai estar presente cada vez mais no futuro. Pense no Google Self-Driving Car. Já existem alguns em circulação. É possível que, a prazo, os carros se conduzam sozinhos. Mas, claro, é necessário programar o software que os conduz. E é preciso dar-lhe instruções sobre como agir em situações de emergência. Suponha que o carro está descontrolado e o computador que o conduz tem a hipótese de atropelar, e matar, as cinco pessoas que estão à frente ou atirar-se por uma ribanceira, matando o dono do carro que vai lá dentro sentado.
Como programar? Se formos nós que estamos dentro do carro, muito dificilmente escolheremos que o carro nos mate, pelo que a escolha é que vá em frente e atropele as cinco pessoas que se meteram no caminho. Mas, sob ponto de vista das políticas públicas, a escolha óptima é obrigar o carro a evitar o maior número de mortes possível. Mesmo sob o nosso ponto de vista individual, dado que não sabemos se no futuro estaremos dentro do carro ou fora, para maximizarmos a nossa probabilidade de sobrevivência quereremos que o software seja programado de acordo com o interesse público.
Infelizmente, esta situação não representa aquilo que em Teoria dos Jogos chamamos um Equilíbrio de Nash (para quem não sabe, Nash é o Russell Crowe do filme Uma Mente Brilhante). Cada um de nós terá um forte incentivo de adulterar o software do seu carro. Afinal, o ideal é que os outros carros ponham a nossa vida à frente da vida do seu dono, mas que o nosso carro ponha a vida do seu dono acima de todas as outras. E, sendo assim, o condutor quererá desenvolver um software que se comporte de uma forma na estrada e de outra forma quando estiver a ser testado num qualquer centro de inspecções. Vamos todos querer um Volkswagen.
PS: Se gostou das primeiras duas situações que lhe coloquei acima, vai gostar de assistir às aulas de Michael Sandel, de onde os exemplos foram tirados. E, se me permite uma sugestão, não fique pela primeira aula. Vá até ao fim.