Crescentes avanços tecnológicos alteraram o nosso envolvimento diário com o mundo que nos rodeia, disso não há dúvida. Contudo, é em algumas práticas (cada vez mais) tradicionais que até um geek como eu encontra conforto.

Uma destas práticas é o estudo da palavra. Não do seu significado ou sequer do seu contexto, mas sim da sua origem. Ultimamente, com todas as notícias relacionadas com o futuro do trabalho e com a inteligência artificial, dou por mim incapaz de prescindir de tal exercício. Porém, não é no tema tecnológico que mais me tenho debruçado, mas sim nas suas implicações na ética e na moral da sociedade em que nos inserimos. E será por aqui o exercício de hoje, começando pelo estudo destas relevantes palavras.

A palavra ética provém de ethos, que significa carácter ou o tipo de pessoa que somos. Já a moral, que provém de mores, diz respeito a costumes e tradições. Se nos quisermos guiar por um conjunto de regras que nos dizem o que fazer em determinada situação, é a moral que nos pode ajudar. Se quisermos ser o tipo de pessoa que julga bem (e a favor do bem) em momentos difíceis, servir-nos-á a ética.

Fazer algo que nos dizem para fazer é fácil. Julgar bem em situações inesperadas é mais complicado.

O mesmo plano pode ser transposto para a temática da inteligência artificial. Há muitos anos que vivemos num mundo onde máquinas (generalizando) seguem um conjunto finito e controlado de regras para tomarem as suas decisões. Mas o que acontece quando estas começam a ter a capacidade de decidir por si? Ou quando nós, humanos, confiamos nelas para tomar tais decisões?

PUB • CONTINUE A LER A SEGUIR

Permita-me o leitor um exemplo. No último ano, uma empresa da Google (DeepMind) conseguiu a proeza de desenvolver uma inteligência artificial (IA) chamada AlphaGo, capaz de vencer o campeão mundial em título do milenar jogo Go.

Chamo-lhe proeza pelo simples facto desta vitória ter sido conseguida, não porque esta IA seguiu um conjunto bem definido de regras, mas porque ela própria as desenvolveu. Uma das principais surpresas no decorrer destes jogos foi o AlphaGo ter fugido das principais convenções e costumes do jogo, apenas para utilizar aquilo que achava mais adequado.

Saindo do plano tecnológico, há algo de novo neste tipo de inovação. Os engenheiros que desenvolveram esta IA não têm, em qualquer momento, noção de qual será o próximo passo da máquina. De certa forma, podemos dizer que este tipo de máquinas já tem uma mente própria. Hoje, falamos da aplicação destas mentes em jogos de tabuleiro, mas é uma questão de tempo para que estes sistemas estejam em todo o lado, a realizar as mais diversas atividades.

É então tempo de trazer a dimensão ética e moral para a mesa. Exploremos um exemplo com uma das inovações mais faladas da área: o desenvolvimento de carros autónomos, veículos que nos transportam sem necessitarem de qualquer input humano.

Os engenheiros que desenvolvem estes carros têm hoje uma posição na sociedade, a meu ver, muito diferente daqueles que desenvolveram os primeiros sistemas operativos. É imperativo que estes tenham um forte entendimento ético do impacto que as suas ações podem vir a ter.

Não tenhamos dúvidas: um carro autónomo terá ética, resta saber de quem. Quem queremos que esteja responsável pela distinção do que é certo ou errado? Devemos agregar de forma alargada, porém metódica, as opiniões da sociedade ou deixamos que um qualquer programador, com excesso de trabalho e em potencial atraso para um qualquer prazo, decida isto por nós?

Discutir conceitos de ética para máquinas é mais fácil que aplicá-los. Que teoria moral ou tradições é que passamos para estas máquinas? Como é que as premiamos ou penalizamos quando fazem uma boa ou má ação? E como é que as distinguimos?

Um dos principais dilemas éticos relacionados com o tema da IA leva-nos de volta aos carros autónomos. Suponhamos que existe um carro autónomo que, durante a sua viagem, é confrontado com uma situação inesperada, por exemplo uma criança atrás de uma bola, que se atravessa à frente do carro. O carro tem à sua disposição três escolhas:

  • mantém o seu rumo atual e, consequentemente, atropela fatalmente a criança;
  • desvia-se da criança mas, como consequência, acaba por atropelar também de forma letal um grupo de três cidadãos idosos.
  • ou ainda, voluntariamente, despista-se, causando a morte do próprio condutor.

O dilema é: qual é a opção mais ética a tomar? Não seria surpreendente que a grande maioria dos leitores escolhesse o menor dos dois males e mudasse o rumo do comboio. É uma perspectiva utilitária (muito ao estilo de Bentham e Mill), que procura a maximização do bem-estar comum.

Mas o que acontece se transmitirmos este tipo de ética para uma máquina? Poderá fazer sentido neste dilema — mas e noutros? Como garantimos que uma máquina entende a situação e toma uma decisão em vez de seguir (mais um) conjunto de regras?

Na mesma linha ética, uma IA poderá decidir sacrificar uma pessoa saudável em prol da salvação de outras cinco, que necessitam dos órgãos da primeira. Nesta situação, há uma maximização do bem-estar comum, mas será que é uma decisão ética?

Desenvolvendo esta ideia, é para mim claro que não podemos desenvolver inteligência artificial sem lhe passarmos os nossos próprios conceitos éticos e morais. Podemos discutir o conteúdo, mas tem de ser uma escolha nossa. É imperativo que as máquinas partilhem o mesmo conjunto de valores das pessoas que os desenvolveram.

Mais do que aplicar estruturas ou escolas de pensamento atuais, creio que podemos trabalhar para ajudar as máquinas a aprender como considerar e responder a diferentes tipos de situações, para chegar a uma decisão ética. Este é um processo similar ao dos humanos, em muito menor tempo, embora levante a questão de se os humanos são, de facto, a fonte certa para aprender e absorver o conceito de moral.

Se vamos codificar valores morais em sistemas complexos e inteligentes que coexistirão connosco, é fundamental ter e desenvolver uma discussão alargada com toda a sociedade sobre que valores comuns são estes. Bem sei que não existe um código único e universal para estes temas. Contudo, seria ingénuo deixar que essas decisões fossem apenas tomadas por empresas (Tesla, Apple, Google e outros) que estão, neste momento, a definir como é que sistemas inteligentes são criados e se comportam.

Resumindo e concluindo, tenho a certeza que estamos sobre o maior desenvolvimento tecnológico alguma vez vivido. Porém, não tenho dúvidas que conceder autonomia a estas máquinas nos trará implicações legais e morais. Quanto muito, pensar sobre como é que estas máquinas se devem comportar pode também, no limite, trazer de volta a conversa sobre como os humanos se devem comportar.

Não ignoro o potencial tecnológico que as próximas décadas nos podem trazer, mas estou muito mais curioso sobre o desenvolvimento sociológico desta crescente procura do Eu, do certo e do bem. É, possivelmente, o maior avanço para nos conhecermos melhor.

João Romão tem 29 anos e é o fundador da GetSocial.io, uma plataforma de análise de conteúdo em redes sociais que ajuda empresas como Adobe, Sky, MTV e Forbes a aumentar o seu tráfego orgânico, identificar conteúdo viral em tempo real e automatizar processos de distribuição de conteúdo. Além da temática das redes sociais, tem desenvolvido produtos e explorado ideias à volta dos temas do blockchain, futuro do trabalho e inteligência artificial.

O Observador associa-se aos Global Shapers Lisbon, comunidade do Fórum Económico Mundial para, semanalmente, discutir um tópico relevante da política nacional visto pelos olhos de um destes jovens líderes da sociedade portuguesa. Ao longo dos próximos meses, partilharão com os leitores a visão para o futuro do país, com base nas respetivas áreas de especialidade. O artigo representa, portanto, a opinião pessoal do autor enquadrada nos valores da Comunidade dos Global Shapers, ainda que de forma não vinculativa.