Inteligência artificial é material de sonhos e pesadelos, promessas e ameaças, euforias e terrores. A ética, porém, não trata dessas coisas; ocupa-se apenas de atos, comportamentos e intenções. Não interessam medos e previsões, mas impactos específicos de utilizações reais.

Para fazer análise moral neste estranho campo é preciso, antes de mais, assegurar que ética é sempre e só humana. Animais e máquinas estão abaixo dela, como Deus, anjos e demónios estão acima. Assim não existe ética da inteligência artificial propriamente dita, mas ética das pessoas que concebem, usam ou são afetadas pela inteligência artificial. Este ponto é ainda mais profundo: hoje, a única inteligência que existe é natural. Sistemas eletrónicos realmente conscientes e autónomos ainda são, e provavelmente serão sempre, ficção científica, algo alheio à ética. Não existe inteligência artificial, mas simulação de inteligência ou, melhor, «inteligência assistida», pois a única mente envolvida é a das pessoas que a constroem e utilizam, recebendo suporte eletrónico nas suas decisões.

Deste modo, são eliminadas da análise emoções, especulações e ilusões, que as máquinas ignoram e que também devem ser alheias à justiça cega. Esta realidade tem sido distorcida por episódios de confronto homem-máquina, como Kasparov-Deep Blue, em 1997, ou Sedol-AlphaGo, em 2016. Esses desafios são tão tolos como tentar correr mais rápido que um automóvel. Razoável é usar, não desafiar, o carro. Afinal é para isso que as máquinas são criadas.

Deste modo, a verdadeira realidade da inteligência artificial é ser, sempre e só, instrumento. E a ética instrumental é antiga, clara e simples. Para garantir um uso moral da ferramenta é preciso assegurar a elevação da finalidade, a adequação do uso ao propósito e o valor das circunstâncias de utilização. As questões são aqui paralelas às de qualquer outra forma de tecnologia. Quem buscar fins maus, com meios errados ou em situações inconvenientes fará mal, esteja a usar um machado, alto-forno ou computador.

Existem, porém, especificidades neste utensílio particular, pois quando falamos de inteligência artificial existe, implícita, uma atribuição de responsabilidades a uma entidade que realmente não as pode assumir. Como se disse, as máquinas, por espantosas que sejam, estão sempre abaixo da ética. Aqui, portanto, o princípio decisivo tem de ser o “controle humano significativo” (meaningful human control), originalmente concebido para as chamadas armas autónomas, mas igualmente aplicável a todas as formas de deep-learning, big data, pattern recognition, etc, etc.

Nenhum operador pode, em qualquer caso, deitar as culpas para a máquina, pelo que a condução, em última análise, tem de ser sempre sua. Se, por exemplo, ao usar um programa de redes neuronais, o analista admite não saber o que o computador está a fazer, assume uma responsabilidade implícita e cega acerca dos resultados. Se a atividade é jogar xadrez, estudar consumidores ou reconhecer voz, a ignorância não é grave. Mas se está em causa avaliar candidatos, guiar um carro ou investir por clientes, a questão muda de figura. Aí não se pode invocar a complexidade e qualidade da programação para calar eventuais queixas.

A ética da inteligência artificial é, felizmente, muito mais simples e acessível que os programas que a compõem. É preciso afastar mitos, arrogâncias e confusões, afirmando, aqui como sempre, os princípios da benevolência, seriedade e justiça, não de forma artificial, mas real.