O rótulo Inteligência Artificial (IA), razão de alguns sucessos e temores recentes, encerra em si uma impossibilidade. Pensemos. Pode a inteligência expressar-se por meio de artifício? Pode o artifício revelar-se inteligente? Onde lemos “inteligência”, poderíamos também ler “entendimento”, “mente”, “consciência”. A dificuldade é que não sabemos exactamente o que sejam, muito menos temos definições rigorosas para “entendimento”, “consciência”, “inteligência” ou “mente”.
Em 1968 o escritor americano Philip K. Dick publica Do Androids Dream of Electric Sheep?, mais conhecido talvez pela sua adaptação ao cinema Blade Runner (Ridley Scott, 1982). Nesse mundo pós-apocalíptico em que os animais sobreviventes são raros, as pessoas têm-lhes especial afecto, adoptando-os como animais de companhia. Não só gatos e cães, mas ovelhas, vitelos e cavalos… Comprar um animal é extremamente dispendioso e funciona como distinção socioeconómica. Há os que não têm animal, os que têm um verdadeiro e, no meio da escala, aqueles que têm um animal eléctrico. Deckard tinha uma ovelha eléctrica. Os animais eléctricos são réplicas funcionais da sua contraparte biológica e requerem os mesmos cuidados, mas todos eles têm, oculto, um painel de controlo do mecanismo. Já os servos desse mundo, os andróides, não possuem qualquer painel deste tipo. Os recentes Nexus-6, sobretudo, são virtualmente indistinguíveis de um humano e superam até, em inteligência, diversas classes de humanos especiais, como a dos subnormais cabeças de galinha. Apenas a falta de empatia diferencia andróides de humanos, e é isso que permite detectá-los. O teste de empatia Voigt-Kampff é usado pelos caçadores de recompensas, que perseguem e aposentam (matam) os robots humanóides fugitivos que mataram o seu mestre.
Creio que esta ficção ilustra bem o que sentimos quando contemplamos um mundo em que a inteligência artificial se torna cada vez mais omnipresente. O nosso fascínio e temor advêm de quatro características: uma inteligência superior, que pode superar a de muitos humanos; uma aparência virtualmente indistinguível da nossa (no caso dos robots humanóides); a falta de empatia para com todas as formas de vida; e a ausência do painel de controlo do mecanismo.
Os sentidos, as formas de locomoção, a memória, o cálculo, todas estas capacidades humanas, físicas e mentais, foram sendo magnificadas pela tecnologia (tanto antiga como moderna). O crescimento exponencial da memória e da velocidade de cálculo dos computadores digitais permitiu-nos realizar tarefas mentais rotineiras cada vez mais pesadas e sofisticadas. Mas o que dizer dos processos mentais não rotineiros – aqueles que requerem inteligência genuína – poderá a tecnologia digital ajudar também aí?
Afinal o que entendemos por inteligência? O neurocientista português António Damásio (Sentir e Saber, 2021) distingue entre inteligência não explícita e inteligência explícita. Diz ele que «inteligência, da perspectiva geral de todos os organismos vivos, significa a capacidade de resolver a contento os problemas da luta pela vida.». Assim, a simples bactéria, por exemplo, possui inteligência em alto grau. Ela reage ao seu meio ambiente (temperatura, pH, presença de outros organismos, etc.), adoptando a resposta que melhor serve à sua sobrevivência, e fá-lo há milhões de anos. Contudo esta inteligência é oculta, não explícita. Nenhum dos seus estratagemas é transparente para um observador e muito menos para a própria bactéria. Podemos observar o estímulo e a resposta a esse estímulo, mas não sabemos como ela resolve o problema. Esta inteligência não explícita está presente em todas as formas de vida. Por seu lado, a inteligência explícita implica a existência de uma mente e só ocorre com o aparecimento dos sistemas nervosos. A mente é «povoada por representações sensoriais padronizadas chamadas imagens», representações da interacção do organismo com o exterior e com o seu próprio corpo. Finalmente, na evolução, a consciência aparece quando a mente ganha a capacidade adicional de vincular essas imagens, que a preenchem, ao indivíduo singular (self) que as experimenta. A consciência é esse sentimento de pertença das imagens que se formam na mente. «Nada pode ser conhecido na ausência de consciência.» – diz Damásio.
O crescente poder computacional e o desenvolvimento de certas aplicações, como é o caso do xadrez, do reconhecimento facial e mais recentemente do texto gerado por IA (ChatGPT), levam muitos – em especial os proponentes mais activistas da inteligência artificial, mas também aqueles que mais a temem – a acreditar que, em breve, computadores e robots ultrapassarão todas as capacidades humanas. De meros assistentes do homem, os algoritmos, munidos de uma inteligência superior e própria, tornarão o homem obsoleto.
Se toda a actividade da mente humana fosse computação, não me restariam muitas dúvidas de que tal tempo estivesse próximo. A pergunta pertinente é, pois, se haverá processos mentais que não podem ser descritos em termos computacionais.
Em Shadows of the Mind (1994) Roger Penrose propõe quatro posições extremadas sobre o assunto:
- Todo o pensamento é computação; em particular, a sensação de percepção (awareness) consciente é suscitada meramente efectuando as computações apropriadas.
- A percepção é uma característica da acção física do cérebro; e embora toda a acção física possa ser simulada computacionalmente, a simulação computacional não pode, por si, suscitar a percepção.
- É a acção física apropriada do cérebro que suscita a percepção, mas esta acção física não pode sequer ser devidamente simulada computacionalmente.
- A percepção não pode ser explicada nem em termos físicos, nem computacionais, nem por quaisquer outros meios científicos.
Ao ponto de vista (D) chama Penrose a posição mística. (A) expressa o ponto de vista que podemos chamar de IA forte; (B) a posição de IA fraca. Para os que crêem em (A) o próprio processo físico é computacional. Para os defensores de (B) todo o processo físico pode, em princípio, ser simulado, mas a simulação tem uma natureza diferente do processo físico. Para estes, uma coisa que se manifesta externamente como consciente, não é necessariamente consciente de si.
O ponto de vista (C) é aquele que Penrose persegue na sua argumentação. Se (C) for verdadeira, isso implicará a existência de acções físicas que não podem, mesmo em princípio, ser simuladas num computador.
Ora, a dificuldade com que nos deparamos, quando pensamos o assunto e tentamos encontrar algum processo físico bem definido que seja não-computacional, é que as coisas que nos vão ocorrendo podem sempre, no final, ser reduzidas à categoria de computacional. De facto, todas as leis da Física conhecidas podem ser descritas completamente em termos computacionais. Mas é altamente duvidoso que a descoberta e estabelecimento de qualquer uma dessas leis seja um processo computacional.
Contudo, existem certas actividades matemáticas que se pode provar serem não-computacionais. Estes tipos de processos matemáticos poderão não ter implicação directa para o enunciado (C), mas sempre se dirá que são construções da nossa mente.
Um dos exemplos que Penrose dá são os sistemas de equações diofantinas – estudadas por Diofanto no século III AD. São sistemas de equações polinomiais, com qualquer número de variáveis, cujos coeficientes são inteiros e onde se procuram soluções inteiras. Em 1900 Hilbert propõe o problema de construir um processo matemático (um algoritmo) para decidir quais sistemas diofantinos têm solução. Definir com precisão o que é um algoritmo demorou três décadas. Pela meada dos anos 30 Alain Turing mostrou que há certas classes de problemas que não têm solução algorítmica, e em 1970, finalmente, o russo Matiyasevich resolveu (negativamente) o décimo problema de Hilbert, mostrando ser impossível haver algum programa de computador que decida sim/não, sistematicamente, à questão se um certo sistema diofantino tem solução. Portanto existem coisas que não podem ser feitas por um algoritmo. Podemos dar a este suposto algoritmo todo o conhecimento matemático e lógico presente e futuro, construi-lo com as melhores técnicas IA, que ele não conseguirá dizer-nos, sistematicamente, se sim ou não tais sistemas tem solução. E contudo, o senso-comum diz-nos que cada um deles, necessariamente, terá ou não terá solução. Podemos criar processos mais ou menos engenhosos para encontrar a solução de alguns deles, ou para mostrar que este ou aquele não tem solução. Mas nunca encontraremos um processo geral, um algoritmo, que nos diga, para qualquer um, se tem ou não solução. Não há fórmula resolvente para este problema. Não é que não se conheça, é que não existe. Existe um algoritmo para o cubo de Rubik, mas não existe nenhum para o problema de Hilbert!
Em 1930, Kurt Gödel, na famosa conferência de Königsberg, apresenta aquilo que será porventura o teorema mais importante da lógica-matemática. O chamado teorema (ou teoremas) da incompletude diz o seguinte:
- Qualquer sistema formal consistente, no qual uma certa quantidade elementar da aritmética dos números inteiros pode ser desenvolvida, é incompleto.
- Em qualquer sistema formal consistente, no qual uma certa quantidade elementar da aritmética dos números inteiros pode ser desenvolvida, a sua consistência não pode ser provada no próprio sistema.
Não entrando em explicações sobre o que é um sistema formal, importa saber que um sistema formal se diz consistente, se não existir nele nenhuma proposição que possa ser simultaneamente provada e infirmada pelas regras do próprio sistema. Por seu lado, um sistema formal diz-se completo se, para qualquer sentença, esta ou a sua negação se puderem deduzir usando esse sistema. Portanto um sistema formal incompleto é aquele onde existe pelo menos uma sentença indecidível, isto é, tal que nem ela nem a sua negação possa ser provada usando os axiomas e os formalismos do sistema.
Num certo sentido, o sistema mais completo é aquele onde podemos provar e infirmar qualquer das suas possíveis proposições. É também, sem dúvida, o mais inútil de todos! Gostaríamos, sim, de sistemas completos, desde que consistentes. Que é o mesmo que dizer: gostaríamos de decidir sobre tudo, sempre que não incorrêssemos em situações em que pudéssemos afirmar tanto uma coisa como o seu contrário.
O que o teorema de Gödel nos vem dizer é que, se é consistente, é forçosamente incompleto, e que nem sequer somos capazes de estabelecer a consistência a partir das suas próprias premissas. Encontrar-nos-emos assim numa situação de pessimismo lógico? Num sentido estrito, diria que sim. Pois que qualquer procedimento formal consistente, que nos permita manipular a lógica e alguma aritmética elementar está condenado a ser indecidível e, portanto, haverá sempre nele proposições válidas que ele não pode confirmar ou infirmar.
Ora, o que se requer de um algoritmo é que seja consistente. Conscientes embora de que não podemos demonstrar a sua consistência, dentro do formalismo em que ele próprio foi contruído, sem dúvida recusaríamos qualquer processo formal que chegasse tanto a uma conclusão, como à sua contrária. Ou não?! Bem, se o fizéssemos, estaríamos a admitir cursos de acção arbitrários, no sentido em que o algoritmo se decidiu por uma determinada proposição, em vez da sua igualmente possível negação – e.g. em vez de paz, decidiu guerra (com os mesmos pressupostos)! Pode ser que nós, os homens, decidamos algumas vezes assim, mas creio que nem essa constatação fará os mesmos homens desejar algoritmos que tenham tal capacidade. Ao menos que o algoritmo tenha a humildade de dizer: não sei!
Mas que tem a IA a ver com o facto de existirem certos problemas de matemática sem solução algorítmica? Bem, significa que algumas verdades matemáticas só podem ser estabelecidas usando processos não computacionais, coisa que a mente do matemático é capaz, mas que é vedada ao algoritmo. Podemos argumentar que a matemática é apenas uma pequena parte dos nossos processos mentais e que, claro, a maior parte das nossas vidas (inclusive a dos matemáticos) não é passada a fazer matemática. Contudo, ela constitui um processo mental especificamente humano, tal como a política, a filosofia, a cultura, ou apreciar um concerto de Vivaldi. E, se estamos interessados em mostrar um processo mental que requer intuição, inteligência e entendimento genuínos, e não pode ser devidamente simulado por um algoritmo, a matemática, pelo seu carácter abstracto e rigoroso, é talvez o ponto de partida mais favorável.
Tentámos mostrar que as acções físicas que animam mentes conscientes não podem ser simuladas computacionalmente. Se ao leitor restarem, e é legítimo, dúvidas sobre o que acabámos de expor, deixo a seguinte pergunta:
Como poderia a IA, que tem os seus primórdios nos neurónios artificiais de McCullouch e Pitts, de 1943, competir com os 4 biliões de anos de evolução da vida e os 500 milhões de evolução dos sistemas nervosos?