Muito se tem escrito acerca dos méritos e potenciais impactos da inteligência artificial. Quando confrontados com o desconhecido, tendemos a exagerar o medo ou a esperança, conforme dite o otimismo de cada um. Sem conhecimento que permita o sentido crítico, ficamos à mercê da opinião mais ruidosa, mesmo que incorreta. Creio que está errado quem defende que estamos perto do momento em que a inteligência das máquinas supere a dos humanos.
De desconhecido a ameaça para a humanidade, o ChatGPT tomou o mundo de assalto. Ouvimos previsões de que substituirá médicos, professores, advogados, escritores, enquanto outros garantem que apenas os tornará mais eficientes. Lemos quem exalte o progresso, mas também quem adivinhe o fim da civilização.
Para percebermos o verdadeiro impacto desta nova tecnologia, importa perceber o que é e como funciona. O ChatGPT é um sistema baseado nos chamados Grandes Modelos de Linguagem (Large Language Models, LLM). Estes sistemas são expostos a enormes volumes de texto para que aprendam a produzir texto. Melhor dizendo, são treinados para produzir texto semelhante ao texto que lhes foi dado como referência. O mecanismo mais simples para o fazer é ensinar o modelo a completar uma sequência de palavras, escolhendo aquela que for mais provável. Ao “ler” grandes quantidades de texto, o modelo será capaz de dizer que a sequência “Este fim-de-semana fui a…” terá “Lisboa”, “Viseu” ou “Faro” como palavras prováveis seguintes, mas não as palavras “batata”, “automóvel”, “zebra”. Não quer isto dizer que o modelo entenda que se pode “ir a” cidades mas não a alimentos, transportes ou animais. Quer apenas dizer que, estatisticamente, certas sequências de palavras são mais frequentes do que outras.
É verdadeiramente surpreendente que um sistema aparentemente tão simples, um sistema que prevê a próxima palavra, possa ser transformado em algo tão poderoso como o ChatGPT. É capaz de produzir respostas complexas, credíveis e muitas vezes verdadeiras. Faz rimas e reescreve textos ao estilo de artistas. Consegue fazer sumários de grandes quantidades de texto, consegue escrever emails a partir de um conjunto de ideias simples e consegue até programar a partir de uma descrição da funcionalidade desejada. É, sem dúvida, um sistema revolucionário que transformará a forma como trabalhamos.
Contudo, estes feitos (inegavelmente impressionantes) levaram a que alguns declarassem a chegada de uma Inteligência Artificial Geral, ou seja, um sistema que consegue resolver qualquer tarefa que um humano competente tenha capacidade de desempenhar. Não encontro evidência que suporte esta conclusão.
Há inúmeros exemplos de como o ChatGPT falha em aritmética simples. Falha em raciocínios lógicos triviais para qualquer criança. Talvez mais grave, por vezes inventa referências, acontecimentos ou fontes. Tais erros não surpreendem. O sistema foi treinado para produzir uma resposta plausível e não para raciocinar de forma a chegar à resposta correta. Esta subtil diferença entre produzir uma resposta credível e efetivamente responder a verdade tem dividido a comunidade científica: será este comportamento diferente do dos humanos?
Há uma importante distinção entre o modo como operam estes sistemas e a forma como entendemos o mundo. Ainda que influenciados pela linguagem, que tem impacto na forma como pensamos, o nosso raciocínio não se resume a produzir palavras. Sabemos que a linguagem é apenas um reflexo da realidade. Através da experiência, vamos construindo modelos mentais de como o mundo funciona, mesmo que inconscientemente. Ao ver que uma maçã cai se for largada, postulamos a existência de uma força que atrai tudo para o centro da terra. Isto permite que façamos previsões, que podem ou não ser verificadas, avançando o nosso conhecimento do mundo. Ora, se um modelo de linguagem faz um complexo “corte e costura” de texto a que foi exposto, não poderá fazer novas previsões. Ou seja, não poderá avançar o nosso conhecimento, não poderá fazer ciência. Só com novas abordagens e arquiteturas deveremos conseguir alterar esta realidade.
Poderemos alegar que é uma limitação sem importância: mesmo que não possa avançar o nosso conhecimento, poderá democratizar o conhecimento existente. Seria verdade, se não ignorasse um grave problema: ser capaz de gerar texto credível quer também dizer que será capaz de gerar mentiras.
Aquilo que nos faz aceitar ou rejeitar uma afirmação, numa tentativa de distinguir a verdade da mentira, é a compatibilidade entre uma determinada alegação e o nosso modelo mental da realidade. Ora, se o ChatGPT não possui este modelo de realidade, será incapaz de saber o que é verdade. Será apenas capaz de gerar uma resposta que pareça aceitável, baseada em tudo o que foi escrito na internet. Não será difícil perceber o quão problemática é esta limitação.
Dirão os críticos que tal limitação desaparecerá com futuras evoluções dos modelos GPT. Se fizermos modelos ainda maiores, treinados com mais texto, produziremos ainda melhores respostas. No entanto, continuaremos sem incorporar ferramentas de raciocínio. Sem raciocínio, não haverá forma de determinar a veracidade de uma afirmação. Sem forma de garantir a verdade, não podemos confiar nestes sistemas para tarefas críticas.
Por maiores que sejam os potenciais benefícios dos grandes modelos de linguagem, os riscos são, pelo menos, de igual magnitude. Um sistema que produza bom texto será um sistema muito persuasivo. Com um custo de utilização tão baixo, estamos a baixar dramaticamente o custo da produção de desinformação. Se hoje já sofremos as consequências nas nossas democracias da existência de desinformação baseada em “fábricas humanas”, o que acontecerá neste novo mundo da industrialização da desinformação? Que consequência terá na confiança dos cidadãos na informação?
Otimistas ou pessimistas, sabemos que a revolução da inteligência artificial está à nossa porta. Experimentaremos uma democratização de conhecimento, mas também de desinformação. Viveremos um aumento de produtividade, mas também de mudança profunda de muitas profissões. Provavelmente não chegámos ainda à inteligência que nos pode ajudar com os grandes desafios da humanidade que estão por resolver. Não sabemos prever que impacto terá esta aproximação à inteligência artificial, mas sabemos que será grande. Não podemos saber como será a sociedade depois desta transformação, mas sabemos que estaremos tanto melhor quanto mais conhecermos e dominarmos a tecnologia, para que possamos pô-la ao serviço de todos. Oxalá sejamos capazes de investir no conhecimento, para que assim seja.
Engenheiro, especialista em Inteligência Artificial
‘Caderno de Apontamentos’ é uma coluna que discute temas relacionados com a Educação, através de um autor convidado.