He Jiankui é um biofísico chinês que se tornou conhecido no fim de 2018 por um crime ético que o levou 3 anos para a cadeia, recorrendo a uma técnica de edição de genética chamada CRISPR/Cas9. Quando foi descoberto, ele trabalhava em problemas de fertilidade relacionados com o HIV, aplicando a técnica em embriões humanos, tendo comunicado na sequência que duas gémeas, referenciadas como Lulu e Nana, tinham nascido nesse ano com genes resistentes ao HIV, apesar do pai ser seropositivo.

Do ponto de vista ético, consegue-se imaginar o problema. O ato foi condenado, não só pelas autoridades chinesas, como pela posteriormente laureada com o Nobel de 2020 Jennifer Doudna – a pioneira da técnica – por achar ser demasiado cedo. As críticas relativas à investigação em genética com a utilização de embriões humanos são abundantes e focam habitualmente no facto dos cientistas estarem a fazer o papel de Deus. E de alguma forma estão. No papel do Deus que salva vidas e não no papel do Deus que rouba vidas contra quem a humanidade luta há séculos. A verdade é que, não se sabendo quem é Lulu e Nana, ninguém foi perguntar aos pais se a vida das filhas respeita o Deus deles ou o Deus de quem as queria condenar a morte provável. Ética é uma coisa maçadora neste sentido. O facto é que em 2019 He Jiankui era considerado um dos mais influentes cientistas e o Nobel da Química de 2020 era dado a Doudna e Emmanuelle Charpentier e o CRISPR/Cas9, apenas 2 anos depois, era considerado dos maiores avanços para o tratamento de doenças do foro genético. Ainda assim, nada impede que centenas de “especialistas” em ética, moral, futurologia, e outros empecilhos históricos do género se pendurem na investigação para ganhar protagonismo.

Isto para falar da difícil conjugação da ciência com a normal e aporrinhada vidinha dos nossos dias que, de tempos a tempos, é incomodada com os enormes perigos do progresso científico que nos fará encarar amanhã um justiceiro vindo do futuro destruído por máquinas inteligentes, ou parvoíce do género. Para este ano, a moda não nos trouxe uma técnica genética capaz de salvar a vida de inúmeras meninas, mas algoritmos de inteligência artificial capaz de produzirem um texto coerente em resposta a uma pergunta de um ser humano.

Sempre que um desenvolvimento científico deste calibre surge, faz movimentar exércitos de rentistas cuja especialidade são os efeitos laterais que correm ao lado do tema central. Advogados em torno dos aspetos legais, economistas em torno dos impactos económicos, sociólogos em torno dos efeitos sociais, etc. Se alguém um dia se der à pachorra de perceber o número de pessoas que correm por estas faixas laterais comparado com o número de pessoas que de facto passam os dias num laboratório tornando a ciência útil ao ser humano, deve dar um rácio de 100 para 1. Não que não seja uma atividade perfeitamente lícita, mas compreenderão que a ignorância do tema fundamental os faz, na maior parte dos casos, discorrer sobre a plausibilidade, mais que sobre a realidade. Tal como eu fiz acima no caso do CRISPR/Cas9, do qual não percebo nada para além daquilo que escrevi e que o leitor aceitou como se eu editasse DNA desde pequenino.

PUB • CONTINUE A LER A SEGUIR

Aquilo que se passou com o sucesso popular do ChatGPT levou à construção de umas dezenas dessas faixas laterais onde a ética, a tragédia, a maravilha, a religião, etc. dão passos largos na tentativa de construção de anexos sem qualquer préstimo ao edifício central. Devo confessar que em nenhum vi réstia de conhecimento do que estava em causa, pelo que entendi escrever estas linhas para que, pelo menos, se perceba o que está em causa.

O cérebro humano não entende objetos que estão interligados. Ele foi contruído para entender um mundo em que cada ponto que está à nossa frente é independente do outro e fá-lo interligando os pontos para formar padrões por características comuns. É uma máquina de compressão de informação que pega numa infinidade de dados – os milhares de pontos diferentes e independentes que vemos – e reduz a uma quantidade muito pequena de padrões – círculos, pneus, rodas, carros, … E é muito eficiente nisso, passa um problema de uma infinidade de variáveis para duas ou três e, com isso, reduz o tempo de leitura daquilo que temos à frente dos nossos olhos para uma fração de segundo para, por exemplo, fugir ao bicho que nos quer comer.

Matematicamente, um mundo de pontos independentes é um mundo de dimensão inteira: 1 dimensão, 2 dimensões, 3 dimensões, … E é isso que o nosso cérebro, e atrás dele toda a matemática que desenvolvemos, consegue perceber. Por outro lado, um universo de pontos interligados pela natureza, é um universo de dimensão não-inteira – por exemplo 1,28 dimensões – e a incompreensão do leitor do que isto significa é um sintoma da incapacidade que temos para perceber esses universos. E não é só o leitor que não consegue compreender o que isso seja, é também quem escreve que não o consegue transmitir, porque não há forma de o fazer.

Sendo que somos incapazes de os perceber, a verdade é que podemos aprendê-los mais devagar. Por exemplo, a linguagem textual, que é um universo interligado, leva-nos durante uns anos para a escola para aprender as interligações das palavras. Quando precisamos de entender a interligação entre outros conceitos, passamos mais uns anos na escola para aprender outros universos para além da linguagem. E quando saímos da escola, aprendemos vários sistemas de pontos interligados, conjuntos de conceitos que se relacionam entre si. Mas, mesmo não sabendo exatamente como funcionam os mecanismos de aprendizagem, podemos com alguma certeza dizer que não basta aprender como as palavras se interligam para aprender como os outros conceitos se interligam.  Aquilo que tem valor, aquilo que entendemos como educação, é a aprendizagem que fizemos dos vários sistemas interligados, porque aquilo que não está interligado, o nosso cérebro (ou o de um cão) perceciona sem necessidade de escola.

O ChatGPT aprende ligações entre palavras. Só. Não entre conceitos, apenas entre palavras, coisa que sabemos pôr um computador a fazer há mais de 10 anos, mas sem esta quantidade de recursos que agora foi usada. Isto para dizer aquilo que já deve estar a imaginar, que as faixas laterais da ética, do drama e da tragédia que se montaram à volta da inteligência artificial não fazem sentido, como sempre acontece nestas situações.

Da maneira como explico acima poderá dar a sensação de que sabemos tudo sobre aprendizagem e como os pontos dos vários universos se ligam. Mas é longe da verdade. Como disse atrás, a matemática que temos depende em muito da forma como vemos o mundo, como este para nós tem as 3 dimensões onde andamos, as 2 dimensões no ecrã e 1 dimensão na linguagem textual (colocamos as palavras em linhas…). Começar a perceber como podemos atacar estes mundos interligados na prática tem muito mais valor científico do que uma máquina que nos escreve um texto “sozinha”.

O ChatGPT está a fazer de He Jiankui, apesar de ser apenas uma máquina que escreve palavra atrás de palavra porque aprendeu as interligações entre estas. As faixas laterais estão a encher-se de gente que, não entendendo o que está em causa, vai a correr inventar qualquer coisa plausível para daí tirar renda. No entanto, o ChatGPT é um exemplo de um tipo de modelo que nos vai levar a coisas muito mais interessantes que ligar palavras. Aliás, ligar palavras é a coisa mais desinteressante a fazer-se. Porque se a matemática que temos não serve para lidar com sistemas interligados, os modelos como o ChatGPT permitem-nos ultrapassar esse limite e entrar por vários domínios que, até há um par de anos, nos estavam vedados. Problemas que vão da Física fundamental ao estudo dos fenómenos económicos, da genética às finanças de alta frequência. Dezenas de problemas onde a matemática não nos deixava entrar com eficiência. O contributo para a inteligência artificial é importante? Na verdade, a parte da inteligência artificial que o ChatGPT usa já não é nova (na escala a que estas coisas evoluem). O ChatGPT é uma montra dos progressos feitos na última década, mas dificilmente o colocaríamos como um avanço disruptivo do ponto de vista científico. O seu valor vem da popularização da utilização de tecnologia.

À semelhança do CRISPR/Cas9 e de todos os avanços científicos, devemos sempre desconfiar do pessoal que corre pelas faixas laterais. Os “enormes perigos” do progresso científico, sendo coisa que nos pode divertir nos filmes da tarde, são muito mais uma questão de ignorância natural do que de inteligência artificial. Independentemente do facto de quem corre nessas faixas ser um fundador, um criador, um nome incontornável; personagem que sempre aparece agarrado a uma autoridade perdida e a uma fama incompreendida pelos jornalistas. Uma coisa que pode usar como regra nesta fase é que o conhecimento de alguém do assunto é inversamente proporcional ao nível de catástrofe que desenha com base nele.