Quase escondida entre as notícias relativas a dezenas de tecnologias que reclamam ser o futuro e entre os pequenos escândalos da nossa pequena sociedade, uma singela e quase irrelevante nota apareceu nas ultimas semanas. “NASA usa inteligência artificial da Google para encontrar Sistema Solar com 8 planetas, o maior alguma vez visto”. Compreende-se o porquê da pequena importância dada à notícia. Felizmente, a descoberta de planetas fora do sistema solar começa a ser vista como uma coisa corriqueira e, aos poucos, as pessoas veem a inteligência artificial (gosto mais de aprendizagem mecânica) como algo de adquirido. Referido en passan, está o facto de se ter usado um computador quântico de apenas 512 qubits. E este apenas sinaliza, talvez, a maior revolução tecnológica dos próximos tempos que terá consequências em todos os níveis da nossa sociedade, principalmente na educação, mas também na informática, nas comunicações e, consequentemente, em tudo o que hoje depende disto. Ou seja, a economia inteira.
A expressão quântica é tão usada nos nossos dias para todo o tipo de trambiquice e maluqueira que já a damos como perdida. Desde as pulseiras quânticas aos medicamentos homeopáticos miraculosos com propriedades quânticas, o que não faltam por aí são especialistas quânticos. Na sua vertente séria, a mecânica quântica é o enquadramento teórico mais bem-sucedido de toda a história da ciência, sem a qual a nossa vida moderna teria existido. No início do século XX, quando se tentava explicar alguns fenómenos físicos resultantes da natureza atómica da matéria (algo muito na ordem do dia na altura) chegou-se à conclusão que não era possível explicar o comportamento das partículas se assumíssemos que as suas propriedades, como a velocidade e a posição, estavam perfeitamente determinadas. Aquelas tinham que ter as suas propriedades não definidas, isto é, estarem simultaneamente em todos os valores possíveis com um dado valor de probabilidade para cada um e, quando medirmos, assumirem um dos valores com essa probabilidade. É complicado, mas isto é o que, ao longo dos tempos, foi sendo popularizado pela história do gato de Schrodinger, que estava dentro de uma caixa, vivo e morto ao mesmo tempo. Este carácter probabilístico da natureza é tão contra-intuitivo que Einstein, o homem que levantou a hipótese e demonstrou que muitos fenómenos seriam explicados desta forma, não acreditava na amplitude da sua própria descoberta ao ponto de dizer a Niels Bohr, o imortal físico dinamarquês que é o verdadeiro pai da coisa, “Deus não joga aos dados”, uma das mais famosas tiradas do génio alemão.
Para termos noção da dimensão da importância disto, há uns dias lia a notícia que 30% (francamente, acho que é muito mais) de toda a nossa vida pode ser, de alguma forma, ligada a Niels Bohr, tal a importância que a mecânica quântica tem na nossa vida, incluindo a vida profissional deste vosso criado, os componentes do computador com que foi escrito este texto, a forma como está a chegar até si e o écran onde está a ler. Este ato, liga-se 100% a Bohr. Mas esse enquadramento teórico foi usado até hoje, no tema que nos interessa, na construção daquilo que se chama de computação clássica. Na computação clássica, aquilo que foi feito, sem entrar nos detalhes tecnológicos propriamente ditos, foi construir caixas onde se pudesse dizer que a caixa tinha um de dois estados: 1 ou 0 (zero). E conseguia fazer-se isto de várias formas, mas uma foi particularmente útil, que foi usando semicondutores (outro produto da mecânica quântica) para alterar as suas propriedades elétricas de forma a que pudéssemos chamar 1 a um estado e 0 a outro. A partir daí era só juntar caixas. E basicamente é isto que tem sido feito desde que se fez o primeiro computador até esse inimaginável (na altura) maquinão que tem hoje na mão. Essa caixa, chamamos de bit e o seu computador trata de milhares de milhões deles ao mesmo tempo, quando na década em que nasci se andavam a preocupar como juntar pouco mais de 1000.
Mas já alguns anos se sabe que se conseguíssemos tratar cada caixa, não como um 1 ou um 0, mas como uma composição probabilística de 1 ou 0 (gato morto, gato vivo) o poder computacional iria crescer em muito derivado de em vez de termos dois níveis, teríamos um contínuo. Em vez de sim ou não, seria tudo talvez. Isto tinha um grande problema técnico para se resolver, cada caixa – chamada de qubit – teria que ser um sistema quântico em si mesmo. Não que não se conheçam vários sistemas destes ou sejam raros. Não são. Qualquer eletrão, átomo, núcleo atómico cumpre com esse requisito. O problema está em isolá-lo de forma a ser controlável. E tão complicada é esta tarefa que a ideia tem sido uma espécie de Santo Graal da computação. Durante anos temo-nos preparado para a eventualidade de um dia ser possível porque o proveito no fim da linha é enorme, incluindo o paralelismo quântico, a capacidade que um computador deste tipo teria de calcular uma função num único qubit. Sabemos, por exemplo, que 500 qubits a funcionar ligados corresponde a ter mais cálculos simultâneos que átomos no universo! O que tornava qualquer um dos nossos computadores tão inteligentes como um martelo. Como poderíamos ignorar isto? Por isso, muitos de nós estudaram, e continuamos a estudar, computação quântica sem sabermos se um dia a poderíamos de facto aplicar. E talvez, sabendo isto, entendam porque me comporto como um incréu das “tecnologias do futuro” que se reclamam como tal.
Daí que esse ponto da notícia em que falava de 512 qubits pareceu-me algo exagerado. Mas lendo o artigo dos autores consegue-se entender que têm vários blocos ligados 6 a 6, o que ainda não é um computador quântico em todo o seu esplendor, mas já é muito interessante. E ainda tem uma pequena questão prática que é ter que ser arrefecido próximo do zero absoluto (-273,15 graus centígrados). Mas, para as operações que estão em causa, que descrevemos abaixo, é 100 milhões de vezes mais rápido que um computador clássico. Estamos mesmo a chegar muito perto e é hora de nos começarmos a preparar para tal. Nós, humanos e, principalmente, nós que diariamente lidamos com problemas de ciência de dados, aprendizagem mecânica e otimização de sistemas.
O problema resolvido neste episódio é, aliás, um monumento à inteligência humana. Os sistemas de aprendizagem mecânica são conjugações de componentes matemáticos relativamente complicados de explicar num texto desta natureza, mas vamos fazer um esforço. As chamadas redes neuronais são sistemas que tentam mimetizar o cérebro humano e são compostas por elementos fundamentais chamados de perceptrões. Cada perceptrão tem, no seu interior, um processo de otimização e este é, grosso modo, um objeto matemático que tenta achar uma solução a um problema que pode ter muitas soluções, sendo que há, tipicamente, uma melhor que as outras todas, a chamada solução ótima. Quando os perceptrões chegam à solução que liga os dados de entrada aos resultados finais, assume-se que a máquina aprendeu.
A natureza formou vários processos de otimização, como a própria evolução das espécies (de onde saíram os algoritmos genéticos) ou, no caso que estamos a falar, a têmpera do aço. Quanto mais variáveis temos no problema, mais aberto é o problema e mais complicado é de resolver e há um velho dito entre quem o faz que é “para chegar à solução temos que lá chegar” ou seja, temos que experimentar tudo até perceber que aquela é mesmo a melhor solução. Por isso, a capacidade de experimentar muito é importante.
Com a têmpera do aço, por exemplo, aquecemos e arrefecemos o aço várias vezes. O que acontece é que o ferro, microscopicamente, é um cubo com um átomo em cada vértice e é um metal muito mole. Mas se tiver um átomo de carbono no interior do cubo, como uma bola numa caixa, o metal ganha as propriedades que conhecemos ao aço. É por isso que aquecemos e arrefecemos o aço, para que os átomos de carbono vão ocupando os seus lugares no interior dos cubos de ferro. Eis que alguém um dia resolveu imitar este processo para resolver problemas de otimização num computador e, surpresa, mostrou-se um processo fantástico, mas, infelizmente, torna-se demorado quando temos muitas variáveis. Por isso, se tivermos uma rede neuronal com muitos perceptrões, não dá jeito nenhum usar este processo – chamado de têmpera simulada – em cada um deles, porque o processo de aprendizagem se torna tão lento que é irrealizável. Mas se tivermos o poder de computação de um computador quântico onde podemos resolver uma função em cada qubit, então estamos noutro campeonato completamente diferente e é isto que a NASA e a Google estão a fazer com os dados recolhidos de sistemas planetários remotos. E com isto, detetam subtilezas nos dados que não seriam possíveis com sistemas clássicos ou levariam anos a processar.
Até aqui, acho que já consegui transmitir o carácter revolucionário da coisa em termos tecnológicos. Tudo isto é, não só de uma beleza astronómica, como nos faz pensar num mundo de amanhã completamente diferente daquele que é hoje. Mas há desafios mais básicos do que resolver a questão do detalhe do arrefecimento. Toda a lógica, toda a matemática que ensinamos nas escolas, toda a intuição humana e capacidade de abstração tem que acompanhar o que aí vem. Desde a minha geração até aos que agora estão a entrar no sistema educativo, todos fomos e seremos sujeitos aos ensinamentos que se adaptam aos computadores clássicos. Todos os programadores deste mundo durante muitos anos e, se calhar, muitos dos que virão, terão o raciocínio formatado pela algoritmia da computação clássica. Para mim não é líquido, por exemplo, que os anos de formação que hoje damos aos nossos filhos desde a primária ao superior sejam suficientes para esse mundo que aí vem, nem que a matemática que temos hoje seja suficiente para as oportunidades que surgirão. Mas uma verdadeira revolução tecnológica é isto, feita de ameaças e oportunidades, com os dominadores do futuro a serem aqueles que melhor lerem as necessidades do que aí vem. A Google, a NASA e a D- Wave (empresa que produziu o computador) parecem-me estar a ler muito bem.
PhD em Física, Co-Fundador e Partner da Closer