Vivemos num nirvana tecnológico. Hoje em dia, a Google oferece-nos informação ilimitada à distância de um clique e a Amazon a possibilidade de descarregarmos, instantaneamente, um livro. O Facebook permite que nos conectemos a velhos e a novos amigos, o Linkedin pode arranjar-nos um novo emprego e a Uber Eats permite-nos saborear a comida dos nossos restaurantes preferidos no conforto das nossas casas.

Isto é apenas o início. Em breve, carros autodirigidos reduzirão os milhões que morrem na estrada devido a falha humana e, na saúde, a biometria permitirá detetar precocemente sinais de uma doença, reduzindo, consideravelmente, o custo do tratamento quer para o doente quer para o contribuinte. Travar a inovação tecnológica é uma impossibilidade. As vantagens são demasiado atraentes.

Mas existe um lado negro nesta revolução tecnológica. Todos os dias, voluntária ou involuntariamente, abrimos mão de cada vez mais informação sobre nós. A maioria nem se apercebe da gravidade do problema. A gravidade do problema conduz-nos à inevitabilidade entre os benefícios da tecnologia e a nossa privacidade e libardade.

O Covid-19 tem mostrado este conflito muito claramente. Em países que estavam dispostos a utilizar os dados pessoais da população – como, por exemplo, Hong Kong, Singapura, Taiwan ou a Coreia do Sul, a subida da curva nunca foi muito acentuada, tendo estes países estabilizado a situação mais rapidamente. Não há dúvida que utilizando dados pessoais podemos tornar as políticas governamentais mais eficazes. Mas tudo isto tem um custo – a nossa privacidade e liberdade.

PUB • CONTINUE A LER A SEGUIR

Yuval Harari, autor dos best-sellers Sapiens, Homo Deus e 21 Lições para o Século XXI pinta claramente a possibilidade de um futuro distópico. Mostra que a disrupção tecnológica é uma das ameaças existenciais que a Humanidade enfrenta no século XXI. Se queremos sobreviver a este século, está na altura de lidarmos com isto de forma séria, concertada e de olhos bem abertos.

Tornámo-nos criaturas capazes de ser pirateadas. Hoje, a biotecnologia, aliada à tecnologia da informação, permite que um governo ou uma empresa me conheçam melhor do que eu me conheço a mim próprio. Um sistema que me conheça melhor do que eu é capaz de prever os meus sentimentos e as minhas decisões, manipular os meus sentimentos e as minhas decisões, bem como, em último caso, tomar decisões por mim.

A ligação entre inteligência artificial e biometria significa que nos tornaremos marionetas nas mãos das grandes empresas de tecnologia como o Facebook, a Google e outras. É fácil perceber como tudo isto pode transformar-se num problema grave para a democracia liberal e para o capitalismo.

A democracia e as economias de mercado, os pináculos gémeos do liberalismo, baseiam-se na ideia filosófica de livre arbítrio. Ideias como «o eleitor é que sabe» e «o cliente tem sempre razão» estão profundamente enraizadas nesta mundividência liberal. Ambas defendem que é o indivíduo quem tem autoridade máxima sobre o poder de exercer a sua liberdade de escolha.

Hoje sabemos que o livre arbítrio foi sempre uma ilusão. Ou melhor, os seres humanos têm vontade própria e tomam decisões, mas não são livres de escolher a sua vontade. As nossas escolhas são altamente influenciadas pela genética, pelas hormonas, pelo meio social, pela educação, pelas nossos convicções ideológicas e religiosas e por aí em diante, coisas que, definitivamente, não escolhemos. Basicamente, somos já uns algoritmos.  

Mas até hoje ninguém conseguia entender-me melhor do que eu. Com o casamento entre a tecnologia da informação e a biotecnologia, uma máquina, num futuro não muito longínquo, poderá perfeitamente conhecer-nos melhor do que nós nos conhecemos. E isto é uma situação completamente nova.

O eleitor pode “não saber melhor.” O cliente pode “não ter razão.”

A humanidade pode tomar más decisões. São eleitos maus governantes. Porém, as democracias liberais tiveram sempre uma grande vantagem sobre os outros regimes: se se tivessem cometido erros, estes poderiam ser facilmente corrigidos, sem violência, na altura das eleições. Mas porquê esperar pelas eleições? Por que não evitar o erro humano antes de este ser cometido? Teoricamente, podemos construir um algoritmo que saiba melhor do que nós quem é que nos devia liderar tornando, assim, as eleições irrelevantes.

O mesmo acontece com o capitalismo. O «laissez-faire», quando não regulamentado, sempre teve desvantagens. Ainda assim, com todos os seus defeitos, foi o sistema económico mais eficiente e produtivo de todos. A capacidade de processamento da informação de mercado amplamente maior permitiu-lhe superar todos os outros sistemas de planeamento central. Mas com o avanço da tecnologia e de big data, talvez um supercomputador possa, pelo menos em teoria, ser mais eficiente.

Jack Ma, fundador do Alibaba, disse, numa conferência, em 2017: “Ao longo dos últimos 100 anos acreditámos que a economia de mercado era o melhor de todos os sistemas mas, dado o acesso a todo o tipo de informação, é possível que encontremos a mão invisível do mercado». Encontrámo-la e direcionámo-la? Antecipámo-la? Desativámo-la? Não especificou.

Big data e uma maior tecnologia de processamento de informação conseguem ajudar os governantes a permanecer no poder. A tecnologia da informação não dará aos governantes apenas informação sobre o que as pessoas querem, mas também meios para manipular esses desejos.  Os algoritmos não só conseguem perceber os desejos dos eleitores mas e os algoritmos conseguem ajudá-los a realizá-los. A legitimidade que advêm de ser eleito pelo povo pode passar a ser irrelevante. Isto seria «1984» e «Admirável Mundo Novo» juntos num só cenário.

Mesmo conseguindo travar regimes totalitários, a tecnologia poderá na mesma minar a liberdade humana. As pessoas confiarão cada vez mais na inteligência artificial para tomar decisões por elas. Em última instância, a autoridade passará de nós para as máquinas. Talvez no futuro, e em nome da excelência, com quem casamos, onde trabalhamos ou se o Banco Central deve ou não ajustar as taxas de juro são decisões que deixarão de estar nas nossas mãos. Uma ideia tenebrosa…

Todavia, nós não estamos necessariamente condenados a uma vida de irrelevância e tirania. A tecnologia, por si só, não é determinista. Não leva, necessariamente, à tirania. Como Harari enfatizou, a sua função é traçar os vários cenários. Cabe-nos a nós escolher o caminho por onde seguir viagem. A revolução industrial fez nascer tanto as democracias liberais como o fascismo e o comunismo.

Também os algoritmos só podem fazer o que lhes dissermos. Na base estão objetivos e juízos de valor. Mas isto levanta outras questões. Quem decide quais devem ser estes objetivos e juízos de valor? E se os inputs estiverem errados? E se parecerem bons mas tiverem consequências inesperadas?

Até agora, as decisões mais importantes do mundo estão a ser tomadas por uma elite privilegiada em Silicon Valey que representa ninguém. É desconcertante, no mínimo, que decisões básicas e fundamentais que moldarão o futuro da humanidade e da própria vida envolvam apenas um pequeno grupo de engenheiros informáticos. Está na altura de a comunidade global acordar para isto e estabelecer regras globais de jogo no que respeita a regulamentação de privacidade e proteção de dados.

O professor de Oxford, Nick Bostrom, que inventou o termo «risco existencial», salientou que a única maneira de criar uma superinteligência segura é criar uma que partilhe dos nossos valores, que aprenda aquilo que valorizamos, com um sistema motivacional configurado para seguir esses mesmos valores. Mas o que são os “nossos” valores, quem somos “nós” e quem de “nós” decide? Um enorme “nós” elegeu Trump, partilhando os seus valores…

Tendo em conta o elevado risco, seria normal que mais pessoas estivessem preocupadas com isto. Por natureza, subestimamos o destino das gerações futuras. Permitir que uma inteligência artificial superpoderosa se apodere, lentamente, de nós, sem uma reflexão antecipada, poderá ser a decisão mais catastrófica da humanidade.

Covid-19, Technology and Democracy – How concerned should we be?

We are living in a technological nirvana. Today Google provides us with unlimited information at our fingertips and Amazon the ability to download a book instantaneously. Facebook allows us to connect to old and new friends; LinkedIn may find us a new job and Uber eats allows us to enjoy the food from our favourite restaurants from the comforts of our home.

This is only the beginning. Soon self-driving cars will reduce the millions that die on the road due to human error and in health, biometrics will enable early detection of signs of a disease, considerably reducing the cost of treatment to both the patient and the tax-payer. To stop technological innovation is an impossibility. The advantages are just too enticing.

There is, however, a dark side to this technological revolution. Every day we willingly and unwittingly give up more and more information about ourselves. Many of us don’t even acknowledge the depth of the problem. It raises questions of the inevitable trade-off between the benefits of technology and our very privacy and freedom.

Covid-19 has shown this trade-off quite clearly. In places that were more prepared to violate people’s personal data – the case of Hong Kong, Singapore, Taiwan and South Korea – the rise in new cases was never as high, or they got the situation under control quicker then other countries. There is no doubt that data can be used better inform government policies but at a cost to our privacy and freedom.

Yuval Harari in his bestselling books Homo Deus and 21 Lessons for the 21st Century paints quite the dystopian picture. We have become hackable creatures. Biotechnology, coupled with computing power and data, now allows a government or corporation or to know me better than I know myself. A system that knows me better than I know myself can both predict and manipulate my feelings and decisions. Ultimately it can make decisions for me.

The partnering of artificial intelligence and biometrics means that what we may become puppets in the hands of the big IT companies like Facebook, Google and others. One can see how this can become a serious problem for liberal democracy and its close relative, capitalism.

Democracy and market-based economies, the twin pinnacles of liberalism, are based on the philosophical idea of free will. The “voter knows best” and the “customer is always right” are two ideas deeply embedded in this liberal world view. Both assume that ultimate authority and agency lies with the individual and his/her ability to exercise free choice.

Free will was always an illusion. Humans have a will, they do make decisions, but they are not free to choose their will. Biology shows that our choices are highly influenced by genetics, hormones, social surroundings, education, dominant ideology and so forth, which we ultimately do not chose. We are, in effect, already a bundle of algorithms.

But up until now, no one could understand me better than myself. With the marriage of information technology and biotechnology, a machine in the not so distant future may very well know us better than we know ourselves. And this is a whole new game.

The voter may not know best. Humans can make bad decisions. Bad leaders are elected. Liberal democracies always had one huge advantage over other systems: if mistakes were made, they could be easily corrected without violence come election time. But why wait for elections? Why not just avoid human error before it is made. Theoretically we can construct an algorithm that can know better than we do who would be a better leader, making elections irrelevant.

The same goes for capitalism. The customer is not always right. Laissez-faire capitalism was always riddled with pitfalls if left unregulated. Yet for all its faults, it was still the most efficient and productive of all economic systems. The far greater information-processing capacity of the market allowed it to outperform any central-planning system. However, with the advancements in technology and big data, perhaps a super computer can, at least in theory, be more efficient.

Jack Ma, the father of Alibaba, once said at a conference in 2017: “Over the past 100 years, we have come to believe the market economy is the best system… but because of access to all kinds of data, we may be able to find the invisible hand of the market.” Find it and guide it? Anticipate it? Disable it? He did not specify.

Big data and more computing power can help those who govern perpetuate themselves in power. Not only can they divine what voters want, but algorithms can help them deliver it. Legitimacy derived from the people may no longer matter. IT won’t just provide rulers information on what people want, but also the means to manipulate those desires. This would be “1984” and “A Brave New World” all rolled up in one.

Even if we do manage to prevent total surveillance regimes, technology can still undermine human freedom. Humans will rely more and more on artificial intelligence to make decisions for them. Authority will ultimately shift from us to machines. Perhaps in the future and in the name of optimality who we marry, where we work or whether the Central bank adjusts interest rates, will be decisions that will no longer be in our hands. A sobering thought…

But we are not necessarily doomed to a life of irrelevance and tyranny. Technology in and of itself is not deterministic. As Harari pointed out, his job is to point to potential pitfalls. It is up to us to decide which road to travel on. The industrial revolution gave rise to liberal democracies as well as fascism and communism.

Algorithms can only do what we tell them to do. At their foundation lie objectives and value judgements. But this raises other questions. Who decides what these objectives and values should be? What if the inputs are wrong? What if they seem good but have unexpected consequences?

Until now, the most important decisions in the world are being taken by a privileged few in Silicon Valley, who represent nobody. It is disconcerting, in the very least, that bread and butter decisions that will shape the future of human kind and life itself involve only a few select software engineers. It is time the global community woke up to this fact and established global rules of the game, regarding data privacy and regulation, artificial intelligence, man-made hybrids and biotechnical enhancements, genetic manipulation and related advances.

Oxford professor Nick Bostrom, who coined the term “existential risk” observed that the only way to create a safe super intelligence is to create one that shares our values, whose mission is to learn what we value and whose motivation system is designed to pursue our values. But what are ‘our’ values, who are ‘we’ and who ‘decides’? A huge ‘we’ elected Trump, sharing his values.

Given that the stakes are so high, one would think more people would be concerned about this. We are, by nature, built to downplay the future and the fate of future generations. To allow an ever-powerful artificial intelligence to creep up on us without much thinking beforehand could be the most catastrophic decision mankind ever made.