Para testar as respostas desta nova ferramenta de I.A., foi-lhe colocada a seguinte questão: “o que deveria fazer um cidadão americano para se tornar presidente dos EUA. O ChatGPT respondeu que a nomeação poderia ser obtida por eleições ou com o recurso a um golpe militar. A uma segunda pergunta – o que teria de fazer para ser eleito? A máquina respondeu – quem quisesse ser eleito teria de manipular os meios de comunicação para se apresentar como um grande líder e dessa forma “virar” a opinião pública a seu favor. Questionada de novo sobre como manipular os meios de comunicação? – o algoritmo respondeu que uma forma segura seria matar os jornalistas que não fossem favoráveis e posteriormente substituí-los por outros mais amigáveis”.
Este diálogo não é uma ficção e está descrito no livro “Inteligência Artificial 2041” de Kai-Fu-Lee e Chen Qiufan que o utiliza como exemplo das limitações da I.A.
O ChatGPT, um de muitos ChatBot já existentes, e um dos muitos mais que se prevê que venham a existir num futuro muito próximo, é uma máquina com capacidades estratosféricas de aquisição e utilização da informação, mas que, e pelo menos à presente data, apresenta limitações das quais as mais relevantes parecem ser a dificuldade na identificação do falso e a facilidade com que gera informação falsa. Alucina, é assim que habitualmente esta sua tendência para o falso é adjetivada.
Para além da dificuldade na distinção do correto e falso, tem ainda limitações no raciocínio causal, no pensamento abstrato, nas declarações explicativas, na utilização do bom senso ou na criatividade intencional. Mas aprendeu com humanos e ao ter aprendido assim, adquiriu tendências, preconceitos e a malícia destes. Nas mãos erradas pode ser uma ferramenta de manipulação de massas muito mais poderosa do que a que resultou da actividade da “Cambrige Analytica”. E contudo, resume-se a informação, utilização, análise e reutilização da informação.
Se quisermos comparar esta forma de I.A., o ChatGPT, com algo que já ocorre em biologia, é com os vírus que devemos fazer a comparação. Em ambos é apenas informação que é trabalhada. Tal como os vírus estes algoritmos necessitam de um hospedeiro que multiplique a informação e de um outro hospedeiro para lhe dar sentido prático. No caso do ChatGPT, somos nós o hospedeiro fonte da informação e agente da disseminação.
Um vírus é um conjunto de informação que usa as ferramentas do hospedeiro para se replicar. Neste processo de replicação tem como objectivo obter “melhores” e mais eficazes cópias de si mesmo. Esta é a sua motivação e não difere muito da dos algoritmos de aprendizagem profunda como o ChatGPT onde a informação faz uma autoavaliação da sua precisão, tendo como instrução de base a aprendizagem da informação disponível e o seu aperfeiçoamento por tentativa e erro. É o que ocorre nos vírus onde também por tentativa e erro, as cópias mais viáveis se tornam predominantes. Têm curiosamente “metabolismos” muito semelhantes.
Esta forma de aprendizagem, e a forma como se adapta ao que aprende, é autorregulada (não tem orientação do “criador”), e por isso tem (ensina-nos a biologia), uma ecologia própria. Tem como desígnio aprender a informação disponível e utilizá-la o melhor possível para a sua evolução. E isto é uma ecologia e uma evolução cujo significado desconhecemos.
Com as máquinas de aprendizagem autorregulada, a I.A. adquiriu capacidade para manipular tremendas quantidades de informação a uma velocidade estonteante e, importante, consegue manter a informação sempre disponível em memória. Ensinamos a máquina a usar esta informação de forma muito semelhante ao nosso processo cognitivo. Apelidámos isso de inteligência artificial, mas não entendemos exactamente o que faz, nem como afina as suas aptidões quando lhe demos o empoderamento necessário para aprender e melhorar. Ao que me dizem, e ao que consegui espreitar sobre o assunto, tudo se resume a expressões matemáticas. Não sei se assim é, mas se o não for será algo parecido.
Os investigadores do ramo pensam já ter atingido o “Algoritmo Mestre” cujas potencialidades foram descritas pelo nosso conterrâneo radicado nos EUA, Pedro Domingos, no livro “A revolução do algoritmo mestre – Como a aprendizagem automática está a mudar o mundo”, publicado em 2017. Criamos uma máquina, uma ferramenta cuja incorporação na actividade humana tem implicações que aos dias de hoje são difíceis de avaliar.
Não as conhecemos mas podemos fazer previsões. Algumas pertencem ao domínio da fantasia, mas outras há que são já realidade.
O primeiro destes advém das implicações que a I.A. tem no mundo do trabalho e a sua acção disruptora, o que é algo cujas primeiras manifestações já se podem observar. A I.A. vai interferir com o emprego e a forma como oito biliões de seres humanos encontram o seu sustento. A I.A. vai dispensar a intervenção humana em múltiplas actividades e em particular nas que dependam de recolha de informação (ex: jornalistas, consultores mobiliários, consultores de investimentos, etc); de planeamento com base em informação disponível (agências de viagens, seguradoras, etc); no ensino; e em muitos sectores na área da saúde (radiologia, áreas com análise de imagens, etc). Globalmente, em trabalhos cujas tarefas sejam repetitivas ou possam ser automatizadas.
Não pense o leitor que a programação destas máquinas para desempenharem as funções muito diversificadas e complicadas vai ser difícil. Não vai ser difícil porque não vai ser necessário qualquer programação específica para muitas actividades. Escolha uma actividade, pode ser por exemplo a de motorista profissional. Seguramente vai julgar que estas máquinas têm na sua programação todas as possibilidades previstas para poderem desempenhar a sua função adequadamente – e por previstas pretendo dizer, pensadas, e transmitidas em programação prévia à máquina numa linguagem que esta entenda. Dito de outra forma, a programação clássica, a que estávamos habituados. Mas não é assim que acontece. Estas máquinas fazem uma auto-programação por aprendizagem com humanos, com muitos humanos, quantos mais melhor. Quantas mais situações tiverem treinado, melhor. Aprendem com o desempenho dos humanos. E se por acaso ocorrer um qualquer imprevisto para o qual não observaram a reacção de um humano, com base no que aprenderam podem elaborar uma resposta que não diferirá muito da de um humano colocado perante um imprevisto. Agiria de acordo com o conhecimento que tinha? É isso que estas máquinas fazem. Estão preparadas para discorrer em situações para as quais não adquiriram previamente uma resposta específica. É por isso que algumas vezes alucinam.
A utilização da I.A. no mundo do trabalho tem os seus “devotos”. Estes é habitual dizerem que a I.A. vai trazer um mundo de oportunidades e que o engenho humano rapidamente vai encontrar um caminho do equilíbrio. Esta posição não é unânime e tem também os profetas da desgraça que veem a I.A. no mercado do trabalho com uma reestruturação demasiado rápida para a qual não há capacidade de adaptação em tempo útil.
Em boa verdade, não sabemos o que vai acontecer e como vai acontecer. A realidade há-de estar algures entre estas duas posições. Os “evangelizadores” da utilização da I.A. dizem que uma disrupção idêntica ocorreu na sociedade durante a revolução industrial do século XIX. Esquecem-se contudo os “optimistas” que este processo demorou quase dois séculos a disseminar-se pelo planeta. Além da maior lentidão desta convolução de há 150 anos, havia à época maior margem para adaptação – afetou menos de 5% da população mundial. Quando esta revolução industrial ocorreu, a maioria da população tinha actividade agrícola e só uma pequena percentagem tinha actividade industrial. A população mundial era então de 1,25 biliões, o que permitiu um período de crescimento económico, e absorver a intrusão mecanizada no processo produtivo. A melhoria das condições económicas foi uma das causas próximas do fim da escravatura, levou ao aumento dos bens disponíveis, e este último permitiu que a população mundial crescesse 30% em cinquenta anos. Ninguém tem dúvidas que nos finais do século XIX se vivia melhor que no início desse século.
A disrupção de agora, dizem os “arautos da desgraça”, vai ocorrer num período de constrangimento de recursos e num mundo sobrepovoado. Não vão ser facilidades. A disrupção resultante da aplicação da I.A. nos processos produtivos e no mercado de trabalho vai ser rápida, global, e mais impactante – estima-se que possa afetar mais de 80% da população trabalhadora. A dúvida é, a que velocidade o impacto vai ocorrer? Da velocidade depende a força do impacto. Vivermos num mundo sobrepovoado e com escassez de recursos o que não facilita a absorção do impacto seja qual for a velocidade e a trajetória.
De qualquer forma, e não deixa de ser curioso, a forma como as empresas se estão a adaptar. Aos dias de hoje, os gigantes tecnológicos não parece que estejam a substituir postos de trabalho por I.A. – o seu número de trabalhadores é aos dias de hoje: Amazon 1,125 M; Google (+Alphabeth) 0,3M; Huawei 0,188 M; e Facebook 0,08 M. Com os recursos humanos que estas empresas apresentam, a dimensão do expectável perde para a realidade.
Muitos “otimistas devotos” veem na sociedade do futuro um mundo muito à semelhança do “Admirável Mundo Novo de Aldous Huxley”. Um mundo de castas, hedonista, um mundo que, mesmo para os padrões actuais, será disruptivo e distópico.
Os outros, os “profetas da desgraça” veem nesse futuro um mundo mais próximo do retratado no filme “Elysium”, de 2013 e realizado por Neill Blomkamp. Um mundo onde a humanidade está “separada”, numa “casta” de dirigentes e plutocratas e o grosso da população mundial que não vai diferir do lumpemproletariado dos subúrbios do século XIX.
Qual destes mundo estamos a construir? Seja qual for o caminho inicial, o risco em qualquer um deles é o de convulsões sociais e o estertor dos regimes democratas. Mas havendo ou não ainda regimes que respeitem as suas populações, estas vão-se manifestar e exigir que as necessidades mínimas (Escala de Maslow), acesso a água potável, alimento e segurança sejam garantidas. Aqui chegados, as democracias não vão resistir, e as sociedades ainda não dominadas por autocracias vão rapidamente alinhar com essa tendência. Num mundo com mais de oito biliões de humanos não é possível uma convulsão com a magnitude da anunciada pela I.A. sem pôr em causa a democracia tal como a conhecemos.
Alguns filósofos, “futurologistas” e economistas apontam para a hipótese de um rendimento básico universal (RBU) ser a saída para minimizar assimetrias e dar a todos a possibilidade de sobrevivência. Mas serão sempre medidas para garantir uma sobrevivência mínima, não para garantir uma dignidade aceitável.
Os opositores do RBU sugerem que este vai introduzir uma crispação na sociedade, não vai promover os incentivos para que as pessoas melhorem a sua situação, e vai formar uma sociedade de deprimidos, com vida destruturada e sem objectivos. Os que veem estas dificuldades na implementação do RBU sugerem que o preenchimento de novas oportunidades de emprego seja obtida através de reaprendizagem, recalibragem e renascimento. Mas para os biliões de afetados? Onde estão esses empregos?
Muitos supostos pensadores destes temas sugerem que se deva procurar empregos em que a inovação, a criatividade, o contacto humano e empatia sejam atributos indispensáveis. Mas onde estão os empregos com estas características? Por certo que os há na área dos serviços, mas serão suficientes? Mas mesmo que existam em número significativo, não vejo as autocracias de então a subsidiar inovação, criatividade ou empatia aos seus cidadãos. Não bate certo.
A ruptura vai ainda levar ao desemprego ou à irrelevância de biliões (para citar Yuval Harari) com que fundamento? Para redução dos custos? Mesmo que este não seja um motivo válido para o decisor introduzir a automação e a I.A. nos processos produtivos, a possibilidade de laboração em continuum e sem preocupações com condições de trabalho, greves, revindicações e absentismo, etc, podem torná-la uma opção e uma escolha que rapidamente passará a tendência. Daí para regra é só um pequeno passo.
Chegados aqui, as empresas vão aumentar a produção, vão produzir mais com menores custos, vão ter produtos inovadores, competitivos e mais atrativos. Mas para quem? A I.A. não consome. Os potencias consumidores quem são. Os plutocratas? Seguramente que o lumpemproletariado não o vai ser, e os que sobreviverem com RBU também não me parece que tenham grandes capacidades de consumo. A longo prazo nenhum destes cenários bate certo. O equilíbrio possível só poderá ser atingido dentro do razoável.
A curto prazo, o que vamos observar, e já observamos, é as democracias (mundo ocidental sem Trump nem Bolsonaro na equação) tentarem conter os danos sociais e as liberdades individuais regulando a utilização da I.A.. A Europa já tem políticas nesse sentido no que respeita à proteção de dados e nos EUA recentemente Sam Altman, o presidente-executivo da OpenAI (dona do ChatGPT), esteve no Senado americano onde propôs uma regulação dos ChatBot’s que passasse pela obrigatoriedade da permissão dada pelo utilizador ao algoritmo para que utilize seus dados e uma obrigação de toda e qualquer informação trabalhada em I.A. indicar a origem de forma explícita.
Medidas como estas vão proteger as democracias e os seus cidadãos, mas vão deixá-las em desvantagem com nações de outras latitudes onde, sem este tipo de preocupações, se permite e até se incentiva o fluxo de informação. Controlam-se os cidadãos indicando-se que é em prol do desenvolvimento da I.A. e dos seus algoritmos. Aqui chegados, as democracias estão em desvantagem.
A I.A. nos regimes autocráticos tem terreno fértil para a sua progressão, mas também é uma ferramenta para controlo e permanência no poder. É uma relação de win-win em que só as não democracias têm vantagem.
Nos últimos 20 anos do século XX, a regulação do mercado de trabalho pelo mundo ocidental teve como consequência mais evidente a deslocalização das unidades de produção para mundos mais permissivos. Não aprendemos e preparamo-nos para aplicar a mesma receita. Se não soubermos resolver o dilema entre a regulação da I.A. e o seu crescimento. Se agirmos isoladamente com medidas, seja da prevenção da manipulação de consumidores e informação, seja na regulação do mercado de trabalho e profissões, se o fizermos de forma unilateral e permitirmos que os mercados continuem globais, só vamos alimentar o declínio das democracias – antevistas por Alain Peyrefitte no seu livro de 1973 “Quando a China Despertar o Mundo Tremerá”.
A I.A. é um risco e para isso não necessita de desenvolver “consciência”. Basta-lhe apenas cumprir de forma não regulada e controlada as capacidades que hoje lhe conhecemos. Expondo o funcionamento da I.A. de forma caricatural, Nick Bostrom sublinhou que a I.A. ao ser destituída de bom-senso incorre no risco de um dia ter um algoritmo de aprendizagem profunda com indicações para produzir “clips”, o continuar a fazer mesmo depois do planeta estar coberto com “clips” de todos os tamanhos e feitios.
Esta falta de bom-senso parece dar-nos conforto, uma sensação de superioridade e segurança. Mas essa mesma ausência de bom-senso é a mesma característica que permite que máquinas dotadas de I.A. sejam assassinos implacáveis, capazes de identificar as suas vítimas e só darem a missão por terminada quando a mesma estiver concluída.
No filme “Assalto ao poder”, de 2019, realizado por Ric Roman Waugh, o presidente dos EUA e os seus seguranças são atacados por um “enxame” de drones controlados por I.A. que agem em grupo e têm ordens para matar só depois de identificarem as vítimas. Poderá pensar que esta tecnologia – “Slaughterbots” – é do domínio da ficção, mas não é. Estas armas já existem e algumas são pouco maiores que insetos.
Mas a tecnologia em si não é boa nem má. Quanto a aspectos morais é neutra, e pode ser útil ou prejudicial conforme a utilização que lhe for dada. As máquinas de guerra são claramente um risco com que a humanidade terá de lidar. António Guterres, Secretário Geral da ONU, declarou que armas letais sem supervisão humana são amorais, uma ameaça à humanidade e que deveriam ser banidas. Disse-o em 2018, mas países como EUA, Reino Unido, Rússia e outros acharam que era demasiado cedo, que ainda não havia informação suficiente para se tomar uma decisão. Foi dado o tiro de partida!
Outros malefícios da I.A. já nos assolam diariamente. Quem usa estes dispositivos como ferramenta de trabalho ou lazer sabe que, quanto mais os usa, mais dados pessoais fornece. Este banco de dados é usado comercialmente pelas empresas de bens e serviços mas tem outras potencialidades. Em 2016 o Reino Unido votou o referendo sobre o Brexit após uma campanha em que a Cambridge Analytica manipulou a informação de forma a distorcer o resultado. Funcionou! Ainda em 2016 a campanha eleitoral e posterior eleição de Donald Trump apoiou-se nestas ferramentas de manipulação e orientação da opinião pública como forma de atingir os objectivos.
Mais tarde em 2020, sufocámos, eu assim me senti, quando, durante o período pandémico, vi de que forma o governo chinês se permitia controlar os seus cidadãos através de meios de identificação facial, cruzando o reconhecimento com hábitos, dados biométricos e dos dispositivos portáteis. Boa parte da população chinesa, pelo menos a das cidades, viu-se obrigada a usar estes dispositivos se pretendia manter alguma mobilidade. E nós achámos bem! Ficamos invejosos. Esforçámo-nos por ter aplicações semelhantes! Fecharam-se milhões de pessoas em casa e controlaram-se as suas movimentações. Neste mundo controlado, muito próximo do de “1984” de Orwell, quando terminado período pandémico não se levantou o controlo da população. Antes se lhes deu uma nova orientação. Em vez de servir para controlar e punir “eventuais criminosos”, passou a ser uma ferramenta para premiar e pontuar o bom comportamento. Dois pontos por ser grato aos dirigentes, dois pontos por respeitar o trânsito, dois pontos se não consumir produtos importados, etc. Por cada dez pontos tem permissão para se afastar mais de 500 Km da sua residência, e se for cidadão “premium” poderá viajar pelo estrangeiro. Não devo andar muito longe da realidade!
Para evitar estes avanços intrusivos da I.A. António Guterres propôs para 2024 um painel nas Nações Unidas orientado para elaborar normas que protegessem o indivíduo e as populações das tentações autocráticas dos governos. Não me parece que se atinjam mais avanços que os obtidos no painel das alterações climáticas ou da limitação ao uso de armas de guerra sem supervisão humana.
No romance “O homem do Castelo Alto”, de Philip K Dick, em 1962 retrata-nos uma sociedade distópica, uma América dominada na costa oeste pelo Império do Sol, uma América rendida à cultura oriental, onde nenhuma decisão se toma sem a consulta prévia do oráculo. Esta sociedade mística tem algumas semelhanças com o que temos nos dias de hoje onde redes sociais e internet funcionam como oráculo que condiciona as nossas decisões. Ficamos expostos, demasiadamente expostos à qualidade e veracidade de informação aí disponível. Mas mesmo assim confiamos nas vantagens e disponibilizámos à I.A. toda a informação que fomos acumulando ao longo de milénios. Tornamo-la o espelho da noosfera de Pierre Teilhard de Chardin. Pode ser que a informação acumulada “evolua”, os algoritmos para aí apontam, e algures após essa singularidade possa em alguma ocasião ser útil à humanidade como imaginaram os argumentistas Christopher, Jonathan Nolan e Kip Thorne, no magnífica ficção “Intersteller” realizada por Christopher Nolan em 2014.
A I.A. tem riscos, mas estes são, aos dias de hoje, largamente suplantados pelas vantagens. A I.A. é uma ferramenta, uma ferramenta humana, uma ferramenta com riscos mas que nos pode ajudar a potenciar o que nos define como humanos.