De início, foi-nos garantido pelos líderes da indústria automóvel que, com a condução autónoma, o trânsito ia passar a ser mais fluído, que os pequenos toques na cidade iriam terminar e que as escaramuças entre condutores estariam condenadas a desaparecer, sobretudo porque estes deixariam de estar aos comandos. E quando já reinava a euforia perante a possibilidade de as altercações entre condutores passarem a fazer parte do passado, eis que afinal tudo indica que os computadores que vão “conduzir” os veículos autónomos do futuro vão ser ainda piores: mais agressivos e violentos. Ou seja, parece que de cenas de pancadaria não nos livramos. Tudo porque a Inteligência Artificial (IA), de que os computadores necessitam para apreender a esgueirar-se através do trânsito e a lidar com as situações imponderáveis que possam surgir à sua frente, afinal, têm pior feitio do que o mais violento dos condutores.

IA vai mesmo ser imprescindível?

Sempre que falamos de condução autónoma, é forçoso determinar qual o nível que temos em mente, pois dele depende o grau de complexidade. Se no nível 0 não havia qualquer problema, nem qualquer automatismo como o algarismo indica, a situação não se alterou muito quando evoluímos para os níveis 1 e 2, em que o condutor tinha à sua disposição exactamente isso, um ou dois automatismos. Isto permitia-lhe, por exemplo no nível 2, ter cruise control adaptativo e o assistente de manutenção na faixa de rodagem a trabalhar em simultâneo. Soluções que, se bem que sofisticadas, resolvem-se com uma série de sensores, um radar e uma câmara de vídeo, tudo gerido por um computador com um mínimo de capacidade de processamento.

Olha, sem mãos! Conduzimos o Audi A7 100% autónomo

PUB • CONTINUE A LER A SEGUIR

O grande salto, em matéria de condução autónoma, tem lugar quando se passa para o nível 3, aquele que a Audi já nos deixou testar com o protótipo Jack, ou que a Tesla se está a preparar para introduzir em todos os seus modelos ainda em 2017 e que já provou funcionar na perfeição em Novembro de 2016, em zonas onde já existem mapas de alta definição.

[jwplatform mRIDcbeF]

Como é possível ver pelas imagens projectadas nos ecrãs secundários existentes no vídeo, é impressionante a quantidade de informação necessária para fazer funcionar eficazmente um nível 3, sobretudo em cidade, inerente ao processamento de tudo o que rodeia o veículo, de peões nos passeios, ou na via, a automóveis estacionados (e nem sempre de forma correcta) ou em movimento, sinalização horizontal, vertical e luminosa, já para não falar de obras ou buracos no pavimento. Como é virtualmente impossível prever tantas variáveis aquando da programação do sistema, a única solução é dotá-lo com a capacidade de aprender. Logo, com IA.

E como a Tesla – e os restantes fabricantes irão certamente “copiar” este procedimento – está em constante contacto com os seus veículos, fornecendo-lhes actualizações Over-the-air, mas recebendo pela mesma via mapeamento das vias em HD, bem como a experiência acumulada por cada uma das unidades (que depois serão utilizadas para fazer evoluir o sistema e posterior partilha), torna-se evidente que sem IA não há condução autónoma. E se pensarmos nos níveis 4 e 5, então a necessidade de AI será ainda mais flagrante.

O enorme potencial da IA

Os humanos – ou pelo menos alguns – sempre olharam para a IA com alguma desconfiança, eventualmente desde que o filme de Stanley Kubrick “2001: Odisseia no Espaço”, que estreou em 1968, nos despertou para os perigos de um computador como o HAL 9000, dotado de IA, estar em controlo de tudo, a ponto de poder exterminar os astronautas humanos para resolver um determinado problema.

Ficção de Hollywood à parte, a verdade é que há determinadas funções que prometem ser muito complicadas de executar sem o recurso a IA e, se viajar pelo espaço é uma delas, percorrer as nossas cidades à hora de ponta é, decididamente, outra. Há muito que empresas especializadas nesta matéria desenvolvem soluções que permitem dotar os computadores da capacidade de aprender e de pensar por si mesmos, seguindo os mesmos passos do cérebro humano.

Uma das entidades mais conceituadas dedicadas à AI é a britânica DeepMind, criada em 2010 e adquirida por 500 milhões de dólares quatro anos mais tarde, pela Google. Curiosamente, a DeepMind “educou” a inteligência artificial dos seus primeiros computadores com o recurso a jogos da Atari, muito populares dos anos 70 e 80. Do Space Invaders ao Pong, passando pelo Pac-Man, a IA da empresa que agora é pertença da Google foi aprendendo a lidar com as adversidades, calcular as probabilidade de sucesso de determinadas estratégias e adoptar a melhor forma para atingir os seus objectivos. Em resumo, analisar, pensar e decidir. Tudo o que um humano consegue fazer desde de tenra idade. Só que os computadores realizam esta função cada vez melhor e de forma mais rápida. Assustadoramente rápida.

Já saltam e aprendem a andar e a falar

Como seria de esperar de algo com um potencial incrível para aprender, a IA não conhece limites e surpreende continuamente os seus criadores. Umas vezes pela positiva, mas outras pela negativa. O sistema da DeepMind, por exemplo, “ensinou-se” a si próprio a andar. Não só lidou com a noção de equilíbrio, como a do movimento, aprendendo a transpor obstáculos e a desviar-se de outros. E mesmo quando falha, continua a evoluir, aprendendo com os seus próprios erros.

[jwplatform Qm2DsEIq]

Meses antes, a mesma Google tinha anunciado que um dos seus computadores com AI – o AlphaGo – tinha conseguido bater pela primeira vez os maiores especialistas no jogo Go, onde a estratégia e a intuição são fundamentais. Os computadores, que já tinham ultrapassado os humanos em praticamente todo o tipo de jogos, mesmo naqueles que necessitam de grande capacidade de análise e de inteligência, como o xadrez (já em 1997), ainda não tinham conseguido dominar a arte do Go, um jogo com 2.500 anos, substancialmente mais complexo que o xadrez. Mas eis que a IA passava finalmente a bater os seus criadores em todos os domínios, pelo menos no que aos jogos dizem respeito.

No capítulo da linguagem, a DeepMind, anunciou que o seu sistema de IA estava a lidar muito bem com a aprendizagem de várias línguas para conseguir realizar traduções entre elas. Os cientistas programaram então a máquina, que já traduzia perfeitamente de japonês e de coreano para inglês, tentasse passar directamente de japonês para coreano, e vice-versa, sem passar pelo inglês. O que a máquina conseguiu, levando os responsáveis a concluir que, no processo, o sistema tinha criado um novo tipo de linguagem, sem que isso lhe tivesse sido solicitado.

O mesmo tipo de desempenho surpreendente foi detectado pelo Facebook, quando a empresa especializada em redes sociais tentava desenvolver um chatbot para conversar com humanos. O projecto até estava a correr bem e a revelar um grande potencial. Isto até os chatbots começaram a falar entre si numa linguagem que parecia muito eficaz, mas que só eles conheciam e que os “patrões”, de carne e osso, não entendiam minimamente. Mais uma vez, os detractores da AI, aqueles que temem que a máquina venha a dominar o homem, viram os seus argumentos reforçados.

Quanto mais inteligentes, mais agressivos

Entre os humanos, os indivíduos mais inteligentes e experientes tendem a ser menos arruaceiros e mais ponderados, capazes de evitar polémicas e confrontos. Entre os computadores, a inteligência funcionará exactamente ao contrário. Quanto mais inteligentes, mais trogloditas se revelam.

Esta aparentemente estranha acusação não é mais do que uma mera constatação realizada pela Google e a sua DeepMind. Sucede que o gigante americano desafiou dois dos seus computadores inteligentes a participar num jogo que visava recolher digitalmente o máximo de maças disponíveis, ganhando quem conseguisse reunir o maior número de frutos. O jogo foi igualmente tentado com sistemas de IA menos avançados, vulgo menos inteligentes, e sempre correu bem, pois as máquinas recolhiam o maior número de peças disponíveis e, apesar de estarem equipados com uma arma laser, que poderia incapacitar o adversário durante breves instantes para lhes dar vantagem na recolha da fruta, nunca recorreram a essa táctica extremista.

O problema surgiu quando foram os sistemas de IA mais complexos a atirar-se às maças. Os cientistas pretendiam ver até que ponto as máquinas se entreajudavam para atingir os seus objectivos e, após 40 milhões de simulações, começaram a surgir reacções que surpreenderam tudo e todos. Enquanto houve excesso de maçãs, os computadores inteligentes recolhiam a toda fruta que podiam. A situação complicou-se quando as maçãs começaram a rarear, o que fez aumentar os disparos de laser em direcção ao opositor, tudo para levar a sua avante e apanhar mais fruta, revelando um comportamento tão violento, quanto avarento.

E, como se isto não bastasse, a utilização de sistemas ainda mais inteligentes neste jogo revelou uma faceta da IA ainda mais preocupante, pois os computadores mais inteligentes começavam a disparar uns contra os outros, mesmo numa fase inicial, em que ainda havia muitas maçãs.

[jwplatform K1l5E60P]

Imagine-se agora sistemas ainda mais inteligentes do que estes a comandar os nossos automóveis autónomos ou, mais do que isso, o armamento militar das superpotências. Joel Leibo, cientista e investigador na DeepMind, admite que os sistemas inteligentes revelam por vezes comportamentos similares aos dos humanos, no pior dos sentidos, pelo que é bom ter cuidado para não soltarmos um HAL 9000 ou até mesmo um Terminator nas nossas estradas, capaz de se atirar contra o carro do lado só para não ser ultrapassado na auto-estrada, destruir o carro do vizinho só porque este lhe roubou o lugar no estacionamento ou atropelar a velhinha que, na véspera, conduzia excessivamente devagar.

O melhor mesmo é que os automóveis autónomos do futuro venham equipados com estojos de primeiros socorros, pois tudo indica que os seus ocupantes vão necessitar de mais cuidados do que actualmente. Mas convenhamos que não deixa de ser preocupante o “mau feitio” que conseguem ter os computadores inteligentes que, é bom recordar, começaram a aprender a jogar os inofensivos Space Invaders e Pac-Man.

IA até leva Musk a gozar com Zuckerberg

O respeitado físico e cosmólogo britânico Stephen Hawking, depois de durante anos chamar a atenção para os riscos da criação de uma superinteligência artificial, que poderia exterminar a raça humana da face do planeta, admite agora que versões cada vez mais avançadas e sofisticadas de IA “podem ser o melhor, ou o pior, que já aconteceu à humanidade”. Ainda assim, este cientista aconselha a que se estude aprofundadamente o problema e se controle a rápida evolução da IA. Afirma Hawking que, “depois de passarmos anos a estudar a história da humanidade, que na essência é uma história de estupidez, será uma lufada de ar fresco podermos estudar um futuro de inteligência”.

Certo é que os potenciais benefícios de criar uma IA cada vez mais poderosa são enormes e ninguém consegue hoje prever o que o ser humano será capaz de atingir se o poder da sua mente for devidamente amplificado pela IA. Mas Hawking, tal como Huw Price e Bertrand Russell, também eles professores na Universidade de Cambridge, alertam para os riscos de uma evolução não controlada de uma inteligência que seja infinitamente superior à capacidade humana.

Na mesma tecla bate Stuart Russell, responsável pelo Center for Human-Compatible Artificial Intelligence, na Universidade da Califórnia, Berkeley, que em 2015 publicou uma carta aberta, assinada por cerca de 8.000 especialistas em IA – inicialmente eram 1.000, mas esta corrente não pára de arregimentar adeptos –, entre os quais Hawking e Elon Musk, que chamava igualmente a atenção para o vasto potencial da IA, mas que esta deve ser criada para amplificar o potencial humano e nunca para o substituir, ou seja, todos os sistemas devem existir para “desempenhar as tarefas que lhe pedimos e como lhe pedimos”. Estes avisos são sobretudo dirigidos aos fabricantes de armamento, que estão há muito a desenvolver armas militares autónomas, mas são preocupações que encaixam igualmente nos requisitos da condução autónoma.

[jwplatform OKhJ8CMa]

Ainda antes de a IA fazer as primeiras vítimas por esse mundo fora, já originou uma troca de palavras bastantes azedas entre Elon Musk (da Tesla e SpaceX) e Mark Zuckerberg (Facebook). O tema foi o chatbots que a equipa de Zuckerberg criou para atender e responder aos seus clientes, e que literalmente “roeu a corda” ao desenvolver uma linguagem própria e mais avançada, que os humanos não entendiam, levando à sua desactivação. Zuckerberg continua a acusar indivíduos como Musk de alarmistas, o que o levou a responder: “Os conhecimentos de Zuckerberg sobre IA são muito limitados” – convenhamos que é difícil encontrar uma forma mais elegante de chamar parvo a alguém…

Mas Elon Musk não se limitou a responder torto ao criador do Facebook, uma vez que explicou calmamente o problema. Chamou a atenção que, “no que respeita à AI, estamos a entrar numa fase de duplo crescimento exponencial, isto porque não só estamos em face de um incremento exponencial de capacidade de hardware, como igualmente de software, o que torna possível que algo que nunca seria possível atingir nos próximos 20 anos seja conseguido dentro de um ano ou dois”. De recordar que Musk é um dos fundadores da OpenAI, empresa com fins não lucrativos destinada à investigação de IA e que visa, acima de tudo, alertar para a necessidade de desenvolver formas de IA “amigas” da humanidade.