Em setembro de 1962, na Rice University, Houston, Texas, J. F. Kennedy apresentou ao Mundo o objetivo de levar o homem à Lua até ao final da década. Estava-se no período da Guerra Fria e a então União Soviética estava claramente a ganhar a “guerra espacial” aos Estados Unidos da América. Kennedy já não assistiu, mas em julho de 1969 a missão Apollo 11 foi bem sucedida e Neil Armstrong e Buzz Aldrin pisaram o solo da lua.

A previsão efetuada por um grupo de cientistas da Carnegie Mellon University, em 1957, de que em uma década existiria um computador capaz de derrotar o campeão do Mundo de xadrez já não foi tão acertada. Na verdade, foram precisos 40 anos de evolução na ciência e tecnologia para a IBM criar o computador Deep Blue que, em maio de 1997, derrotou o campeão do Mundo de xadrez à altura, Garry Kasparov.

Nos dias de hoje, estão em curso outros desafios à ciência e à tecnologia, em particular nos domínios da robótica e da inteligência artificial. Em 1997, uma iniciativa científica internacional lançou o desafio de construir uma equipa de robôs capaz de ganhar à equipa humana campeã mundial de futebol em 2050. Muitos dos que assistiram aos primeiros jogos de futebol entre robôs apressaram-se a desvalorizar a iniciativa. Mas quem assistir aos jogos da próxima RoboCup, que terá lugar no Japão em finais de Julho, reconhecerá que, apesar de ainda se estar muito longe do objetivo, as equipas de futebol robótico exibem já estratégias e níveis de cooperação entre jogadores que fazem pensar que talvez seja possível vencer o desafio. Entretanto, a RoboCup já não é apenas sobre futebol e inclui outras “ligas”, em particular robôs para operar em situações de catástrofes, robôs para operar em ambientes domésticos, robôs para ambientes industriais (produção e logística), e uma liga júnior focada na educação através do desenvolvimento de aplicações robóticas.

Em 2016, Hiroaki Kitano, um dos promotores da RoboCup, publicou um artigo científico propondo novo desafio para a inteligência artificial: desenvolver um sistema capaz de gerar novo conhecimento merecedor de ganhar um Prémio Nobel em ciências biomédicas sem que o comité do Nobel tenha consciência de que a descoberta foi realizada por um sistema computacional e não por um humano. Kitano foi pioneiro na utilização de uma abordagem sistémica à biologia, defendendo que é essencial estudar a interação entre todos os elementos de um sistema, para além do conhecimento individual de cada elemento, para poder compreender o funcionamento de um sistema biológico. Na sua opinião, um sistema de inteligência artificial tem o potencial de ultrapassar as dificuldades humanas em gerir a enorme quantidade de informação que hoje existe, em interpretar corretamente essa informação e em descrever adequadamente fenómenos complexos.

PUB • CONTINUE A LER A SEGUIR

Na génese de todos os desafios descritos está a convicção de que são necessários objetivos ambiciosos e mobilizadores para se alcançar o progresso científico e tecnológico. Kennedy justificava o objetivo de colocar um homem na Lua com o facto de ser um objetivo difícil, que requeria novos conhecimentos e novas tecnologias que era necessário desenvolver e usar para o bem de todas as pessoas. São vários os exemplos de tecnologias desenvolvidas para responder a estes desafios e que estão hoje a ser usadas noutros contextos. A IBM, após a vitória do DeepBlue, desenvolveu o Watson, que viria a ganhar o concurso televisivo Jeopardy! (um concurso em que três concorrentes competem na resposta a perguntas sobre um leque muito variado de temas). O sistema de inteligência artificial Watson é, hoje, um produto comercial à disposição de empresas para, por exemplo, criarem sistemas automáticos de atendimento de clientes. A Amazon adquiriu, em 2012, um sistema de gestão automático de armazéns criado por uma equipa da Cornell University para a RoboCup. Na sequência da tragédia de 11 de setembro de 2001, foram usados robôs para busca e salvamento, desenvolvidos também no âmbito da RoboCup.

Mas será que estes desafios têm apenas impactos positivos? Parece óbvio que há muitas questões éticas que se levantam, quando se observa que as pessoas começam a ficar dependentes de robôs, quando se criam “relações” entre pessoas e máquinas que emulam relações humanas, ou quando algumas decisões são transferidas para uma máquina. Questões éticas que se colocam a quem desenvolve os robôs, aos profissionais que os implementam num contexto específico, e que se colocam também aos próprios robôs quando são chamados a tomar uma decisão. Será ético fazer um idoso crer que um robô tem emoções humanas, como nalgumas aplicações de “robôs assistentes”? Quem será responsável se o diagnóstico de um sistema de inteligência artificial for errado?

Muitos estão conscientes destas questões. Num conto originalmente publicado em 1942, Isaac Asimov enunciou as suas três leis da robótica, que tinham como pano de fundo assegurar que os robôs nunca fariam mal a um ser humano. Alan Turing, em 1950, publicou um artigo científico em que se interroga se uma máquina poderá fazer crer a um humano que com ela interaja que está a interagir com um outro humano (o desafio colocado por Kitano inclui iludir o comité do Prémio Nobel…) Mais recentemente, em 2010, o Conselho de Investigação em Engenharia e Ciências Físicas do Reino Unido desenvolveu cinco regras de ética para a robótica que espelham preocupações com a boa utilização dos robôs, com a segurança, a privacidade e a não ilusão dos utilizadores, e com a possibilidade de identificar quem é responsável por cada robô. Em 2015, um grupo de investigadores em robótica e inteligência artificial publicou uma carta aberta sugerindo que sejam banidas as armas ofensivas com um nível de autonomia acima de um controlo humano significativo, carta essa que ganhou notoriedade ao ser assinada por Stephen Hawking, Elon Musk, Steve Wozniak e muitas outras figuras proeminentes. O tema do armamento de tecnologias autónomas tem, aliás, estado na agenda do Instituto das Nações Unidas para Investigação sobre Desarmamento desde 2013. Já em fevereiro deste ano, o Parlamento Europeu apresentou uma iniciativa legislativa com vista à adoção de regras em matéria de robótica e inteligência artificial. Dessa iniciativa, muito se tem falado do impacto dos robôs no mercado de trabalho, mas ela contém também propostas para a criação de um código de conduta ética para engenheiros de robótica e para lidar com a responsabilização pelas opções que um robô venha a adotar.

Dizia Kennedy, em 1962, que a ciência e a tecnologia não tinham uma consciência própria e que a sua utilização para o bem ou para o mal dependia do Homem. Devemos, então, desejar que a ciência e a tecnologia passem a ter, de alguma forma, uma consciência própria? Nalguns contextos parece óbvio que sim. Por exemplo, um veículo não tripulado a operar em Marte tem de ter algum grau de autonomia, já que o atraso das comunicações entre a Terra e Marte impossibilitam que seja um humano em Terra a tomar todas as decisões. Noutros contextos há claramente mais dúvidas. Será que queremos que um sistema autónomo tome decisões de disparar ou não um míssil, sem qualquer intervenção humana? Se, para alguns, esta ideia é obviamente perigosa, outros argumentarão que as decisões tomadas por uma máquina serão mais consistentes que aquelas tomadas por um ser humano. O que parece óbvio é que as questões éticas deverão ter um papel central nos desenvolvimentos da robótica e da inteligência artificial. As ordens e associações profissionais há muito que o perceberam e patrocinam formação e grupos de trabalho sobre ética profissional. Seria bom que as escolas de Engenharia introduzissem a ética na formação dos futuros engenheiros. Seria bom que os grandes desafios à ciência e à tecnologia fossem também balizados por questões éticas. Seria bom que os nossos desejos sobre o progresso científico e tecnológico tivessem em consideração todas as diferentes implicações.

Professor Auxiliar na Católica-Lisbon, School of Business & Economics