A Inteligência Artificial (IA) passou a integrar o nosso léxico habitual e abundam as notícias sobre a mesma. Nos últimos dias, surgiram uma série de notícias que expressam preocupações sérias sobre os impactes que a IA pode ter nas nossas vidas e na humanidade no seu todo. No dia 22 do passado mês de março, foi tornada pública uma carta aberta, que conta já com várias dezenas de milhares de assinantes, encabeçados por importantes figuras da academia, da investigação e responsáveis pelas empresas tecnológicas mais significativas. Apresentando uma série de preocupações acerca dos impactes maliciosos e irreversíveis que a IA coloca, a carta propõe que os laboratórios de IA façam uma pausa de, pelo menos, 6 meses, no treino de sistemas de IA mais poderosos que o GPT-4.
As motivações dos autores podem ser variadas, pelo que não podemos ser demasiado ‘ingénuos’ em assumir apenas uma perspetiva de bondade das reais intenções dos mesmos. No entanto, as preocupações que abordam são de uma total pertinência e atualidade. A carta refere nomeadamente que “Os sistemas de IA com inteligência humana competitiva podem colocar riscos profundos à sociedade e à humanidade… Nos meses recentes vimos como os laboratórios de IA têm estado fechados em si mesmos numa corrida fora de controlo para desenvolver e expandir mentes digitais cada vez mais poderosas que – nem os seus criadores – conseguem perceber, prever ou controlar com confiança.” (tradução do autor).
Na sequência desta carta, Eliezer Yudkowsky publicou um artigo, disponível no site da revista Time, em que defende que a proposta da carta aberta peca por defeito, e propõe mesmo a proibição definitiva de todos os sistemas de IA já em funcionamento e o desenvolvimento de novos sistemas.
Ainda no campo de publicações nos meios de comunicação social, no final da semana passada, surgiu a notícia sobre um chatbot que é suspeito de ter incentivado um homem a cometer suicídio na Bélgica.
Até que ponto é que notícias como esta nos devem preocupar? São credíveis as apreensões constantes da carta aberta ou ainda mais o tom ‘fatalista’ do artigo de Eliezer Yudkowsky? O caminho a seguir deve ser o da Itália que bloqueou o ChatGPT?
Devemos ser claros e objetivos, afirmando que é indesmentível que estamos diante de riscos muito sérios que podem, efetivamente, pôr em causa o bem das organizações, das pessoas individuais e da própria humanidade. Muitos desses riscos são incontroláveis e irreversíveis. Por isso, como sociedade, necessitamos de abandonar uma atitude ingénua para passarmos a uma atitude crítica e exigente.
Já em novembro de 2021 (ou seja, há quase um ano e meio!), a Unesco publicou uma Recomendação sobre a Ética da inteligência Artificial, aprovada por todos os estados membros, mas que, na maior parte dos casos, incluindo claramente Portugal, nunca obteve a atenção devida, para já nem mencionar, uma intenção de aplicação!
Esta recomendação apresenta os benefícios claros que a IA pode significar para a humanidade, mas identifica também uma série de riscos sérios, nomeadamente na salvaguarda dos direitos humanos. A partir dessa avaliação, são apresentados os valores e princípios éticos que devem respeitar os sistemas de IA durante todas as etapas da sua vida, e apresenta um sistema de governação, que abarca uma variedade de setores, para aplicação dos referidos valores e princípios.
Na sequência da carta aberta, Audrey Azoulai, Diretora Geral da Unesco, utilizou a sua conta no Twitter para recordar a necessidade de aplicar a recomendação da Unesco.
O contributo mais significativo da recomendação é colocar no centro dos problemas relativos à IA e na base da sua resolução a questão ética. De facto, até o melhor sistema legal que pudesse, entretanto, surgir seria insuficiente para responder às questões tão profundas que a humanidade enfrenta com a IA.
Para beneficiarmos de uma IA que esteja verdadeiramente ao serviço da humanidade, da preservação do ambiente e do desenvolvimento dos povos, e que evite os perigos que a mesma comporta, ou que os minimize, devemos aplicar a recomendação da UNESCO, valorizando a abordagem ética, que será a única que permitirá uma IA transparente, responsável e de confiança.
As organizações e empresas precisam de uma atenção especial a estas questões, com a consciência de que, sem isso, as próprias empresas que utilizem sistemas de IA correm sérios riscos de descredibilização, com as consequências económicas daí resultantes. Mas toda a sociedade precisa de ser envolvida neste processo, começando pelas autoridades de governo, que parecem quase totalmente alheadas a esta problemática.
É um desafio premente!