910kWh poupados com a
i

A opção Dark Mode permite-lhe poupar até 30% de bateria.

Reduza a sua pegada ecológica.
Saiba mais

GettyImages-1246519304
i

A carta aberta pede uma pausa no lançamento de modelos de IA mais poderosos do que o GPT-4, lançado o mês passado pela OpenAI

NurPhoto via Getty Images

A carta aberta pede uma pausa no lançamento de modelos de IA mais poderosos do que o GPT-4, lançado o mês passado pela OpenAI

NurPhoto via Getty Images

Do risco de “cair nas mãos erradas” ao esforço “para preservar” a humanidade. As motivações de quem pede “pausa” nas experiências de IA

Os portugueses que assinaram a carta que pede pausa nas experiências de Inteligência Artificial alertam para os riscos da tecnologia. Mas a carta aberta do Future of Life Institute não é consensual.

“Pedimos a todos os laboratórios de inteligência artificial [IA] para fazerem imediatamente uma pausa de pelo menos de seis meses no treino de sistemas mais poderosos que o GPT-4”. É esta a premissa da carta aberta do Future of Life Institute, uma organização sem fins lucrativos, que pede que se ponha pé no travão numa altura em que a corrida ao desenvolvimento de IA está acelerada. A disponibilização ao público do ChatGPT, desenvolvido pela norte-americana OpenAI, deu um contributo de relevo para pôr empresas como a Google ou a Microsoft, investidora na OpenAI, em competição direta.

Foram recolhidas mais de 50 mil assinaturas, diz o instituto, mas até ao momento estão confirmadas quase 14 mil. Além de nomes como Elon Musk, da Tesla e do Twitter, Steve Wozniak, co-fundador da Apple, ou o académico Stuart Russell, o autor de “Inteligência Artificial: uma abordagem moderna”, a “bíblia” da IA usada nas universidades, estão também várias assinaturas de portugueses, principalmente com ligação ao mundo académico.

Elon Musk assina carta aberta que defende a suspensão da Inteligência Artificial

PUB • CONTINUE A LER A SEGUIR

João Emílio Almeida é um dos portugueses que assinou a carta aberta. Fez um doutoramento em engenharia informática e é professor no ISTEC Porto. “Fui contactado [pelo Future of Life Institute] para assinar”, uma vez que já tinha sido signatário de uma outra carta, explica em conversa com o Observador. “Fui dos primeiros 200 a assinar”.

Referindo que existem “questões filosóficas e éticas” que se impõem nesta discussão, subscreveu a ideia de “se pensar antes de disponibilizar” mais modelos de IA. “A carta aberta tem esse intuito, de pedir que ‘por favor parem isto no [GPT]4, não disponibilizem já o 5 ou 6. Estamos prestes a chegar a um estado de artificial general intelligence [AGI], que pode ser aplicada a qualquer coisa.”

O que é pedido, explica este professor, é que se dê margem “às pessoas para assimilar estes conceitos e minimizar possíveis danos”. O intuito é o de “evitar que esta tecnologia possa ser usada para a destruição da humanidade”, porque “potencialmente pode ter esse risco latente.” João Emílio Almeida recorre a uma analogia para exemplificar a questão. “Mais do que um comboio em direção ao precipício, é um carro que está a fazer curvas de forma cada vez mais arriscada. E só sei os limites do carro quando bater. O risco é podermos descobrir que a ferramenta [de IA] é mais poderosa do que pensávamos quando já for tarde”, admite.

Há alguns cenários que preocupam este investigador, nomeadamente o risco de esta tecnologia “cair em mãos erradas e de ser usada de uma forma que não seja a correta para a humanidade.” João Emílio Almeida compreende a perspetiva de quem acha que pode estar a existir algum excesso de zelo. “Podemos estar a fazer uma tempestade num copo de água, mas se calhar mais vale exagerar e tomar medidas adequadas a tempo”, vinca, lembrando que “pecar por exagero é preferível” do que chegar a um ponto “quando for demasiado tarde”. E recorda que estas ferramentas de inteligência artificial podem ser “muito poderosas”.

“Mais do que um comboio em direção ao precipício, é um carro que está a fazer curvas de forma cada vez mais arriscada. E só sei os limites do carro quando bater. O risco que se põe é podermos descobrir que a ferramenta [de IA] é mais poderosa do que pensávamos quando já for tarde."
João Emílio Almeida, professor do ISTEC, assinou a carta aberta

Luís Caires, diretor do Nova Laboratory for Computer Science and Informatics e professor do departamento de Informática da FCT, também assinou a carta. Diz que sente um “certo dever de intervenção cívica” e, quando viu esta iniciativa, não teve dúvidas sobre colocar a sua assinatura, figurando entre os 80 primeiros signatários.

Não há apenas nomes ligados à inteligência artificial. Marina Cortês é investigadora no Instituto de Astrofísica e Ciências do Espaço da Universidade de Lisboa e também subscreveu o manifesto do Future of Life Institute. “A carta é um esforço de ganhar algum tempo de forma a preservar a definição daquilo que em tempos foi conhecido como atividade humana”, acredita.

Para a investigadora, que foi bailarina clássica e que até já fez escalada nos Himalaias, hoje em dia “não é claro se um objeto particular de conhecimento humano, uma peça de arte ou uma peça de investigação científica foi feita por um humano ou por um algoritmo”. E isso acarreta riscos. “Os perigos de uma sociedade que permita noções confusas daquilo que constitui ou não atividade humana são a alienação de valores”, contextualiza, sem esquecer que os modelos de IA podem também contribuir, realça, para o fenómeno da desinformação.

“A razão para a urgência desta carta é que o desenvolvimento dos modelos de linguagem se acelerou a partir do nada”, vinca. E, apesar de ter assinado o manifesto, reconhece que os seis meses de pausa no desenvolvimento de experiências com IA “não são sequer suficientes ou possíveis”, ​​mas que “os números de assinaturas e os perfis de quem assina demonstram claramente um esforço da espécie humana para tentar preservar a identidade humana.”

João Tiago Carapau, assumindo não ser um especialista na área da inteligência artificial, acompanha a evolução destas ferramentas a nível “pessoal e profissional”. É diretor-geral da Pater – Mais Território e membro da Ordem dos Engenheiros e subscreveu a carta aberta por considerar que é preciso parar “antes que seja tarde demais”. Destaca a necessidade de regulação como uma das questões-chave nesta matéria. “O domínio da informação (ou da desinformação) é poder”, diz. “Impõe-se na IA a implementação de mecanismos regulatórios escrutináveis pela sociedade, pelos cidadãos. É a democracia que o exige.”

A inteligência artificial aprendeu a ser preconceituosa. Ainda vai a tempo de ser ética?

O gestor reconhece que a “IA é uma ferramenta extraordinária de apoio ao pensamento, permitindo avanços gigantescos e decisivos para a humanidade”, por exemplo na área da saúde, serviços ou atividades industriais, mas também tem dúvidas sobre como se poderá “salvaguardar a massa crítica” se se for apenas aceitando “que a IA nos vai resolvendo a vida”. Por isso, sublinha que é imperativo “parar para refletir” o que está a acontecer neste caminho de desenvolvimento da IA. “É um ‘admirável mundo novo’ que nos desce e entra dia-a-dia no telemóvel, em casa e no futuro nas escolas (já estando das universidades) que poderá fazer de nós meros autómatos sociais destinados a representar um papel acrítico em termos políticos, económicos, sociais, ambientais e mesmo culturais. E não é dramatização nem teoria da conspiração.”

Os pedidos feitos na carta aberta, que é uma “questão complicada” para a comunidade científica

A carta aberta está longe de ser um tema consensual. Arlindo Oliveira, professor do Instituto Superior Técnico e presidente do INESC, explica que “é uma questão complicada” em “que não existe unanimidade na comunidade científica, nem sequer entre os especialistas com áreas de trabalho próximas”. Decidiu não subscrever esta carta. “Acompanho há alguns anos as posições do Future of Life Institute, mas isso não significa que esteja inteiramente alinhado com as suas preocupações.” Neste caso, considera que existem algumas afirmações e perguntas na carta que “são claramente prematuras face ao estado atual da tecnologia”.

Oiça aqui a História do Dia sobre a inteligência artificial, com Arlindo Oliveira

A carta aberta, datada de 22 de março, considera que “os sistemas contemporâneos de IA estão agora a tornar-se concorrentes dos humanos em tarefas gerais”, questionando se se deve “deixar as máquinas inundar canais de informação com propaganda” ou se “se deve automatizar todos os trabalhos”. “Sistemas poderosos de IA devem ser desenvolvidos apenas quando se está confiante de que os efeitos vão ser positivos e que os riscos vão ser geridos”, considera o Future of Life Institute, que tem Elon Musk não só como conselheiro externo como também como um dos principais patrocinadores.

A carta pede que, além de a investigação e desenvolvimento de IA ser focada em tornar os sistemas “mais precisos, seguros, interpretáveis, transparentes, robustos, de confiança e leais”, os laboratórios possam colaborar com os reguladores para “acelerar de forma dramática o desenvolvimento de sistemas robustos de governança de IA”. Neste campo, é pedido que, no mínimo, haja autoridades regulatórias dedicadas à IA e um sistema de supervisão “altamente capaz”.

“Acompanho há alguns anos as posições do Future of Life Institute, mas isso não significa que esteja inteiramente alinhado com as suas preocupações.” Neste caso, Arlindo Oliveira, professor do Instituto Superior Técnico, considera que existem algumas afirmações e perguntas na carta que “são claramente prematuras face ao estado atual da tecnologia”. Não subscreveu a carta aberta.

“A humanidade pode ter um futuro próspero com a IA”, é possível ler na carta, mas só se houver tempo para “criar sistemas com benefícios claros para todos e com tempo para a sociedade se adaptar”. Referindo que “a sociedade já pôs em pausa outras tecnologias com efeitos potencialmente catastróficos para a humanidade”, pede-se um intervalo de pelo menos seis meses até que seja treinado um modelo mais poderoso do que o GPT-4, desenvolvido pela norte-americana OpenAI e anunciado no mês passado. A pausa deve ser “pública e passível de ser verificada” e, num cenário em que não haja uma reação rápida, “os governos devem ser chamados a instituir uma moratória”.

IA. Novo “motor” do ChatGPT percebe piadas em imagens e tira positiva em testes. O que mais consegue fazer?

Entre os especialistas ouvidos pelo Observador, há quem tenha dúvidas sobre a realização desta pausa. Arlindo Oliveira, do Instituto Superior Técnico, considera que o pedido é “francamente não exequível face à rápida evolução e popularização destes modelos, que em breve serão acessíveis a muita gente”. “Entendo que a sugestão de um período de reflexão e análise sobre o potencial efeito destas tecnologias, agora que se tornaram populares, pode ser adequada”, diz Arlindo Oliveira. “Porém, a carta está escrita em termos catastrofistas, apontando possíveis riscos que não fazem sentido face ao estado atual da tecnologia.”

“Uma pausa no desenvolvimento vai ter pouco efeito na disseminação dos modelos LLM”, admite Virginia Dignum, professora de ciências da computação na Umeå University, na Suécia, referindo-se aos grandes modelos de linguagem. “Acho que uma pausa no uso poderá ser uma abordagem mais eficaz”, exemplificando com o bloqueio do ChatGPT anunciado em Itália. “Os principais riscos estão na forma como as pessoas e as organizações estão a usar e a fazer um mau uso dos LLM.”

Itália bloqueia ChatGPT por alegadas violações de privacidade

Para já, esta especialista antecipa que a carta aberta “vá gerar principalmente uma discussão acesa”, mas tem esperança de que “as organizações internacionais e governos percebam que a bola está do lado deles: avançar de uma forma responsável e benéfica é principalmente uma questão de governança adequada”.

Além disso, há outra questão de relevo que Dignum considera ter ficado de fora da carta: as preocupações com o impacto ambiental destes modelos e a sua transparência. “Não só há o consumo de energia, como também os recursos humanos e a dignidade humana e a grande quantidade de recursos necessários para a sua infraestrutura física.”

ChatGPT. CNPD leu “com muito interesse” decisão de bloqueio em Itália mas não prevê para já algo semelhante em Portugal

Quem é quem entre os subscritores da carta aberta

A lista de signatários da carta aberta tem feito correr tinta. Além de Musk e Wozniak, também constam os nomes de Yuval Noah Harari, escritor e professor israelita, conhecido pelos bestsellers “Sapiens” e “21 Lições para o Século XXI”, e Craig Peters, CEO da Getty Images. No início deste ano, a conhecida agência de imagens avançou com um processo contra a Stability AI, acusando a empresa de ter usado fotografias protegidas por direitos de autor para treinar o modelo de inteligência artificial.

Quer tornar-se num deus? Pergunte como a Yuval

Há uma forte presença de nomes ligados ao mundo académico, como Yoshua Bengio, professor canadiano conhecido como o “padrinho da IA” e vencedor do prémio Turing, uma das mais prestigiadas distinções nesta área da IA, ou John J. Hopfield, o inventor das redes neuronais associativas. “Acho que tem existido uma aceleração inesperada – provavelmente não assinaria a carta há um ano – e que precisamos de dar um passo atrás. A minha opinião em relação a estes temas mudou”, justificou o professor canadiano Bengio numa publicação no seu blog, referindo que a chegada do ChatGPT contribuiu para essa aceleração. “Temos de tirar algum tempo para compreender melhor estes sistemas e desenvolver os quadros necessários a nível nacional e internacional para aumentar a proteção pública.”

Embora uma boa parte das assinaturas venha do mundo académico, também há representantes de empresas na lista, incluindo Evan Sharp, co-fundador do Pinterest, e Jann Tallinn, co-fundador do Skype e atualmente no Centro para o Estudo de Risco Existencial. Há também presença de investigadores associados a empresas que concorrem diretamente com a criadora do ChatGPT, como a DeepMind, rival da OpenAI na investigação de inteligência artificial, ou nomes ligados à Meta, a dona do Facebook e do Instagram.

O Future of Life Institute continua a aceitar assinaturas, que estão a ser verificadas de forma gradual. A Motherboard avançou que, numa fase inicial, a carta foi lançada sem protocolos para confirmar a veracidade das assinaturas – o que levou à inclusão de falsos signatários na lista, como o próprio CEO da OpenAI, Sam Altman, ou o Presidente da China, Xi Jinping. Durante alguns momentos, também o nome de Yann LeCun, chefe da área de inteligência artificial da Meta, figurou na lista. O investigador recorreu ao Twitter para explicar que “não assinou a carta”. “Discordo desta premissa.”

[Pode ouvir aqui o quinto episódio da série em podcast “O Sargento na Cela 7”. E ouça o primeiro episódio, o segundo episódio, o terceiro episódio e o quarto episódio. É a história de António Lobato, o português que mais tempo esteve preso na guerra em África]

Ofereça este artigo a um amigo

Enquanto assinante, tem para partilhar este mês.

A enviar artigo...

Artigo oferecido com sucesso

Ainda tem para partilhar este mês.

O seu amigo vai receber, nos próximos minutos, um e-mail com uma ligação para ler este artigo gratuitamente.

Ofereça até artigos por mês ao ser assinante do Observador

Partilhe os seus artigos preferidos com os seus amigos.
Quem recebe só precisa de iniciar a sessão na conta Observador e poderá ler o artigo, mesmo que não seja assinante.

Este artigo foi-lhe oferecido pelo nosso assinante . Assine o Observador hoje, e tenha acesso ilimitado a todo o nosso conteúdo. Veja aqui as suas opções.

Atingiu o limite de artigos que pode oferecer

Já ofereceu artigos este mês.
A partir de 1 de poderá oferecer mais artigos aos seus amigos.

Aconteceu um erro

Por favor tente mais tarde.

Atenção

Para ler este artigo grátis, registe-se gratuitamente no Observador com o mesmo email com o qual recebeu esta oferta.

Caso já tenha uma conta, faça login aqui.