Um grupo de investigadores e líderes de empresas ligados à área da inteligência artificial (IA) alerta para os riscos associados a esta tecnologia. Numa curta carta aberta é pedido que se dê prioridade a formas de mitigar o possível “risco de extinção”.

“Mitigar o risco de extinção trazido pela IA deve ser uma prioridade global, tal como acontece outros riscos sociais, como as pandemias ou uma guerra nuclear”, é possível ler na curta nota publicada pelo Center for AI Safety, uma organização sem fins lucrativos. No entanto, não são feitas recomendações ou sugestões sobre como é que se pode fazer mais para combater os riscos.

[Ouça aqui o segundo episódio do podcast “Piratinha do Ar”, a história real do miúdo de 16 anos que sequestrou um avião da TAP com 82 passageiros a bordo. Se perdeu o primeiro episódio, pode encontrá-lo aqui]

Na lista de signatários, que conta com cerca de 350 nomes, saltam à vista os nomes dos líderes de várias empresas que estão a trabalhar na área da IA. É o caso de Sam Altman, o CEO da OpenAI, a empresa responsável pelo ChatGPT, de Demis Hassabies, CEO da Google DeepMind, uma rival da OpenAI, ou Dario Amodei, CEO da Anthropic. Amodei já trabalhou para a OpenAI, mas atualmente está à frente da Anthropic, a startup que recebeu um investimento de 400 milhões da Google.

PUB • CONTINUE A LER A SEGUIR

Google investe 400 milhões na Anthropic, a startup que rivaliza com a criadora do ChatGPT

Há ainda vários signatários da Microsoft, desde o diretor tecnológico Kevin Scott até ao diretor científico Eric Horvitz. Também o co-fundador do Skype, Jann Tallin, e Dustin Moskovitz, co-fundador e CEO da empresa responsável pelo software de gestão Asana, assinaram a carta.

Além de executivos ou fundadores de empresas, há vários investigadores a assinar o curto alerta, inclusive Yoshua Bengio e Geoffrey Hinton, conhecidos como “padrinhos” da IA moderna. Venceram, em 2018, em conjunto com Yann LeCun, o Prémio Turing, uma das distinções mais prestigiadas nesta área da IA. LeCun, que trabalha para a Meta, não figura na lista de signatários.

Ao jornal New York Times, Dan Hendrycks, o diretor-executivo do Center for AI Safety, disse que a carta aberta torna públicos os receios que alguns líderes da indústria já demonstravam em privado. “Há uma ideia errada muito comum, até na comunidade de IA, de que só há algumas pessoas que condenam [a questão]”. “Mas, de facto, muitas pessoas já expressaram de forma privada os seus receios.”

Não é a primeira vez que surgem alertas para os riscos da IA. A 16 de maio, o líder da OpenAI e uma responsável da IBM foram ouvidos no Congresso dos Estados Unidos, onde defenderam a necessidade de regulação na área da IA. Sam Altman esteve no centro das atenções, alertando que se, a IA “correr mal, pode correr bastante mal”.

OpenAI e IBM pedem regras para IA. “Se esta tecnologia correr mal, pode correr bastante mal”, alerta dona do ChatGPT

Em março, mais de mil investigadores e executivos ligados ao mundo da tecnologia e investigação assinaram uma carta aberta onde pediam uma pausa de seis meses no desenvolvimento de grandes modelos de linguagem mais poderosos do o GPT-4, lançado este ano pela OpenAI.

Do risco de “cair nas mãos erradas” ao esforço “para preservar” a humanidade. As motivações de quem pede “pausa” nas experiências de IA

​​