Índice
Índice
Max Tegmark é professor de inteligência artificial (IA) e investigação em física no instituto norte-americano MIT e ainda presidente do Future of Life Institute, uma organização sem fins lucrativos que quer uma tecnologia que evolua beneficiando a humanidade.
Em entrevista ao Observador, durante a Web Summit em Lisboa, reforça que a indústria tecnológica não deve caminhar para o próximo nível da IA, a inteligência artificial geral (AGI, em inglês), uma etapa em que as máquinas vão superar a inteligência dos humanos. O especialista critica a “loucura” de empresas como a OpenAI ou a Google, e o que arriscam na ambição para atingir a AGI. “Estão presos nesta corrida suicida” por temerem que a concorrência “chegue lá primeiro”.
“Ninguém neste momento faz ideia ou tem alguma pista sobre como controlar a AGI”, considera. Por isso, é preciso adotar “padrões de segurança” nesta tecnologia, antes que os riscos aumentem.
Avançar na inteligência artificial geral? “Não, é uma loucura”
Numa das suas intervenções na edição deste ano referiu que são necessários padrões de segurança (standards). O que é que quer dizer com isso, o que é que seria um bom padrão de segurança para a IA agora?
Bem, qualquer indústria tem padrões de segurança, certo? Se quiser abrir um restaurante, tenho a certeza de que a cidade de Lisboa tem alguns critérios de segurança. Não é possível ter ratos na cozinha e coisas do género. A parte mais importante é mesmo que deve haver padrões de segurança. E, para perceber o que devem ser, é preciso ter alguns especialistas de IA e deixá-los falar uns com os outros, de certeza que vão resolver alguma coisa. Isso é o primeiro passo, tem de existir alguma coisa. O AI Act da União Europeia é um primeiro passo maravilhoso nessa direção.
Como vê a abordagem da UE, que é uma abordagem baseada em risco?
Acho que é um bom começo, não é suficiente, mas é bom começo. Na América não temos nada significativo que seja como isto. Por isso uma empresa norte-americana, se conseguir chegar a uma IA geral (AGI) em março, pode só lançá-la e é completamente legal.
Acha que seria possível chegar a uma AGI em março?
Provavelmente não, mas talvez em dezembro do próximo ano ou em 2026.
A sério?
Não tenha só em conta a minha palavra. O Sam Altman disse num podcast na semana passada que, pela primeira vez na sua vida, sabem exatamente o que têm de fazer, que já não restam grandes pontos desconhecidos.
A OpenAI sabe o que tem a fazer, então, mas acha que deve fazê-lo [avançar para uma AGI]?
Não.
Porquê?
É uma loucura. Não devíamos fazê-lo até perceber como é que se controla, claro. Não se constrói um reator nuclear se não se percebe como é que se controla. O ponto de uma tecnologia poderosa é que se quer controlá-la, certo? Qual foi o carro mais rápido que já conduziu?
Não faço ideia.
Já conduziu um Porsche?
Não, não tenho um…
(Risos) Ok, se se tem um carro é bom que seja poderoso, mas não se quer que seja incontrolável. O que estava a dizer é que basicamente precisamos de mais IA que seja uma ferramenta, algo que podemos controlar. E a AGI não é uma ferramenta, porque as pessoas não fazem ideia de como controlá-la. O Geoffrey Hinton [um dos padrinhos da IA, que já deixou alertas sobre a evolução da tecnologia], que ganhou o Prémio Nobel, já disse que não fazemos ideia de como controlar a AGI. Talvez possamos descobrir dentro de 20 anos, mas certamente não a tempo. Vamos ser capazes de perceber como criá-la antes de perceber como controlá-la.
Pegando no exemplo da OpenAI, por que razão querem chegar à AGI? Porque neste momento só temos uma ideia geral do que é a AGI, que vai ultrapassar a inteligência humana. E depois, o que é que acontece? Vai ser aplicada a algum negócio, qual é o objetivo
Deve perguntar-lhes, deve perguntar ao Sam Altman. As pessoas que estão a tentar desenvolvê-la atualmente, todas esperam conseguir controlá-la. Mas mesmo que não tenham a certeza, têm medo de parar porque sabem que, se o fizerem, porque não há regulação, a concorrência vai criá-la de qualquer forma. Portanto estão presos nesta corrida suicida. É por isso que é tão importante ter critérios de segurança, porque só quando o governo disser “ei, não podem vender estas coisas se não demonstrarem que perceberam como controlá-las”. Dessa forma as pessoas não têm de se preocupar se a concorrência chega lá primeiro.
Mas são empresas que estão maioritariamente na América e a quem foi permitido vender coisas que não fazem ideia de como controlar. Portanto, estão todas na esperança de que alguém consiga perceber como controlá-la primeiro, antes de ser feito.
E o que é que acontece se ninguém perceber como é que se controla?
Então vamos perder o controlo. Basicamente, vamos ter máquinas que conseguem fazer todos os trabalhos melhor do que os humanos. E isso inclui o trabalho de investigação de IA e a construção de robôs inteligentes. Portanto, vamos ter robôs a construir fábricas de robôs que vão fazer novos robôs que são ainda mais inteligentes, que vão criar novas fábricas de robôs que são ainda mais inteligentes…
Isto não é só uma nova tecnologia, é na verdade uma nova espécie, certo? Porque os robôs vão estar a fazer outros robôs. E muito em breve serão os robôs a estar à frente do planeta, porque são muito mais inteligentes do que nós. Há duas espécies que querem coisas diferentes, a inteligente é quem controla. Nós, humanos, controlamos os tigres. Já foi ao zoo de Lisboa?
Já.
Então, não são os tigres a controlar os humanos, são os humanos a controlar os tigres. Porquê? Porque não ao contrário? Quer dizer, os tigres são mais fortes.
Certo.
Mas porque é que controlamos os tigres?
Porque temos inteligência?
Sim, mas eles também. Só que nós somos mais inteligentes, é por isso que os controlamos. Se criarmos uma espécie de robôs que nos supera na inteligência, então o resultado natural é que nos passem a controlar — e isso não é do nosso interesse.
IA está nas mãos de um número reduzido de empresas? “Não gosto de concentração de poder”
Mencionou empresas que estão nos EUA e que estão a levantar ondas no mercado agora de IA: a Microsoft, a OpenAI, por exemplo. Como vê esta questão de haver uma tecnologia como a IA nas mãos de um número reduzido de empresas?
Não gosto. Não gosto de concentração de poder. Quer dizer, há duas razões para se ser contra a concentração de poder. Uma delas é óbvia: eu acredito na democracia e não acho que todas as grandes decisões devam ser feitas de forma não democrática por um grupo de pessoas num conselho de administração e que não foram eleitas, certo? Mas mesmo que não se queira saber disso, acho que é só mau para a inovação. A concentração de poder dá um monopólio gigante que inova menos.
E os EUA já têm problemas com a monopolização na tecnologia…
Certo.
E que é uma questão que ainda não foi resolvida.
Sim, como é que a Boeing é uma empresa tão má a inovar quando os seus aviões caem e perdem portas? Porque são, de facto, um monopólio, é por isso. Se houvesse mais empresas pequenas em vez de existir a Boeing haveria mais inovação. Teríamos aviões com uma qualidade superior.
Vê atualmente espaço para as empresas pequenas de IA?
Acho que sim, se se parar a corrida para a AGI com parâmetros de segurança, aí haveria uma idade de ouro para as pequenas empresas poderem competir em todas estas ferramentas que vão resolver problemas. As pequenas empresas são muito boas nisso porque conseguem encontrar um nicho em que há uma necessidade que ainda não teve resposta, uma necessidade de negócio e criar ferramentas para isso.
As grandes empresas de tecnologia parecem estar a fazer algo descrito como acqui-hire [contratam recursos humanos de uma empresa para obter capital humano]. Por exemplo, a Microsoft contratou o fundador da Deepmind [que estava à frente da Inflection.AI].
Sim, o Mustafa Suleyman.
“A segurança da IA está longe de ser um problema resolvido”, diz cofundador da DeepMind
E isso não acontece só com a Microsoft, certo? Ou quando uma gigante contrata alguém de uma pequena empresa pequena do setor da IA que começa a dar nas vistas: é possível controlar este tipo de contratações pelas empresas grandes?
Bem, isso é uma questão antiga. Se recuarmos até Theodore Roosevelt, nas últimas décadas de 1800, até à regulação antitrust para tentar impedir a formação de monopólios gigantes. Isto é uma questão contra a qual lutamos há mais de 100 anos. É muito mau para a inovação e democracia ter monopólios gigantes.
Mas existem…
Sim, infelizmente. Acho que onde corre mal, mesmo que tenhamos leis contra eles, é que as empresas quando ficam muito poderosas conseguem fazer limitar a regulação, há práticas de corrupção para, basicamente, comprar os políticos.
E também se faz lobbying?
Sim. As empresas tecnológicas têm mais pessoas a fazer lobbying em Bruxelas que as petrolíferas, sabia?
E em Washington também?
Bem, em ambos os locais. E também compram jornais. Cada vez mais jornais são comprados ou controlados por empresas de media. Em Portugal, os jovens recebem a maioria das notícias pelas redes sociais, que também são empresas norte-americanas e não portuguesas, certo? Portanto, se essas empresas por alguma razão não quiserem que os portugueses leiam coisas más sobre o Facebook, vão limitar isso. As empresas tecnológicas não estão só a fazer lobby junto dos políticos, também têm muitas outras técnicas para consolidar o seu poder.
Carta de pausa de seis meses na IA “foi um enorme sucesso” por tornar a conversa sobre riscos em algo de massas
No ano passado, o Future of Life Institute fez uma carta aberta a pedir uma pausa de seis meses no desenvolvimento de grandes modelos de IA. Mas não houve essa pausa.
Oh, não, mas foi um enorme sucesso. O objetivo… Nunca pensei, claro, que haveria alguma pausa, não era o nosso objetivo com a carta.
Mas acha que seria sequer possível ter uma pausa de seis meses?
Sim, mas… Já explico esse ponto. O nosso objetivo com a carta era tornar a conversa sobre o risco da IA em algo mainstream e fazer com que fosse socialmente seguro falar sobre estas coisas. E realmente foi bem sucedido. Antes disso, havia muita ansiedade por expressar. Havia muitas pessoas, pessoas noutras áreas, políticos, que se sentiam preocupados, mas que sentiam que não era socialmente seguro falar sobre isso. As pessoas tinham medo de parecer idiotas porque não sabiam sobre o que se estava a falar.
Mas quando a carta foi assinada pelo Yoshua Bengio [investigador de IA que venceu o Prémio Turing] e outras pessoas… As pessoas sentiram, bem, se o Yoshua Bengio está preocupado, é claro que ninguém me pode criticar por estar preocupado também. E isso fez com que fosse socialmente seguro para as pessoas assinarem a próxima carta que surgiu dois meses depois a alertar para o [perigo de] extinção, que foi assinada também por Sam Altman [OpenAI], Demis Hassabis [Google Deepmind], Dario Amodei [Anthropic] e Geoffrey Hinton e por aí fora. É por causa dessas cartas que tivemos a cimeira de Lexley Park, a cimeira da Coreia, a de Paris que ainda vai acontecer ou que Ursula von der Leyen disse que a IA representa um risco existencial.
Nada disso teria acontecido se não fosse a carta a pedir a pausa. Foi isso que fez com que fosse seguro para todos os políticos começarem a falar sobre isso, era o primeiro passo necessário.
Uma das críticas a algumas das cimeiras é que a Google e a OpenAI também têm lugar nas conversações. Regular a IA deveria ser uma conversa apenas para especialistas e académicos ou também há que ter empresas envolvidas?
Claro, acho que há muita interferência na regulação. Essas decisões deveriam ser tomadas por políticos democraticamente eleitos, não pelos CEO. Mas as cimeiras ainda assim foram ótimas, porque passámos os últimos 10 anos sem nenhuma cimeira. É melhor ter alguma coisa do que não ter nada. E é um princípio, agora precisamos de mais. E essas coisas não teriam acontecido sem a carta.
Voltando ao que disse, imagine se o Governo português decidisse fazer uma cimeira sobre cancro em Portugal e as únicas entidades convidadas como especialistas para eram CEO de empresas de tabaco. Isso seria bastante ridículo, certo? Então é igualmente ridículo dizer “vamos falar sobre o que devemos fazer sobre o risco de AGI” e convidar todos os CEO de IA. Tudo bem em deixar que essas pessoas também expressem as suas opiniões sobre os temas, mas não devem estar na mesa quando as decisões são tomadas.
“Devia haver algo semelhante à FDA para IA, que definisse os padrões de segurança para a IA”
Na semana passada, os EUA elegeram Donald Trump novamente, Trump 2.0, como tem sido referido na Web Summit. O que acha que mudará no que diz respeito aos esforços de regulamentação da IA? Acha que vão parar?
Ou serão reduzidos ou será intensificados, depende de quanta influência Elon Musk tem sobre Trump.
O que pensa sobre esse relacionamento? Foi anunciado esta quarta-feira que Musk vai ter funções.
Sim, no Departamento de Eficiência Governamental. É no governo, juntamente com Vivek Ramaswamy. É muito difícil prever, claro, como as coisas vão acontecer, mas é bem claro, pelo menos até agora, que Trump ouve bastante Elon Musk. Falam muito, parecem falar muito. E, se isso se traduzir em alguma influência na política de IA, acho que veremos regulamentação, porque o Elon, claro, quer isso. Há mais de dez anos que quer regulamentação da IA. E sabemos que não é apenas bluff, porque quando a regulamentação SB-1047 da Califórnia [iniciativa no Estado para regular a IA] estava a ser debatida, a OpenAI, Sam Altman manifestou-se contra, a Google DeepMind também e Elon Musk da xAI manifestou-se a favor, embora sua empresa esteja na Califórnia e fosse ser alvo de regulamentação. Isso é algo que ele apoiou. Não é só conversa fiada, é o que estou a dizer.
Mas ele também muda muito de ideias, não?
Não sobre isto, acho eu, porque ele diz a mesma coisa há exatamente dez anos. Conheço o Elon há mais de dez anos e isso é muito claro, definitivamente entende [o risco]. Não pensa na IA como apenas mais uma tecnologia que é como todas as outras, definitivamente compreende que isto se tornará na tecnologia mais poderosa da história da humanidade e, ou será a melhor coisa de todas ou a pior de todas.
O Elon definitivamente entende que o cérebro é um computador biológico e que é possível construir outros muito mais poderosos. Ele pensa um pouco mais no panorama geral do que muitos outros empresários. Quer que a vida dure muito tempo, que seja multiplanetária, multiestelar e assim por diante, e definitivamente não quer que percamos o controlo sobre algumas novas espécies de robôs. E ele acha que haverá um enorme anticlímax depois de tudo isso, que vamos simplesmente deitar tudo fora. É por isso que quer regulamentação, é claro. Mas se Trump vai ouvi-lo, essa é outra questão a que não posso responder, você precisaria de falar com um psicólogo para isso.
Até agora não ouvimos Trump falar muito sobre IA. O que pensa sobre isso?
Donald Trump falou um pouco sobre a IA, incluindo sobre os riscos. Vai ser interessante ver. Espero, obviamente, que o Elon tenha sucesso em fazer com que Donald Trump regule a IA. Mas teremos que esperar para ver.
Para si, qual seria o melhor cenário nessa questão?
Ter padrões de segurança. No fim de contas, temos a FAA, que tem padrões de segurança para os aviões, temos o FDA na América que tem padrões de segurança para os medicamentos. Devia haver algo semelhante à FDA para IA, que definisse os padrões de segurança para a IA.
E pode ser simples, começar com um critério [de segurança] muito baixo e coisas com as quais todos possam concordar. Por exemplo, antes de poder vender uma IA, ter que demonstrar que ela não vai ensinar terroristas a fazer armas biológicas, coisas deste tipo. E há que demonstrar que não vai auto-melhorar-se e fazer com que perca o controlo. Esses são os padrões muito pouco controversos que gostaria que fossem respondidos. A segunda coisa que disse já descarta a AGI. Porque ninguém neste momento faz ideia ou tem alguma pista sobre como controlar a AGI, então isso ia ‘comprar-nos’ muito tempo.
Se isso acontecer, então teremos uma era de ouro com todos os tipos de ferramentas maravilhosas de IA por 10 anos, 20 anos ou mais, até que alguém talvez um dia descubra como se pode controlar a AGI.
Tem alguma pista sobre uma possível forma de controlar a AGI?
Neste momento, temos os especialistas globais… Realmente não sabemos. Como mencionei no palco, felicito empresas como a OpenAI por gastarem uma pequena fração do seu dinheiro a tentar resolver o problema do controlo, mas elas não chegam sequer perto [da questão]. O maior sucesso que tiveram até agora foi treinar grandes modelos de linguagem para não dizer coisas prejudiciais, em vez de não quererem coisas prejudiciais. É como treinar um serial killer para nunca dizer nada que revele os seus desejos assassinos — não resolve o problema, apenas o varre para debaixo do tapete. Já que esse é o maior sucesso, isso dá-nos uma ideia de quão longe estamos de resolvê-lo.
E, para piorar as coisas, a primeira AGI que será construída obviamente não será um grande modelo de linguagem puro, pode ser como um lote de modelos de linguagem grande que interagem com outras ferramentas e coisas do género, num sistema híbrido. Não tenho ideia de como controlar isso enquanto ele se vai melhorando.
Já percebi que não quer a AGI, mas acha que há alguma empresa que esteja a chegar perto desse ponto?
Claro, acho que a OpenAI está bastante perto, a Anthropic também. A Google Deepmind também está próxima, é o que todas elas dizem.
Mas considera que estejam todas no mesmo nível?
Tentam manter os seus segredos corporativos, é claro. Mas houve denunciantes, especialmente aqueles que saíram da OpenAI, que se manifestaram e que dizem que eles estão bastante próximos.
A OpenAI está a ter muitos…
(Interrompe) Dramas?
Muitos executivos de topo que estão a sair da empresa. Acha que está relacionado com a possível aproximação à AGI?
Claro. Muitos dos denunciantes e outros [trabalhadores] sentem que a empresa está a colocar os lucros à frente da segurança.
Viragem da OpenAI para o lucro pode incluir compensação ao CEO. Saídas de executivos continuam
E também há notícias ligadas à alteração da estrutura corporativa.
Sim, que falam sobre passar de organização sem fins lucrativos para uma com fins lucrativos. Mas honestamente, mesmo que a OpenAI esteja a receber mais notícias negativas na imprensa do que as outras empresas, isso não significa que as outras empresas estejam a ser particularmente responsáveis. Acho que é completamente indefensável que qualquer empresa esteja a avançar para desenvolver a AGI antes de termos alguma ideia de como a controlar. E acho que a Google DeepMind se manifestou contra uma lei muito fraca como a SB-1047.
Também há um lado negativo. Então, estou muito feliz por estar na Europa agora, onde pelo menos temos o EU AI Act e ainda políticos democraticamente eleitos a tomar algumas decisões.