887kWh poupados com a
i

A opção Dark Mode permite-lhe poupar até 30% de bateria.

Reduza a sua pegada ecológica.
Saiba mais

GettyImages-1796632157
i

O ChatGPT foi disponibilizado globalmente em novembro de 2022

SOPA Images/LightRocket via Gett

O ChatGPT foi disponibilizado globalmente em novembro de 2022

SOPA Images/LightRocket via Gett

Na inteligência artificial, há um antes e um depois do ChatGPT. É em 2024 que a tecnologia vai fazer tudo por nós?

2023 foi o ano em que os modelos de IA se massificaram. Em 2024, os especialistas antecipam o crescimento de modelos multimodais e também do debate mais intenso à volta da IA.

    Índice

    Índice

Há um antes e um depois do lançamento do ChatGPT. Quase da noite para o dia, a inteligência artificial (IA) tornou-se simples e de interação fácil. O mundo começou a brincar com um chatbot que conseguia responder a pedidos caricatos, desde escrever cartas como se fosse William Shakespeare até dar uma ajuda com os trabalhos de casa. Foi a primeira vez em que um grande modelo de linguagem (large language model, em inglês, também conhecido pela sigla LLM), um exemplo da IA generativa, se tornou um produto de massas — foram precisos só dois meses para o serviço da OpenAI alcançar a marca de 100 milhões de utilizadores.

No ano passado, já se notava a popularidade do serviço nascido nos laboratórios da OpenAI, mas só ao longo de 2023 é que se conseguiu perceber o impacto do lançamento. Arlindo Oliveira, professor do Instituto Superior Técnico (IST) e presidente do INESC, não tem dúvidas: foi mesmo o ano dos modelos de linguagem, “em que estas novas ferramentas se implantaram e se tornaram mesmo indispensáveis para as novas gerações e importantes para as próximas”, explica ao Observador. “Acho que essa foi a grande transformação de 2023.”

De repente, através dos modelos de linguagem, a IA, que antes parecia algo distante, passou a estar “no imaginário coletivo”, nota o especialista. E, em 2023, não houve indústria em que não se falasse do uso da IA.

Não se falou apenas sobre o potencial e os benefícios – também houve muitas discussões sobre os perigos, quer a nível social, com várias dúvidas sobre como fica o emprego com a IA, quer do papel que pode assumir em fenómenos como a desinformação ou as burlas online. 

PUB • CONTINUE A LER A SEGUIR

Foi o ano “em que estas novas ferramentas se implantaram e se tornaram mesmo indispensáveis para as novas gerações e importantes para as próximas”, explica Arlindo Oliveira. “Acho que essa foi a grande transformação de 2023.”

Com várias empresas com o pé no acelerador para tentar superar as concorrentes e liderar na IA, o que pode trazer o próximo ano? Mais modelos, incluindo multimodais, mas também um aumento da intensidade das discussões à volta das potencialidades e riscos desta tecnologia, acreditam os especialistas.

O que se passou em 2023…

O ano em que o ChatGPT ganhou alguns rivais

No início de 2023, todas as atenções estavam viradas para o ChatGPT. Os utilizadores divertiam-se a testar os limites do chatbot, fazendo pedidos cada vez mais complexos. Mas também começaram as apostas de como iria reagir a concorrência à popularidade do ChatGPT, que em apenas dois meses alcançou mais de 100 milhões de utilizadores, tornando-se no serviço de consumo de crescimento mais acelerado. Os números mais recentes, revelados pela OpenAI, indicam que o chatbot tem 100 milhões de utilizadores ativos por semana. 

Por isso, gigantes como a Google, que em 2014 pagou 400 milhões de dólares pelo laboratório de IA DeepMind, não quiseram ficar para trás. Logo em fevereiro, foi anunciado o Bard, um chatbot para rivalizar com o ChatGPT que, no entanto, numa primeira fase, só esteve disponível para um grupo restrito de utilizadores, sempre acompanhado de avisos de que era um serviço experimental. À medida que o tempo foi passando, a tecnológica abriu a lista de espera para que mais pessoas pudessem interagir com o serviço. Em julho, chegou a Portugal, apenas em inglês. Quase no fim do ano, a Google revelou um novo modelo, já multimodal, chamado Gemini, que por enquanto ainda não está disponível ao público.

Google responde ao fenómeno ChatGPT com lançamento do serviço de conversação com inteligência artificial Bard

Não demorou muito até que houvesse ainda mais companhia para estes dois rivais. A Anthropic, a startup dos irmãos Amodei, ex-trabalhadores da OpenAI, apresentou em março o Claude, um assistente pessoal baseado em IA, que consegue resumir, procurar informação, responder a questões, escrever código.

GettyImages-1258586411

O Bard, da Google, foi apresentado em fevereiro

NurPhoto via Getty Images

A própria OpenAI não quis ficar à “sombra” da sua criação e, em março, evoluiu para o GPT-4 que chegou, conforme anunciado em novembro, a outro avanço, o GPT-4 Turbo. Apenas ao alcance de clientes que subscrevem os produtos da empresa, este modelo foi apresentado como mais poderoso do que o antecessor e já com informação até abril de 2023. Até aqui, os utilizadores interagiam com modelos treinados com informação registada apenas até setembro de 2021. “Ficamos tão aborrecidos quanto vocês, provavelmente mais, até, por só haver informação até 2021”, brincou Altman na apresentação do modelo. “Vamos tentar que nunca mais fique assim tão desatualizado.”

Dona do ChatGPT lança modelo “turbinado”: vem aí o GPT-4 Turbo, que já inclui informação de 2023

Elon Musk, o dono da Tesla e do X, antigo Twitter, fez parte da equipa que criou a OpenAI, mas em 2018 decidiu afastar-se, alegando conflito de interesses entre a empresa e a Tesla. A animosidade de Musk para com a OpenAI foi crescendo, até que o homem mais rico do mundo decidiu lançar em julho a xAI, a sua rival para a OpenAI. O primeiro resultado de investigação em IA da empresa só chegou meses mais tarde, já em novembro, com o lançamento do Grok.

Musk descreveu o primeiro modelo desenvolvido pela startup como um chatbot que “adora sarcasmo” e que responde com “um pouco de humor” aos pedidos dos utilizadores. E tem uma grande diferença em relação à concorrência – consegue aceder em “tempo real” a informação disponível no X. Outros serviços, como o ChatGPT, só obtêm dados das redes sociais até determinado período de tempo.

A indústria assistiu com naturalidade ao surgimento destes rivais do ChatGPT, numa clara tentativa de dar resposta ao abanão que o lançamento da OpenAI provocou. Afinal, 2023 foi também o “ano em que esta tecnologia se colocou como uma ameaça a alguns gigantes tecnológicos”, contextualiza Arlindo Oliveira, do Técnico e do INESC. “Percebeu-se que as tecnologias que estavam a ser usadas até agora e os motores de busca como o da Google vão sofrer uma evolução muito rápida com estas tecnologias de modelos de linguagem”.

Isso mesmo teve oportunidade de perceber quando, em dezembro, esteve na sede da Google, em Silicon Valley, nos EUA. A gigante da internet, diz,  “está francamente com muita atenção aos desafios concorrenciais ao seu modelo de negócio que advêm destas tecnologias”.

Google é um “gorila” na pesquisa que a Microsoft quer “pôr a dançar” na inteligência artificial

O debate sobre os riscos e as implicações da IA

Com as oportunidades, também chegaram os riscos. Nas escolas e universidades, os professores passaram a receber trabalhos feitos pelo ChatGPT. Na indústria cultural, foram publicados livros escritos pelo chatbot e até houve artistas a receber prémios por obras geradas por IA.

Já há livros “escritos” por ChatGPT à venda na Amazon

Os temores em relação à IA também se chegaram a Hollywood: a greve dos argumentistas, que marcou o verão, foi convocada também devido às preocupações com o impacto da tecnologia. Na altura, foi mencionada a possibilidade de a IA vir a substituir alguns guionistas ou mesmo que pudesse ser usada para criar conteúdos sem remunerar os devidos autores.

Salários, streaming e Inteligência Artificial. Que greve é esta que ameaça parar Hollywood por tempo indeterminado?

É mesmo de Hollywood que têm chegado, ao longo dos anos, histórias ficcionadas incorporando os temores de que o desenvolvimento da IA coloque em risco a Humanidade. Em “Exterminador Implacável”, uma IA evoluída fez estragos quando passou a ver a humanidade como uma ameaça. Mas, os especialistas consideram que os modelos que existem atualmente, embora sejam “cada vez mais competentes”, ainda estão longe das competências que a ficção científica popularizou, reconhece David Matos, professor universitário e investigador no Técnico, em Lisboa. “Acho que está a haver uma normalização passado o pânico inicial de que vinha aí a Skynet [o sistema de inteligência artificial do Exterminador]”, brinca o professor universitário.

Mas a visão para o futuro da IA está longe de ser unânime, mesmo no meio académico. Em abril, uma carta do Future of Life Institute fez correr tinta com um pedido dirigido a quem desenvolve modelos de IA: façam uma pausa de meio ano nas experiências antes de lançarem modelos mais poderosos do que o GPT-4. Como já se percebeu, uma vez que até a OpenAI já vai no GPT-4 Turbo, o pedido não surtiu efeito.

No topo da lista de signatários estavam nomes como Elon Musk, da Tesla e do X, Steve Wozniak, co-fundador da Apple, e o académico Stuart Russell, o autor de “Inteligência Artificial: uma abordagem moderna”, a “bíblia” da IA usada nas universidades. Mas também havia várias assinaturas de portugueses, principalmente com ligação ao mundo académico. Ao Observador, alguns dos signatários justificaram a tomada de posição com “questões filosóficas e éticas”, mas acima de tudo com o pedido de que se “pense antes de se disponibilizar” mais modelos aos público. É preciso dar margem “às pessoas para assimilar estes conceitos e minimizar possíveis danos”, explicou na altura o académico João Emílio Almeida.

Do risco de “cair nas mãos erradas” ao esforço “para preservar” a humanidade. As motivações de quem pede “pausa” nas experiências de IA

O debate ganhou ainda mais força quando se juntaram as palavras risco existencial à questão. No fim de maio, vários executivos e investigadores ligados à IA, incluindo o CEO da OpenAI, assinaram uma curta missiva onde alertavam para o “risco de extinção” trazido por esta tecnologia. A carta aberta, publicada pelo Center for AI Safety, foi assinada por mais de 350 pessoas mas não apresentou sugestões para se lidar com o tema. Apenas salientava que “mitigar o risco de extinção trazido pela IA deve ser uma prioridade global, tal como acontece com outros riscos sociais, como as pandemias ou uma guerra nuclear.”

Investigadores e líderes de empresas alertam para “risco de extinção” trazido pela inteligência artificial

O despedimento do líder da OpenAI e a misteriosa carta do Q*

A OpenAI esteve em destaque no mundo da IA em 2023, mas nem sempre pela tecnologia. Em novembro, o despedimento de Sam Altman, CEO e um dos fundadores da startup, surpreendeu a indústria. Afinal, na semana anterior tinha estado em destaque no primeiro evento de programadores da companhia, em São Francisco.

OpenAI. Um choque de ideias, uma traição, um despedimento e uma contratação surpresa: os ingredientes da novela que agita Silicon Valley

Foi o ponto de partida para um fim-de-semana agitado em Silicon Valley e uma montanha-russa de informação. Despedido numa sexta-feira por uma quebra de comunicação com o conselho de administração, passou para rumores, no sábado, de que Altman estaria a tentar criar outra empresa, para terminar o fim de semana a negociar o regresso à OpenAI e ser anunciado, na segunda-feira, pela Microsoft como a sua nova contratação para liderar um laboratório de IA. Mas dias mais tarde… Altman regressa à OpenAI. 

Afinal, Sam Altman não vai para a Microsoft e regressa à OpenAI para ocupar o mesmo cargo de CEO

As dúvidas sobre o que teria levado ao repentino despedimento de Altman adensaram-se: seria uma falta de segurança nos produtos ou uma luta interna de poder? Oficialmente nada se sabe, mais de um mês depois do episódio que chegou a ser descrito como “Succession para os miúdos do TikTok”.

No entanto, já depois do regresso de Altman, uma investigação da Reuters avançou que vários investigadores da startup teriam alertado o conselho de administração de que teriam feito uma descoberta que poderia contribuir para a inteligência artificial geral (AGI), um patamar em que os sistemas autónomos poderão ultrapassar os humanos num amplo leque de atividades, considerado por alguns analistas como o estágio que pode constituir uma ameaça.

Investigadores da OpenAI terão alertado sobre descoberta na IA com impacto na humanidade antes do despedimento de Altman

Não foi citado o conteúdo da carta, mas era dito que um projeto da empresa, conhecido internamente como Q* (Q-Star), teria conseguido resolver problemas matemáticos, um dos calcanhares de Aquiles do modelo da OpenAI. A confirmar-se, seria mais um avanço na IA. A OpenAI nunca confirmou a existência da carta dos investigadores ou a existência do Q*.

Regular ou não regular, eis a questão

Desde conferências ligadas ao mundo da tecnologia até audições perante órgãos legislativos, nos EUA e além fronteiras, as discussões e os pedidos para regular a IA sucederam-se. Logo em maio, a OpenAI e a IBM defenderam perante o Congresso norte-americano a existência de legislação para ditar o que é legal e ilegal no uso da IA.

Para tentar que não se cometam os memos erros das redes sociais, a administração norte-americana fez uma série de reuniões com empresas que desenvolvem trabalho na área da IA para perceber como pode enquadrar uma tecnologia que está em constante evolução.

Fundador da Wikipédia: “Comissão Europeia provavelmente vai ser bem sucedida a tornar a Europa irrelevante na tecnologia”

Por agora, o título de pioneira na regulação da IA pertence à União Europeia. Em abril de 2021, o bloco dos 27 apresentou uma proposta para ditar o que são usos legais da IA, mediante patamares de risco, e o que são usos ilegais – por exemplo, usar a tecnologia para criar rankings sociais dos utilizadores, como acontece na China.

A proposta foi avançando nos últimos dois anos. Em junho, o Parlamento Europeu deu luz verde às regras para a IA, mas tornou-se claro que, com a repentina chegada do ChatGPT, também era preciso acautelar a lei para incluir os sistemas de IA generativa. Só este mês de dezembro houve acordo político entre o Conselho Europeu e o Parlamento Europeu para aprovar a regulamentação da IA, fazendo com que a UE esteja a caminho de ter a primeira legislação do mundo para esta tecnologia.

Há acordo na União Europeia para regular a inteligência artificial. É uma “estreia global”, diz Von der Leyen

Mas a regulação na IA está longe de ser unânime. Os principais críticos argumentam que pode ser uma forma de limitar a inovação em vez de fazer prosperar o setor tecnológico europeu. O professor universitário David Matos diz que até compreende “a bondade da legislação e de que é preciso haver algum tipo de publicação sobre o que é eticamente correto ou aceitável”, mas nota que, por outro lado, “o facto de limitarmos algum tipo de investigação ou de a tornarmos menos apetecível, porque toca em assuntos eticamente complicados, também é um pouco enterrar a cabeça na areia”, até porque “nem toda a gente segue os nossos princípios éticos”.

epa09149299 European Commissioner in charge of internal market Thierry Breton gives a press conference on the EU approach to Artificial Intelligence following the weekly meeting of the EU Commission in Brussels, Belgium, 21 April 2021.  EPA/OLIVIER HOSLET / POOL

Thierry Breton tem estado à frente dos trabalhos para a regulação da IA na União Europeia

OLIVIER HOSLET / POOL/EPA

Há outros pontos do globo que podem suscitar maiores preocupações, como a China, acredita o docente do Técnico. “Fazem o que querem, são extremamente competentes em alguns aspetos técnicos.”

Em novembro, no Reino Unido, já foi feita a primeira reunião sobre segurança da IA, juntando governantes de vários países e empresas que desenvolvem trabalho nesta área. Estão previstas duas reuniões para o próximo ano: no primeiro semestre o encontro será na Coreia do Sul e no semestre seguinte em França.

… E o que esperar de 2024?

Mais modelos multimodais e mais integração a caminho

Arlindo Oliveira considera que uma das grandes tendências para o próximo ano são os modelos multimodais – ou seja, que são desenvolvidos para conseguir compreender diferentes tipos de informação, como texto, imagem, vídeo ou mesmo código. “Acho que vão ser importantes e cada vez mais poderosos”, acredita o académico e especialista na área da IA.

Já são conhecidos exemplos de modelos multimodais: a Google revelou no início de dezembro o Gemini. O próprio GPT-4, apresentado pela OpenAI há meses, também já está nesta categoria, conseguindo até perceber informação em imagens.

Google lança modelo de IA que diz ser “o maior e mais capaz” até agora. Bard vai ganhar poderes com Gemini

Se inicialmente o ChatGPT estava apenas disponível no site, à medida que a investigação foi evoluindo passou a estar presente num número crescente de serviços. E já foi, mesmo, integrado no Bing, o motor de pesquisa da Microsoft, e até o Copilot para o Microsoft 365 traz a ajuda dos grandes modelos de linguagem para programas como o Word ou o Excel.

Bing. Usámos o motor de pesquisa com IA da Microsoft

Em 2024, Arlindo Oliveira acredita que haverá uma continuidade dos trabalhos de integração destes modelos em mais serviços, com interações que continuarão a ser feitas em linguagem natural — ou seja, de forma simples e acessível. “Acho que isso vai acontecer através das grandes plataformas”, como a Google ou a Microsoft, explica o especialista, que acredita que a integração será “feita de uma maneira cada vez mais forte”, em áreas como o serviço ao cliente, por exemplo. “Acho que se vai notar um rápido avanço nessa componente.”

Apesar dos avanços, o professor universitário continua a defender que os modelos de linguagem “são intrinsecamente fracos”. A matemática continua a ser um contratempo, devido ao tipo de modelo. Os grandes modelos de linguagem conseguem gerar texto apresentando ao utilizador palavras que são prováveis de surgirem em determinado contexto. Nesse sentido, ou o modelo já viu “coisas muito parecidas e talvez consiga dar resposta”, nota Oliveira, ou então terá dificuldade em chegar ao resultado certo.

O caso poderá mudar de figura a partir do momento em que a tecnologia aprenda a distinguir uma pergunta “normal” de uma aritmética. “É [uma questão] de o modelo perceber que tipo de pergunta está a ser feita” e saber onde pode ir procurar a resposta correta. Poderá ser como “fazer um pedido a um sistema específico de uma área e depois traduzir a pergunta” que foi feita pelo utilizador, explica, acreditando que “vamos assistir também a uma evolução muito rápida [nesse aspeto] e, provavelmente, quando tivermos de fazer contas complicadas ou questões sobre física ou química, vamos também a estes modelos [de linguagem] – não porque respondem diretamente, mas porque sabem traduzir a pergunta para outro sistema que sabe a resposta e a interpreta.”

Uma intensificação do debate sobre o impacto da IA

Se vamos passar a conviver ainda mais com estes modelos, em diversas áreas de atividade, é de esperar que o debate sobre o impacto da IA se torne ainda mais intenso, especialmente em questões como o emprego.

Um relatório da Universidade de Stanford, divulgado este mês, antecipa que as primeiras extinções de empregos possam vir a acontecer já em 2024. Não será uma substituição e automatização completa de profissionais do conhecimento, como “criativos, advogados, financeiros”, mas acredita-se que venham a ser necessários menos recursos humanos.

Inteligência Artificial levará às primeiras extinções de empregos em 2024

“O maior risco é educacional”, considera o professor universitário David Matos, “de haver pessoas que ignoram [a necessidade de saber interagir com estes modelos] e depois vão ficar para trás”.

Já Arlindo Oliveira não tem dúvidas de que o debate vai continuar. “Acabámos de aprovar o AI Act na Europa, houve legislação também emitida pela presidência dos EUA, houve diversos encontros… A discussão vai de certeza incrementar.”

Por outro lado, nota, haverá vários atos eleitorais, um pouco por todo o mundo, mas para já parece simplista antecipar aumentos da desinformação apenas devido à existência da IA. “É ano de eleições nos EUA, que é sempre ponto de grande atrito, mas até que ponto é que a IA vai agravar a desinformação”, interroga-se. “Acho que vai ser uma alteração incremental, não vai haver disrupção em que de repente toda a gente fica desinformada pela IA, vai ser uma coisa contínua e progressiva.”

Outro tema que deverá marcar o próximo ano na IA é o das infrações de direitos de autor no desenvolvimento de grandes modelos de linguagem. Nos últimos dias do ano, o New York Times avançou com um processo contra a OpenAI e a Microsoft, alegando que foram usados milhões de artigos do jornal para desenvolver o ChatGPT, sem remuneração para os autores e o NYT. O processo judicial, apresentado em Nova Iorque, promete ser o primeiro de larga escala a opor meios de comunicação social às empresas tecnológicas devido à IA.

IA. New York Times processa OpenAI e Microsoft por usarem artigos do jornal para treinar modelos como o ChatGPT

Haverá resolução à vista na corrida aos componentes para desenvolver a IA?

Para se conseguir desenvolver modelos de inteligência artificial são precisos muitos recursos. Um grande modelo de linguagem precisa de uma enorme quantidade de dados, mas também de muitas unidades de processamento gráfico, conhecidas por GPU, e de energia.

A Nvidia, a empresa que tem estado na vanguarda do desenvolvimento de GPU, vê os seus componentes usados por várias empresas que estão a trabalhar em IA – estima-se que tenha uma quota de mercado de 80%. Só o ChatGPT, por exemplo, precisou de 10 mil GPU para ser treinado.

Passou de ideia num restaurante a “trillion dollar baby” em Wall Street. Como a Nvidia conquistou a indústria de chips

Com a rivalidade entre empresas a aumentar para conseguir avançar na IA, por exemplo entre Microsoft e Google, há uma escassez de GPU no mercado. Em agosto, o NYT dizia que estas unidades eram a “commodity” mais procurada do setor tecnológico, com elevados preços a acompanhar a procura.

Durante o verão, a Nvidia revelou uma nova linha de chips para a IA generativa, a GH200, e deixou a promessa de que “vai aguentar os fluxos de trabalho mais complexos da IA generativa, desde grandes modelos de linguagem até sistemas de recomendações e bases de dados de vetores”. Não foram revelados preços e só é expectável que estas novidades cheguem no segundo trimestre de 2024 – falta é saber se vai haver componentes suficientes para tanta procura.

Com chips ou sem eles, por agora nem o próprio ChatGPT acredita que chegue ao ponto de, em 2024, conseguir fazer todas as tarefas humanas. Perguntando ao chatbot, é dito que se trata de uma questão “complexa e sujeita a interpretação”.

“Até à minha última atualização de conhecimento em janeiro de 2022, não havia previsões concretas ou consenso na comunidade científica sobre quando ou se a IA atingirá um ponto de automação completa em todas as atividades humanas. A IA tem avançado em muitas áreas e tem demonstrado habilidades impressionantes em tarefas específicas, como reconhecimento de imagem, processamento de linguagem natural, jogos estratégicos, diagnóstico médico e muito mais. No entanto, alcançar a capacidade de realizar ‘tudo por nós’ é uma meta desafiadora e pode levantar questões éticas, sociais e práticas”, responde o próprio ChatGPT.

Ofereça este artigo a um amigo

Enquanto assinante, tem para partilhar este mês.

A enviar artigo...

Artigo oferecido com sucesso

Ainda tem para partilhar este mês.

O seu amigo vai receber, nos próximos minutos, um e-mail com uma ligação para ler este artigo gratuitamente.

Ofereça até artigos por mês ao ser assinante do Observador

Partilhe os seus artigos preferidos com os seus amigos.
Quem recebe só precisa de iniciar a sessão na conta Observador e poderá ler o artigo, mesmo que não seja assinante.

Este artigo foi-lhe oferecido pelo nosso assinante . Assine o Observador hoje, e tenha acesso ilimitado a todo o nosso conteúdo. Veja aqui as suas opções.

Atingiu o limite de artigos que pode oferecer

Já ofereceu artigos este mês.
A partir de 1 de poderá oferecer mais artigos aos seus amigos.

Aconteceu um erro

Por favor tente mais tarde.

Atenção

Para ler este artigo grátis, registe-se gratuitamente no Observador com o mesmo email com o qual recebeu esta oferta.

Caso já tenha uma conta, faça login aqui.