A OpenAI revelou mais uma evolução da investigação na área da inteligência artificial (IA) com o anúncio do lançamento do modelo GPT-4. Depois de em novembro ter lançado o ChatGPT, um serviço semelhante a um chatbot, baseado no modelo de linguagem GPT-3,5, muitos olhos estavam postos na startup californiana, à espera de mais desenvolvimentos.

A espera chegou ao fim esta terça-feira, quando a empresa revelou o novo modelo de linguagem. A OpenAI explica que é um “modelo multimodal”, ou seja, que vai aceitar imagens e texto dos utilizadores, mas que responderá apenas com texto. A imagem já é uma evolução em relação ao GPT-3,5, que só consegue responder a interações de texto.

ChatGPT dá conversa à internet. Os limites, perigos e promessas do novo fenómeno da inteligência artificial

PUB • CONTINUE A LER A SEGUIR

Um dos exemplos apresentados pela empresa foi a possibilidade de perceber o que está numa imagem e até entender a razão de uma piada. Numa imagem composta por três fotografias de um iPhone ligado a um cabo que aparentava ser VGA, mas que afinal escondia um cabo Lightning, o GPT-4 interpretou o humor das imagens, já que um cabo grande e ultrapassado como o VGA estava numa porta para carregar de um smartphone pequeno e moderno.

GPT-4, OpenAI, exemplo

Um dos exemplos dados pela OpenAI sobre a compreensão de imagem deste GPT-4

A OpenAI reconheceu que, em situação de “conversa casual”, a distinção entre o GPT-3,5 e o GPT-4 “pode ser ténue”, mas que em tarefas mais complexas provou ser “mais confiável, criativo e capaz de gerir instruções com mais nuances” do que o antecessor.

Apesar de ser uma evolução do GPT-3,5, o novo modelo continua a ter limitações na resposta a eventos mais recentes, já que os seus dados só vão até setembro de 2021. As “alucinações” — ou seja, a invenção de factos quando não tem a certeza sobre respostas — e os erros que comete também se mantêm, ainda que a OpenAI tenha garantido que ocorrem com “menos frequência”. No Twitter, Sam Altman, CEO da OpenAI, disse que o modelo “é mais capaz e alinhado” com os valores e intenções humanas, mas que ainda assim “continua a ter falhas”.

Desta vez, o público em geral não vai conseguir ter um contacto imediato com este modelo. Só quem tem uma subscrição do ChatGPT, que custa 20 dólares por mês, é que vai poder experimentar. Quem trabalhar na área da programação vai poder testar como pode ser usado em API (interface de programação de aplicações), mas existe uma lista de espera para isso.

O OpenAI já tem parcerias com várias empresas para integrar o GPT-4 em mais serviços, destacando a aplicação Duolingo, a Stripe ou a Khan Academy.

Um empreendedor em série que não descarta o cenário de revolta da inteligência artificial. Quem é o líder da dona do ChatGPT?

Microsoft confirmou que novo Bing funciona com o GPT-4

A Microsoft, que é uma das principais investidoras na OpenAI, anunciou em fevereiro um novo Bing com inteligência artificial (IA), desenvolvido em parceria com a startup de Sam Altman. Na altura, foi explicado que funcionava com um modelo de IA mais poderoso do que o ChatGPT, dando azo a muita especulação sobre se seria o GPT-4 ou não. Durante as últimas semanas, nenhuma das empresas envolvidas esclareceu a questão.

Bing. Usámos o motor de pesquisa com IA da Microsoft

Com o anúncio do GPT-4 chegou também a confirmação de que foi efetivamente usado no Bing. “Estamos felizes de anunciar que o novo Bing está a funcionar com o GPT-4, que personalizámos para a pesquisa”, indicou Yusuf Mehdi, responsável por esta área na Microsoft, numa publicação onde deu os parabéns à parceira OpenAI.

“Se já usaram a preview do novo Bing em algum momento nas últimas cinco semanas, já experimentaram uma versão inicial deste poderoso modelo”, é referido. “À medida que a OpenAI faz atualizações ao GPT-4 e sucessores, o Bing vai beneficiar dessas melhorias.”

O Bing com IA só está disponível em versão de teste, mas os números mais recentes partilhados pela Microsoft indicam que já tem 100 milhões de utilizadores ativos por dia.