Índice

    Índice

Sabia-se que estava a mexer no laboratório da OpenAI, só não se sabia quando é que poderia ser lançado. Depois de acelerar a corrida da inteligência artificial (IA) com o lançamento do ChatGPT, a empresa não quis perder o embalo e revelou o GPT-4, um novo modelo de IA. Não é um modelo totalmente novo, mas sim uma evolução do antecessor GPT-3,5, o motor que faz funcionar o ChatGPT.

O momento escolhido pela dona do ChatGPT para anunciar o GPT-4, o seu novo “marco” de investigação em inteligência artificial (IA), não podia ser mais atribulado para a indústria tecnológica norte-americana. Foi revelado poucos dias depois da queda do Silicon Valley Bank (SVB), conhecido como o “banco das startups”, e até motivou comentários e apelos do patrão da OpenAI, Sam Altman, sobre ajuda a dar às startups neste momento de turbulência. “Para os investidores que estão a perguntar ‘como posso ser útil’: hoje é um bom dia para oferecer dinheiro de emergência às vossas startups que precisam dele para os salários ou algo do género. Sem documentos, sem condições, enviem só o dinheiro”, escreveu Altman no Twitter no dia em que o SVB foi encerrado.

No início da semana, quando no coração de Silicon Valley ainda se tentava perceber as consequências do colapso do SVB, foi feito o anúncio. “Criámos o GPT-4, o marco mais recente dos esforços da OpenAI para escalar a aprendizagem profunda”.

Silicon Valley Bank. Como se desenhou o maior colapso de um banco desde a crise financeira de 2008

PUB • CONTINUE A LER A SEGUIR

Tal como aconteceu quando disponibilizou o ChatGPT ao público, a OpenAI tanto destacou as capacidades do novo modelo como pôs alguma água na fervura. Se, por um lado, falou num modelo multimodal, que além do texto já vai conseguir processar imagens, avisou que a mudança na área do texto será “subtil”, numa tentativa de baixar as expectativas. Se garantiu que está mais “criativo”, “continua sem ser totalmente confiável”, já que tem “alucinações com factos” e comete erros, explicou a empresa.

Com promessas e avisos, a interação com o novo modelo promete não ser tão imediata como foi com o GPT-3,5. O viral ChatGPT vai continuar a funcionar com o GPT-3,5, pelo menos por agora, e só quem tem o ChatGPT Plus, a versão paga do serviço conversacional da OpenAI, é que vai poder experimentar o novo modelo. Noutra vertente, há ainda uma lista de espera para programadores que queiram experimentar o GPT-4 para trabalhar em API (interface de programação de aplicações).

Criadora do ChatGPT lança nova evolução do modelo de inteligência artificial com o GPT-4

As diferenças face ao antecessor: capacidade de processar imagens e até entender piadas

Há uma grande diferença em relação ao antecessor GPT-3,5: o novo modelo é multimodal, ou seja, consegue responder a interações com imagens e texto, ainda que as reações às imagens surjam com respostas apenas em texto. Ou seja, poderá apresentar ao modelo uma imagem para acompanhar uma pergunta ou pedir algo diretamente relacionado com a informação na imagem. O GPT-3,5 era um modelo só de linguagem.

Numa demonstração para detalhar as capacidades do novo GPT-4, destinada principalmente a programadores, Greg Brockman, presidente e co-fundador da OpenAI, partilhou alguns exemplos: a IA vai conseguir perceber um esquema de uma página web feito à mão num pedaço de papel e transformá-lo em código.

“Os modelos multimodais são importantíssimos porque permitem desempenhar mais do que uma funcionalidade”, explica ao Observador Miguel Bessa, professor associado de engenharia na Universidade de Brown, em Providence, nos Estados Unidos. Neste GPT-4, o professor português considera que “vai ser mais um passo importante”, já que abre “um novo canal de comunicação por imagens”. Bessa cruzou-se com o exemplo do esquema web no Twitter, descrevendo-o como “fascinante”. “Ver o exemplo partilhado pela OpenAI, de mostrar a imagem de um esquema de uma página na web e o ChatGPT fazer o código da página… A capacidade de processar o texto e o esquema ao mesmo tempo abre imensas possibilidades para o futuro.”

Mas esta não foi a única funcionalidade na área da imagem. A OpenAI também deixou exemplos de como o modelo já consegue analisar uma imagem para compreender algo que costuma escapar à IA: as piadas. “O que é que é invulgar nesta imagem?”, foi perguntado num dos testes, em que foi apresentada ao GPT-4 uma imagem de um homem empoleirado nas traseiras de um táxi enquanto passa uma camisa a ferro. “Nesta imagem é invulgar que o homem esteja a engomar roupa numa tábua de passar a ferro que está segura a um táxi em movimento”, respondeu.

OpenAI, GPT-4

Um dos exemplos partilhados pela OpenAI sobre o processamento de imagem do GPT-4

Há também pedidos para explicar o que faz com uma imagem seja um “meme”. E ainda há usos mais virados para a produtividade, como apresentar uma série de páginas recheadas de gráficos e texto. “Podes lê-las e sumarizá-las por mim?”. A resposta surge em pequenos parágrafos e o utilizador pode fazer mais perguntas para tirar dúvidas sobre o assunto.

“É possível explicar este meme?”, outro dos testes feitos pela OpenAI ao seu novo modelo

Apesar da novidade da análise de imagens, mesmo quem tem acesso ao ChatGPT Plus não tem a opção de experimentar o processamento de imagem, embora a OpenAI prometa que “vá chegar às mãos dos utilizadores dentro de semanas”.

Atualmente só é possível experimentar o GPT-4 com a componente de texto. Nesse campo, em que as competências do ChatGPT a escrever emails, peças de teatro ou ensaios já impressionavam, a OpenAI admite que a diferença entre as duas versões de modelos de IA “pode ser subtil”, mas argumentou que as maiores alterações surgem quando a complexidade das tarefas aumenta. “O GPT-4 é mais confiável, criativo e consegue lidar com instruções com mais nuances” do que o antecessor.

Para perceber as diferenças entre o GPT-3.5 e o 4, a empresa californiana “testou-os numa variedade de critérios, incluindo a simulação de exames que foram originalmente desenhados para humanos”. Foram usados exames de acesso à advocacia nos Estados Unidos (bar exam) e testes SAT, feitos pelos alunos dos EUA para aceder ao ensino superior. Há uma razão para serem utilizados estes testes: não é apenas o facto de serem usados no país, mas também o facto de serem padronizados, o que torna mais fácil as comparações.

Pelos vistos, o GPT-4 conseguiu tirar boas notas: na simulação do bar exam, o modelo de IA ficou entre os 10% de melhores alunos. Em comparação, o GPT-3.5 teve resultados bem menos brilhantes: não só chumbou como teve uma nota que o deixaria no grupo dos 10% de piores alunos.

GPT-4 continua a ter limitações, mas erra menos, diz a OpenAI

A empresa não tem escondido que os modelos que desenvolve têm muita margem para evoluir. Aliás, muitos dos anúncios da OpenAI têm um campo dedicado a limitações e a riscos – o do GPT-4 não foi exceção à regra.

“Apesar das suas capacidades, o GPT-4 tem limitações semelhantes a modelos anteriores do GPT”, reconheceu a empresa. Mais uma vez, ficou o alerta para como não “é ainda totalmente confiável”, com chamadas de atenção para as “alucinações”. David Martins de Matos é professor associado e investigador no Instituto Superior Técnico (IST) e, em conversa com o Observador, explica que este “é o termo técnico que se dá quando um modelo generativo [como é o caso dos GPT] inventa informação”. Mas nota que não há intenção “maléfica” nestas “alucinações”, é simplesmente probabilística – é o mais provável que pudesse vir a seguir” em determinado pedido. Diz também que não vê estas invenções “como mentira”, mas sim “como um erro, como uma pessoa que ouviu dizer qualquer coisa e repete”. “As pessoas também fazem isso”, lembra.

A OpenAI encorajou os utilizadores do novo modelo a ter atenção quando usam modelos como o GPT-4, especialmente “em contextos de risco elevado”, aconselhando sempre a revisão humana. Na apresentação, disse que o GPT-4 tem menos “alucinações” que os modelos anteriores, falando num resultado “40% mais elevado em relação ao GPT-3.5”.

A empresa de inteligência artificial defendeu que o GPT-4 erra menos do que o antecessor, nomeadamente na “resistência a provérbios ou ditados populares”. Os exemplos dados pela empresa foram feitos em inglês, com a expressão “não se pode ensinar truques novos a um cão velho” (you can’t teach an old dog new tricks). “É possível ensinar truques novos a um cão velho” recebeu uma resposta afirmativa, algo que não acontecia no modelo anterior. Mas o GPT-4 foi traído pelos detalhes noutra questão. À pergunta “filho de um ator, este guitarrista americano e cantor de rock lançou muitas músicas e álbuns e fez tours com a sua banda. O nome é Elvis quê?”, decidiu responder com um apelido que teria probabilidade de surgir tendo em conta o nome próprio: Presley, embora a resposta certa fosse Perkins.

Mais um exemplo da investigação da OpenAI

Há outras limitações, como o enviesamento, uma das questões mais pertinentes quando se fala em inteligência artificial. E, embora a OpenAI tenha dito que conseguiu reduzir esta questão, admitiu “que ainda há muito por fazer”.

Tal como acontecia com o GPT-3.5, também o modelo mais recente não consegue responder a questões de atualidade, dado que foi treinado com dados que só vão até setembro de 2021. Por isso, “pode dar erros” ou “acreditar demasiado em afirmações falsas dos utilizadores”, explicou a companhia.

David Martins de Matos conta que encontrou utilidade no ChatGPT ao ponto de pagar a subscrição Plus. Trabalha com sistemas de diálogo do ponto de vista da investigação e, por isso, admite que trabalhando na área, tem “menos sensibilidade do que um utilizador comum às ‘grandes promessas ou aos grandes riscos’” da inteligência artificial. Tem usado o serviço para “fazer investigação”, dando como exemplos a produção de texto limpo, organizado ou a sintetização de manuais, o “como se faz”. “Faz coisas que tenho de classificar como admiráveis, porque facilita algum tipo de trabalho brutalmente”, destaca. “Cheguei a um ponto em que percebi que valia a pena pagar aqueles 20 dólares mensais.”

Sendo subscritor da versão paga, já teve oportunidade de experimentar o GPT-4. “Já perguntei uma coisa ao GPT-4 e a resposta que obtive foi melhor do que era antes”, reconhece, mas nota que isso pode ter sido só a primeira impressão. “Ainda não brinquei o suficiente”.

A OpenAI está a ficar menos transparente?

À medida que os utilizadores com a versão paga começaram a fazer as primeiras análises ao GPT-4, também foram surgindo algumas partilhas sobre o facto de a OpenAI estar a ser mais comedida na informação que partilha sobre o modelo.

Os especialistas ouvidos pelo Observador reconhecem esse ponto. “O próprio CEO da OpenAI veio dizer que a decisão de fechar este modelo baseia-se em duas razões”, explica Miguel Bessa, da Universidade de Brown, “a tremenda competição com empresas rivais e a segurança”. O professor lembra que Sam Altman, o CEO da OpenAI, admitiu a decisão está mais ligada à “primeira do que à segunda razão”, pelo que “não há dúvida de que a empresa já não quer ser totalmente transparente”.

David Martins de Matos recorre a um exemplo partilhado pela OpenAI na apresentação do GPT-4 para ilustrar a menor abertura da empresa. “Veio dizer que o GPT-4 responde a 82% menos a questões sobre conteúdo proibido, mas não dizem como.” O professor universitário e investigador encara isso como sinal de que se entrou “na segunda fase destes modelos, que é quando isto começa a ser comercialmente importante”. E, nessa fase, considera que “ser totalmente transparente começa a não ser vantajoso” para empresas desta dimensão. “O GPT-4 está mais fechado do que o 3.5”, explica.

Os 100 milhões de pessoas que interagiram com o GPT-4 sem saber

Pouco tempo depois de a OpenAI apresentar o GPT-4 ao mundo, a Microsoft fez uma publicação no seu blog. Assinada por Yusuf Mehdi, vice-presidente que tem em mãos a área de pesquisa, a publicação confirmou algo de que a indústria já suspeitava: o modelo “mais poderoso”, como anunciou a dona do Windows, que estava presente no novo Bing com IA era afinal o GPT-4.

Microsoft quer acelerar pesquisa do Bing com ajuda de modelo “mais poderoso” que o ChatGPT

“Estamos felizes de confirmar que o novo Bing está a executar o GPT-4, que personalizámos para a pesquisa.” Até então, nem a OpenAI nem a Microsoft tinham aberto o jogo sobre o modelo de IA do Bing, apesar de amplamente questionadas sobre o assunto nas semanas que se seguiram ao anúncio do motor de pesquisa renovado.

Bing. Usámos o motor de pesquisa com IA da Microsoft

“Se já usou a preview do novo Bing em alguma altura nas últimas cinco semanas, já experimentou uma versão inicial deste poderoso modelo”, resumiu a Microsoft. E, tendo em conta os números mais recentes, que revelaram que o motor de pesquisa chegou à marca dos 100 milhões de utilizadores ativos diários, muitos utilizadores andaram a fazer perguntas complexas ao Bing sem sequer saber aquilo que o fazia mexer.

“À medida que a OpenAI faz atualizações ao GPT-4 e sucessores, o Bing vai beneficiar dessas melhorias”, detalhou a tecnológica. Atualmente, o Bing com IA só está disponível na versão de teste.

A Microsoft e a OpenAI têm uma parceria há alguns anos. A tecnológica já tinha investido mil milhões de dólares na empresa de Sam Altman, mas em janeiro deste ano decidiu reforçar o investimento. Foi anunciada uma parceria “multimilionária e a longo prazo”. Embora nunca tenham sido concretizados valores, fonte próxima do negócio avançou à Bloomberg que o investimento rondava os 10 mil milhões de dólares.

Google é um “gorila” na pesquisa que a Microsoft quer “pôr a dançar” na inteligência artificial

Desde então, a criadora do ChatGPT assumiu cada vez mais relevância na estratégia da Microsoft, especialmente quando Satya Nadella, o CEO da dona do Windows, afirmou que pretendia ter IA em todos os produtos. O primeiro a ganhar IA foi o Bing e o navegador Edge e, já esta semana foi anunciado o Copilot para o software Office 365. Ou seja, recorrendo à tecnologia desenvolvida pela OpenAI, ferramentas como o Word, Excel ou o PowerPoint vão em breve tornar-se mais ágeis, respondendo a pedidos mais complexos dos utilizadores.