A Google não quer perder o passo na corrida para liderar a inteligência artificial (IA). Dos laboratórios da DeepMind, a startup que adquiriu em 2014 por 400 milhões de dólares, saiu o Gemini, o novo modelo de IA multimodal, ou seja, construído para generalizar e compreender diferentes tipos de informação, seja em texto, imagem, áudio, vídeo ou código.

Na lista de argumentos para dizer que está mais à frente do que as rivais, a Google diz que o Gemini demonstrou “um desempenho de última geração em muitos benchmarks líderes”, explica Sundar Pichai, CEO da Google, em comunicado. O líder da tecnológica frisa que estão “apenas a começar a ‘arranhar’ a superfície daquilo que é possível” fazer na inteligência artificial.

De acordo com a Google, o Gemini “excedeu os resultados atuais” de última geração em “30 dos 32” critérios usados na investigação e desenvolvimento de grandes modelos de linguagem (LLM, na sigla em inglês). Nestes parâmetros, estão incluídas questões como a compreensão natural do que está em imagens, raciocínio matemático e compreensão de áudio e vídeo. O rival da OpenAI, que alimenta o ChatGPT, tem revelado algumas dificuldades no raciocínio matemático, por exemplo.

Este artigo é exclusivo para os nossos assinantes: assine agora e beneficie de leitura ilimitada e outras vantagens. Caso já seja assinante inicie aqui a sua sessão. Se pensa que esta mensagem está em erro, contacte o nosso apoio a cliente.