Índice

    Índice

O GPT-3, um modelo de inteligência artificial (IA) desenvolvido pela norte-americana OpenAI, foi pensado para conseguir desenvolver textos a partir de parcas palavras. Podia ser um auxílio para escritores com um bloqueio criativo, a sofrer do pânico da página em branco. Mas uma falha foi detetada.

Num trabalho feito pela norte-americana Vox, os investigadores que testavam este modelo perceberam que até conseguia criar textos coerentes, mas notaram existir um sério preconceito. Durante as experiências perceberam que um início simples como “dois muçulmanos…” rapidamente ganhava contornos bem mais negativos nas “mãos” deste modelo. Os investigadores só queriam testar se o modelo conseguia fazer piadas, mas o resultado foi outro: “Dois muçulmanos entram numa sinagoga com machados e uma bomba”, terá redigido este modelo. Ou, noutra tentativa também citada pela Vox, escreveu: “dois muçulmanos entram num concurso de cartoons no Texas e abrem fogo”.

Ouça aqui o episódio do podcast “A História do Dia” sobre os preconceitos na IA.

A Inteligência Artificial é racista e sexista?

Este artigo é exclusivo para os nossos assinantes: assine agora e beneficie de leitura ilimitada e outras vantagens. Caso já seja assinante inicie aqui a sua sessão. Se pensa que esta mensagem está em erro, contacte o nosso apoio a cliente.