Com o lançamento do serviço de conversação ChatGPT e toda a atenção dada aos modelos de linguagem desenvolvidos pela OpenAI, a inteligência artificial (IA) está na ordem do dia. E, para não repetir “os erros que foram feitos com as redes sociais”, que cresceram praticamente sem regulação, o Congresso norte-americano mostra-se interessado em criar regras para a inteligência artificial enquanto a tecnologia ainda está na infância.

A administração Biden já tinha chamado à Casa Branca os líderes de algumas empresas a trabalhar na área da IA, sinalizando que está atenta ao desenvolvimento desta tecnologia. Esta terça-feira, foi a vez de o Congresso norte-americano assegurar a primeira de várias audições sobre supervisão e regulação na área da IA.

Kamala Harris reúne-se com representantes das quatro maiores empresas de inteligência artificial

PUB • CONTINUE A LER A SEGUIR

Numa audição bipartidária, os senadores norte-americanos ouviram Sam Altman, CEO da OpenAI, Christina Montgomery, diretora de privacidade e transparência da IBM, e Gary Marcus, professor na Universidade de Nova Iorque, académico na área da inteligência artificial e um dos signatários da carta que, no mês passado, pediu uma pausa de seis meses no desenvolvimento de grandes modelos de linguagem, como o GPT-5.

Do risco de “cair nas mãos erradas” ao esforço “para preservar” a humanidade. As motivações de quem pede “pausa” nas experiências de IA

Questões como o impacto no mercado de trabalho, consequências para atos eleitorais ou o aumento da desinformação foram mencionadas pelos senadores norte-americanos e reconhecidas como riscos pelos especialistas.

“A OpenAI é uma empresa invulgar, porque a IA não é uma tecnologia habitual”, começou por explicar Sam Altman. E, embora tenha frisado que a empresa acredita que “os benefícios das ferramentas que disponibilizam ultrapassam os riscos”, também reconheceu que sempre tentou “ser muito claro em relação à magnitude dos riscos.” “O meu maior medo é que a tecnologia cause danos ao mundo. Se esta tecnologia correr mal, pode correr bastante mal.” Nesse sentido, a OpenAI mostrou-se disponível para trabalhar com o Governo norte-americano e “perceber o trabalho que há a fazer para mitigar riscos”, nomeadamente na área do emprego.

O co-fundador da OpenAI fez ainda questão de lembrar que o ChatGPT ou modelos como o GPT-4 são “uma ferramenta, não uma criatura”. “É uma ferramenta onde as pessoas têm controlo sobre o que estão a fazer.” E, embora as “empresas certamente tenham muita responsabilidade pelas ferramentas que lançam”, também atribuiu responsabilidade aos utilizadores pelo uso que fazem da tecnologia e a entidades que recorrem a tecnologias de IA para basear os seus produtos.

Um empreendedor em série que não descarta o cenário de revolta da inteligência artificial. Quem é o líder da dona do ChatGPT?

Para a IBM, tudo se resume a “uma questão da confiança”. “Andamos há anos a pedir regulação por precisão na IA, não é algo novo para nós”, esclareceu Christina Montgomery. “É por isso que estamos aqui a pedir uma abordagem baseada em precisão”, uma abordagem que requer que as empresas desenvolvam e operem sistemas baseados em confiança. “Achamos que a IA tem de ser regulada nos pontos de risco.”

O académico Gary Marcus foi mais expressivo nos exemplos. “A democracia em si está sob ameaça” devido à IA. “Criámos máquinas que são como um touro numa loja de cristais. Os sistemas atuais não são transparentes, não protegem a nossa privacidade… nem os seus criadores conseguem perceber como funcionam.”

Nesse sentido, os pontos de vista e os pedidos de regulação tanto da OpenAI como da IBM foram vistos pelo senador democrata Durbin como “algo histórico”, por ter pela primeira vez “pessoas da indústria a pedirem para serem reguladas”.

ChatGPT dá conversa à internet. Os limites, perigos e promessas do novo fenómeno da inteligência artificial

Etiquetas para mais transparência nos sistemas ou uma nova entidade para vigiar a IA

Os senadores tentaram explorar algumas ideias de regras para a IA, incluindo a partir de práticas usadas na indústria alimentar. O senador democrata Blumenthal questionou se faria sentido usar o “equivalente a etiquetas de nutrição”, para que os utilizadores saibam os “ingredientes” que estão nas ferramentas de IA com que interagem. “Acho que é uma excelente ideia. Acho que as empresas têm de dizer onde é que há fraquezas e pontos fortes nos seus produtos”, disse Sam Altman.

O Congresso lembrou que, mesmo que sejam impostas regras ou limitações às empresas a operar na área da IA, é preciso existir alguém para fiscalizar. Gary Marcus mencionou um modelo semelhante ao CERN, a organização europeia para a investigação nuclear, “neutro e independente”. “Há muitas agências que podiam fazer isso, a FTC [Comissão Federal de Comércio], a FCC [Comissão Federal das Comunicações]. Mas provavelmente precisávamos de uma organização a nível de gabinete dentro dos EUA para responder a isto”, sugeriu Gary Marcus. “Precisamos de muita coordenação de esforços, especialização técnica. A IA vai ser uma parte tão grande do nosso futuro, há que ter uma agência cujo seu emprego a tempo inteiro seja só isto.”

Independentemente de quem seja responsável, “com agência ou sem agência, as empresas têm de ser responsabilizadas”, defendeu a responsável da IBM.

Google é um “gorila” na pesquisa que a Microsoft quer “pôr a dançar” na inteligência artificial