Com o lançamento do serviço de conversação ChatGPT e toda a atenção dada aos modelos de linguagem desenvolvidos pela OpenAI, a inteligência artificial (IA) está na ordem do dia. E, para não repetir “os erros que foram feitos com as redes sociais”, que cresceram praticamente sem regulação, o Congresso norte-americano mostra-se interessado em criar regras para a inteligência artificial enquanto a tecnologia ainda está na infância.
A administração Biden já tinha chamado à Casa Branca os líderes de algumas empresas a trabalhar na área da IA, sinalizando que está atenta ao desenvolvimento desta tecnologia. Esta terça-feira, foi a vez de o Congresso norte-americano assegurar a primeira de várias audições sobre supervisão e regulação na área da IA.
Kamala Harris reúne-se com representantes das quatro maiores empresas de inteligência artificial
Numa audição bipartidária, os senadores norte-americanos ouviram Sam Altman, CEO da OpenAI, Christina Montgomery, diretora de privacidade e transparência da IBM, e Gary Marcus, professor na Universidade de Nova Iorque, académico na área da inteligência artificial e um dos signatários da carta que, no mês passado, pediu uma pausa de seis meses no desenvolvimento de grandes modelos de linguagem, como o GPT-5.
Questões como o impacto no mercado de trabalho, consequências para atos eleitorais ou o aumento da desinformação foram mencionadas pelos senadores norte-americanos e reconhecidas como riscos pelos especialistas.
“A OpenAI é uma empresa invulgar, porque a IA não é uma tecnologia habitual”, começou por explicar Sam Altman. E, embora tenha frisado que a empresa acredita que “os benefícios das ferramentas que disponibilizam ultrapassam os riscos”, também reconheceu que sempre tentou “ser muito claro em relação à magnitude dos riscos.” “O meu maior medo é que a tecnologia cause danos ao mundo. Se esta tecnologia correr mal, pode correr bastante mal.” Nesse sentido, a OpenAI mostrou-se disponível para trabalhar com o Governo norte-americano e “perceber o trabalho que há a fazer para mitigar riscos”, nomeadamente na área do emprego.
O co-fundador da OpenAI fez ainda questão de lembrar que o ChatGPT ou modelos como o GPT-4 são “uma ferramenta, não uma criatura”. “É uma ferramenta onde as pessoas têm controlo sobre o que estão a fazer.” E, embora as “empresas certamente tenham muita responsabilidade pelas ferramentas que lançam”, também atribuiu responsabilidade aos utilizadores pelo uso que fazem da tecnologia e a entidades que recorrem a tecnologias de IA para basear os seus produtos.
Para a IBM, tudo se resume a “uma questão da confiança”. “Andamos há anos a pedir regulação por precisão na IA, não é algo novo para nós”, esclareceu Christina Montgomery. “É por isso que estamos aqui a pedir uma abordagem baseada em precisão”, uma abordagem que requer que as empresas desenvolvam e operem sistemas baseados em confiança. “Achamos que a IA tem de ser regulada nos pontos de risco.”
O académico Gary Marcus foi mais expressivo nos exemplos. “A democracia em si está sob ameaça” devido à IA. “Criámos máquinas que são como um touro numa loja de cristais. Os sistemas atuais não são transparentes, não protegem a nossa privacidade… nem os seus criadores conseguem perceber como funcionam.”
Nesse sentido, os pontos de vista e os pedidos de regulação tanto da OpenAI como da IBM foram vistos pelo senador democrata Durbin como “algo histórico”, por ter pela primeira vez “pessoas da indústria a pedirem para serem reguladas”.
Etiquetas para mais transparência nos sistemas ou uma nova entidade para vigiar a IA
Os senadores tentaram explorar algumas ideias de regras para a IA, incluindo a partir de práticas usadas na indústria alimentar. O senador democrata Blumenthal questionou se faria sentido usar o “equivalente a etiquetas de nutrição”, para que os utilizadores saibam os “ingredientes” que estão nas ferramentas de IA com que interagem. “Acho que é uma excelente ideia. Acho que as empresas têm de dizer onde é que há fraquezas e pontos fortes nos seus produtos”, disse Sam Altman.
O Congresso lembrou que, mesmo que sejam impostas regras ou limitações às empresas a operar na área da IA, é preciso existir alguém para fiscalizar. Gary Marcus mencionou um modelo semelhante ao CERN, a organização europeia para a investigação nuclear, “neutro e independente”. “Há muitas agências que podiam fazer isso, a FTC [Comissão Federal de Comércio], a FCC [Comissão Federal das Comunicações]. Mas provavelmente precisávamos de uma organização a nível de gabinete dentro dos EUA para responder a isto”, sugeriu Gary Marcus. “Precisamos de muita coordenação de esforços, especialização técnica. A IA vai ser uma parte tão grande do nosso futuro, há que ter uma agência cujo seu emprego a tempo inteiro seja só isto.”
Independentemente de quem seja responsável, “com agência ou sem agência, as empresas têm de ser responsabilizadas”, defendeu a responsável da IBM.
Google é um “gorila” na pesquisa que a Microsoft quer “pôr a dançar” na inteligência artificial