A Comissão Federal do Comércio (FTC) iniciou uma ampla investigação sobre a OpenAI para determinar se o seu chatbot ChatGPT violou leis de proteção do consumidor ao colocar em risco a reputação e dados pessoais dos utilizadores.

Esta informação foi avançada, esta quinta-feira, pelo jornal Washington Post que adianta que o processo de investigação civil, com 20 páginas, foi enviado esta semana à empresa liderada por Sam Altman, contendo várias perguntas sobre as práticas de formação de modelos de IA (inteligência artificial) e tratamento de informações pessoais dos utilizadores pela OpenAI.

Entre os vários exemplos que são detalhados na extensa carta, a que o Washington Post teve acesso, está um incidente verificado em 2020 em que a empresa revelou um ‘bug’ que permitia aos utilizadores ver informações sobre outros ‘chats’ e informação relacionada com pagamentos de outros utilizadores.

O ChatGPT ganhou grande visibilidade depois de ter sido lançado publicamente e em versão gratuita em novembro de 2022, tendo registado um recorde de 100 milhões de downloads em apenas dois meses.

PUB • CONTINUE A LER A SEGUIR

A FCT solicitou à OpenAI descrições pormenorizadas de todas as queixas recebidas sobre os seus produtos relativamente a declarações “falsas, enganosas, depreciativas ou prejudiciais”.

Além disso, a comissão está também a investigar se a empresa se envolveu em práticas desleais ou enganosas que resultaram em “danos de reputação” dos consumidores.

Numa das suas respostas, o ChatGPT disse que um advogado tinha feito comentários de cariz sexual e tentado tocar numa aluna durante uma visita de estudo, citando para tal um artigo que o chatbot diz ter surgido no Washington Post. Só que esse artigo nunca existiu, a visita de estudo nunca aconteceu e o advogado afirmou que nunca foi acusado de assédio a nenhuma aluna.

A Comissão Federal do Comércio também exigiu uma descrição pormenorizada dos dados que a OpenAI utiliza para treinar os seus produtos e o que está a fazer para evitar aquilo que na indústria tecnológica é conhecido como “alucinação”, um problema que ocorre quando as respostas do chatbot estão bem estruturadas, mas são totalmente erradas.

Quando a FTC determina que uma empresa viola as leis de proteção do consumidor pode aplicar multas ou impor-lhe um decreto de consentimento, que pode ditar a forma como a empresa trata os dados.