A OpenAI vai criar um comité de supervisão para averiguar a segurança dos modelos de inteligência artificial (IA) que desenvolve, semanas depois de ter dissolvido a equipa de segurança de IA. 

Além do CEO Sam Altman, este comité vai contar com mais executivos que fazem parte do conselho de administração da OpenAI: Bret Taylor, presidente, Adam D’Angelo, CEO da Quora, e Nicole Seligman, advogada e ex-presidente da Sony Entertainment, que faz parte do board desde março.

Os restantes membros do comité têm um perfil mais técnico e são todos funcionários da empresa: Aleksander Madry (diretor de preparação para inteligência artificial), Lilian Weng (líder de sistemas de segurança), John Schulman (líder de alinhamento científico), Matt Knight (líder de segurança) e Jakub Pachocki (cientista-chefe). Haverá ainda consultores ligados à área da cibersegurança, como Rob Joyce, conselheiro de Segurança Interna de Trump, e John Carlin, que integrou o Departamento de Justiça durante a atual administração Biden.

“Este comité vai ser responsável por fazer recomendações ao conselho de administração sobre a segurança crítica e decisões de segurança para os projetos e decisões da OpenAI”, diz a empresa num comunicado divulgado esta terça-feira. Este órgão terá 90 dias para avaliar os limites de segurança dos modelos da empresa e criar um relatório.

PUB • CONTINUE A LER A SEGUIR

A empresa diz que, depois de uma análise do ‘board’, irá “partilhar publicamente as recomendações adotadas de uma forma que é consistente com a segurança”.

A companhia anunciou também que já começou a treinar o seu próximo modelo de IA topo de gama, antecipando que essa investigação deixe a empresa “no nível seguinte de competências no caminho para a AGI”, referindo-se à inteligência artificial geral, em que os sistemas de IA vão conseguir superar os humanos em várias tarefas. O modelo mais recente, o GPT-4o, foi anunciado este mês. 

OpenAI lança modelo GPT-4o que vai estar disponível gratuitamente. E ChatGPT ganha nova aplicação para computador

Este anúncio do  é feito duas semanas depois da saída do cofundador Ilya Sutskever, que era o cientista-chefe da empresa. Os avanços rápidos da empresa na IA terão começado a gerar apreensão internamente: em novembro, Sutskever foi um dos responsáveis pelo golpe para demitir Sam Altman, usando uma “quebra de comunicação” entre o CEO e o board como justificação. O afastamento de Altman durou apenas cinco dias – regressou ao cargo de CEO com poderes reforçados. Em março, foi novamente incluído no conselho de administração da empresa.

Ilya Sutskever, cofundador da OpenAI e um dos líderes do golpe contra Altman, vai deixar a empresa

Na altura, Sutskever disse que estava “profundamente arrependido” do papel que desempenhou no afastamento de Sam Altman. Mas a relação entre os dois fundadores ficou tremida.

OpenAI. Um choque de ideias, uma traição, um despedimento e uma contratação surpresa: os ingredientes da novela que agita Silicon Valley

Na publicação de despedida, Sutskever transmitiu a confiança “de que a OpenAI vai criar uma AGI que é tanto segura como benéfica”. Seguiu-se a saída de Jan Leike, que liderava a equipa de “superalignment”, focada nas ameaças de longo prazo de uma IA capaz de superar os humanos.

Após estas saídas, a OpenAI dissolveu a equipa liderada por Sutskever, responsável pelas questões de segurança da IA.

A liderança e as decisões recentes da OpenAI têm sido alvo de críticas. Durante o fim-de-semana, Helen Toner e Tasha McCauley, que integravam o conselho de administração da empresa até ao golpe de novembro, criticaram a OpenAI num artigo de opinião na revista The Economist. “Acreditamos que a auto-regulação não pode suportar de forma confiável a pressão dos incentivos ao lucro”, escreveram. Ambas destacaram o “enorme potencial da IA, tanto para um impacto positivo como negativo”, argumentando que “não é suficiente assumir que os incentivos [das empresas de IA] vão estar sempre em linha com o bem público”.