Quatro das principais empresas a trabalhar na área da inteligência artificial (IA) anunciaram a criação de uma entidade para salvaguardar o desenvolvimento seguro e responsável de modelos de IA. A parceria estabelecida entre a Anthropic, Google, Microsoft e a OpenAI, a responsável pelo ChatGPT, resulta no Frontier Model Forum.

As empresas já tinham ligações entre si: a Google investiu este ano 300 milhões de dólares na Anthropic, fundada pelos irmãos Dario Amodei e Daniela Amodei, ambos ex-OpenAI. A Microsoft é há vários anos uma das principais investidoras na dona do ChatGPT – a dona do Windows investiu este ano 10 mil milhões na empresa fundada por Sam Altman.

Um empreendedor em série que não descarta o cenário de revolta da inteligência artificial. Quem é o líder da dona do ChatGPT?

PUB • CONTINUE A LER A SEGUIR

Através de um comunicado conjunto, explicam que querem “tirar partido da experiência técnica e operacional dos seus membros para beneficiar a totalidade do ecossistema de IA”. Um dos exemplos dados passa pela definição de avaliações técnicas e parâmetros ou pelo desenvolvimento de uma biblioteca pública de soluções para apoiar as melhores práticas na indústria.

Guterres alerta para riscos e impactos da Inteligência Artificial na paz mundial

As empresas indicam que, além de quererem avançar na investigação de IA de forma responsável, “minimizando riscos e permitindo avaliações independentes e padronizadas das competências e segurança” dos modelos, também querem colaborar com reguladores, académicos, empresas e com a sociedade civil para partilhar conhecimento. O fórum também terá como objetivo o “apoio aos esforços de desenvolvimento de aplicações que possam ajudar a responder aos maiores desafios da sociedade”, como as alterações climáticas, cancro ou combate às ameaças informáticas.

Também são partilhados os critérios para poder integrar este fórum. Vão poder aderir empresas que desenvolvam e implementem modelos considerados como de fronteira ou mais avançados, desde que cumpram os critérios definidos pelo fórum, quem demonstre “forte compromisso” para com a segurança dos modelos, “incluindo abordagens técnicas e institucionais” e que estejam disponíveis para participar em iniciativas conjuntas nesta área.

Ao longo dos próximos meses, o grupo de empresas vai trabalhar para criar um conselho consultivo para deliberar estratégia e prioridades para o fórum. Os fundadores dizem ainda que vão entrar em contacto com governos nas próximas semanas para perceber mais sobre a criação do fórum e possíveis formas de colaboração.

IA. Nesta “corrida contra o tempo”, Europa estuda código de conduta voluntário para avançar antes da entrada em ação das novas regras

“É vital que as empresas de IA – especialmente aquelas que estão a trabalhar nos modelos mais poderosos – estejam alinhadas num ponto comum e que avancem de forma ponderada e com medidas de segurança adaptáveis para garantir que ferramentas poderosas de IA podem ter o maior benefício possível”, salienta Anna Makunju, vice-presidente de temas globais da OpenAI.

Já Brad Smith, presidente da Microsoft, sublinha que as “empresas que estão a criar a tecnologia de IA têm a responsabilidade de garantir que é segura e que se mantém sob controlo humano”.

Algumas das próprias empresas a trabalhar no desenvolvimento de IA já vieram a público alertar para os riscos da IA. No final de maio, foi divulgada uma curta carta aberta onde investigadores e líderes empresariais alertavam para a necessidade de “mitigar o risco de extinção trazido pela IA”.  

Investigadores e líderes de empresas alertam para “risco de extinção” trazido pela inteligência artificial