Os principais especialistas mundiais em Inteligência Artificial (IA) alertaram esta segunda-feira para a falta de regulação e controlo da tecnologia e pediram aos líderes mundiais uma maior intervenção, sob pena de um “risco catastrófico” para a humanidade.
“A cibercriminalidade em grande escala, a manipulação social e outros danos podem aumentar rapidamente” e, em “caso de conflito aberto, os sistemas de IA poderiam utilizar de forma autónoma uma série de armas, incluindo armas biológicas”, acrescentam, admitindo uma “possibilidade muito real de que o avanço incontrolado da IA possa culminar numa perda de vidas e da biosfera em grande escala e na marginalização ou extinção da humanidade”, afirmam 25 autores de renome em IA, num documento publicado esta segunda-feira na revista Science.
Os autores salientam que “é imperativo que os líderes mundiais levem a sério a possibilidade de sistemas de IA generalistas altamente potentes – que superem as capacidades humanas em muitos domínios críticos – virem a ser desenvolvidos na presente década ou na próxima” e as “tentativas para introduzir orientações iniciais” não estão a ser suficientes.
Falta de investigação sobre segurança nos sistemas é uma das principais preocupações dos peritos, que estimam em menos de 3% as publicações cientificas sobre o tema, a que se soma a ausência de “mecanismos para prevenir a utilização indevida e a imprudência, nomeadamente no que respeita à utilização de sistemas autónomos capazes de agir de forma independente”, referem os autores, uma lista que inclui galardoados Nobel, investigadores e vencedores do Prémio Turing.
No documento, intitulado “Gerir riscos extremos de IA no meio do rápido progresso”, os subscritores recomendam aos governos que “criem instituições especializadas e de ação rápida para a supervisão”, com um financiamento robusto, “exigência de avaliações de risco muito mais rigorosas e com consequências obrigatórias” e que as empresas “deem prioridade à segurança e demonstrem que os seus sistemas não podem causar danos”.
Nos casos dos sistemas de IA mais potentes, os autores defendem que os “governos devem estar preparados para assumir a liderança na regulamentação”, incluindo o licenciamento, “a restrição da sua autonomia em funções sociais fundamentais, a interrupção do seu desenvolvimento e implantação em resposta a capacidades preocupantes”, entre outras matérias.
Para os subscritores do documento, os riscos da IA são “catastróficos”, porque a tecnologia “já está a progredir rapidamente em domínios críticos como a pirataria informática, a manipulação social e o planeamento estratégico, e poderá em breve colocar desafios de controlo sem precedentes”.
Segundo Stuart Russell, da Universidade de Berkeley, este documento de consenso “apela para uma regulamentação rigorosa por parte dos governos e não códigos de conduta voluntários redigidos pela indústria”, porque os sistemas avançados de IA “não são brinquedos”.
“Aumentar as suas capacidades antes de sabermos como os tornar seguros é absolutamente imprudente. As empresas queixar-se-ão de que é demasiado difícil satisfazer os regulamentos – que ‘a regulamentação sufoca a inovação'”, disse, acrescentando que “há mais regulamentos para as lojas de sandes do que para as empresas de IA”.
Para Philip Torr, da Universidade de Oxford, se existir cuidado, “os benefícios da IA superarão as desvantagens”, mas sem essa preocupação, existe o “risco de um futuro orwelliano com uma forma de estado totalitário que tenha controlo total” da humanidade.
Outro dos autores, o historiador Yuval Noah Harari, recorda que, com esta tecnologia, “a humanidade está a criar algo mais poderoso do que ela própria, que pode escapar ao controlo do ser humano”.