“A Europa como pioneira”. Foi assim que a presidente do Parlamento Europeu, Roberta Metsola, apresentou o novo regulamento aprovado por uma larga maioria pelo Parlamento Europeu a 13 de março para regular o uso de Inteligência Artificial (IA) no espaço europeu. Que novas regras são estas e que consequências advirão para as empresas que já estão a usar diversos sistemas de inteligência artificial nos seus modelos de negócios? O advogado Adolfo Mesquita Nunes respondeu a estas e a outras questões no programa Justiça Cega da Rádio Observador.
[Ouça aqui o programa Justiça Cega desta semana:]
“O regulamento foca-se mais na utilização que fazemos da inteligência artificial do que propriamente na produção de ferramentas ou sistemas. Logo, aquilo que o mesmo vem proibir são utilizações mais do que propriamente ferramentas ou sistemas”, começa por dizer Mesquita Nunes, sócio do escritório de advogados Perez Llorca e especialista em compliance digital.
Por exemplo, vai passar a ser proibido seis meses após a entrada em vigor do novo regulamento — é expectável que seja antes do final de 2024 — o uso de imagens de rostos retiradas da internet ou de sistemas de videovigilância para criar bases de dados de reconhecimento facial, assim como a criação de sistemas de categorização biométricos baseados em determinadas características pessoais.
Adolfo Mesquita Nunes dá outros exemplos concretos de usos de IA que vão passar a ser proibidas. “A categorização social por características identitárias ou por características comportamentais, como acontece na China. Vamos imaginar que um banco ou uma seguradora, utilizam ferramentas de inteligência artificial para fazer profiling dos seus clientes com base nos seus comportamentos sociais para daí inferir qual será a sua capacidade de pagar um empréstimo ou para definir determinado prémio de seguro. Isso não será possível”, explica.
AI Act. Parlamento Europeu aprova primeiro regulamento para a inteligência artificial
O novo regulamento, contudo, não se limita a proibir. Também classifica determinados usos de IA como sendo de alto, médio e baixo risco. Por exemplo, o uso de IA de alto risco exige mitigação de riscos e regras de transparência.
“Uma coisa diferente é fazer credit scoring [pontuação de crédito] e aí estamos a falar de uma prática que é permitida pelo regulamento, mas que é considerada alto risco. Pode fazer-se, mas as empresas” terão de mitigar riscos e implementar políticas de não discriminação”, explica o ex-secretário de Estado do Turismo.
“Pode não ser propriamente relevante que um site me recomende outros produtos para comprar ou outros hotéis para ir dormir através de ferramentas de inteligência artificial. Mas já interferir com a minha vida que um banco me negue um crédito à habitação com base num algoritmo que não me explica. Aí o regulamento diz: o banco vai ter que explicar e garantir que essa pessoa percebe o que o algoritmo está a dizer”, enfatiza.
Outro exemplo prático de mitigação que terá de passar a ser feita tem a ver com algo muito usado nos serviços de apoio ao cliente das grandes empresas de serviços: o uso de bots que começam a comunicação com os clientes. “Isso é considerado como um uso de IA de baixo risco mas há regras a cumprir. O cliente tem de ser informado que está a falar com um bot — e isto aplica-se também aos deepfakes. Isto é, a pessoa tem de saber que não está a falar com um humano tem de ser garantido que o algoritmo que está a ser utilizado para falar connosco não é usado de forma enviesada que pode ser discriminatória”, diz Mesquita Nunes.
Multas podem chegar a 7% das receitas anuais. Quem vai fiscalizar em Portugal?
O novo regulamento vai entrar em vigor em todos Estados-membros na União Europeia 20 dias após a publicação do mesmo no Jornal Oficial das Comunidades — publicação que está para breve. Além dos seus meses após a publicação para a aplicação das proibições acima referidas, os códigos de conduta vão ter que ser aplicados nove meses depois da entrada em vigor, enquanto as novas regras de governação passarão a ser aplicáveis 12 meses depois e as obrigações para os sistemas de alto risco têm um prazo de 36 meses.
No caso de Portugal, terá de ser criada uma nova entidade que fiscalizará a aplicação das novas regras, nomeadamente em termos de monitorização e de instrução dos eventuais processos de contra-ordenação. “Estamos a falar de coimas que, no caso de desrespeito das regras sobre uso de IA proibido, podem ir até 7% do volume de negócios anual global da empresa. É um valor muito significativo. No caso do incumprimento no uso de IA de alto risco, por exemplo, as coimas podem ir até 4%”, enfatiza Mesquita Nunes.
Portugal terá de definir nos próximos meses e cria uma nova entidade nacional nova ou se atribui as competências de fiscalização criadas pelo regulamento aprovado pelo Parlamento Europeu a uma entidade já existente. A importância do tema justifica, no entender de Adolfo Mesquita Nunes, que as empresas se posicionem rapidamente. Dando o exemplo da aplicação da Apple Pay — que tinha um algoritmo que discriminava mulheres nos contratos que fazia “porque ninguém controlou bem os preconceitos do algoritmo —, o advogado alerta para os problemas reputacionais que problemas idênticos podem acarretar para as empresas.
“Imaginemos que uma empresa ‘acorda um dia’ com uma queixa em tribunal porque se descobre que o seu mecanismo de avaliação de performance de funcionários discrimina determinado tipo de comunidades, sem que alguma vez tenha sido dada essa instrução. Ou imaginemos que os bancos ou as seguradoras têm algoritmos que discriminam objetivamente, de forma ilegal, um determinado género. Então temos aqui um problema reputacional.”
“As empresas não devem olhar apenas para a parte sancionatória, mas também para a parte reputacional e devem ter um posicionamento ético sobre a inteligência artificial: até onde é que quero ir, que tipo de utilizações é que quero fazer. Tem de existir um auto-escrutínio”, conclui Adolfo Mesquita Nunes.
Informação corrigida às 19h56 de 1 de maio sobre o valor da coima para violação do uso proibido de IA: é 7% das receitas anuais da empresa prevaricadora, e não 6%.