Da propalada vanguarda regulatória europeia, versada na Proposta do Parlamento Europeu e do Conselho para o Regulamento Inteligência Artificial (IA), de 21 de abril de 2021, sobressaem aquelas que são as pretensões éticas de uma tecnologia intrinsecamente amoral. Pretender-se-ia, grosso modo, que o mundo mirasse a União Europeia como pioneira na aprovação de regras uniformizadoras e flexíveis, paradoxo este pretensamente traduzível de (ou antes, para uma) mais e melhor confiança em operações executadas pelos sistemas de IA.

Nesse sentido, esta proposta cristalizou logo, no seu número 1 do artigo 3.º – quando e se interpretado à luz do considerando 6 – a ousadia em universalizar uma definição para estas estruturas lógicas programáticas – como se de simples automatismos autónomos elencáveis em anexos taxativos, em maior ou menor medida sempre controláveis pelo ser humano –, se tratem. Consideravam estes organismos da União que reconduzir esta tipologia de sistema à noção de um “programa informático desenvolvido com uma ou várias das técnicas e abordagens (…) capazes de, tendo em vista um determinado conjunto de objetivos definidos por seres humanos, criar resultados, tais como conteúdos, previsões, recomendações ou decisões, que influenciam os ambientes com os quais interage” era o bastante, não fosse aqui o render ajuizado da Engenheira do Direito. Este novo ramo propõe-se ora desvendar muitas inverdades que nesta ficção se disfarçam como mentiras técnicas consagradas pela necessidade de obstinar não reconhecer a personalidade jurídica ao novo mundo de agentes paralelos, de artefactos inteligentes, que já se abeirou, claro está, com as devidas (e, para muitos, inesperadas) consequências inconstitucionais que a aplicação direta no ordenamento jurídico português do Regulamento Geral sobre a Proteção de Dados (o RGPD) evidencia desde há muito, a melhor ver, a partir do dia 25 de maio de 2018. Também já nos dias de hoje, a entrada em vigor no dia 16 de julho do n.º 1 do artigo 9.º da Lei n.º 27/2021, de 7 de maio, intitulada Carta Portuguesa de Direitos Humanos na Era Digital (CPDHED), é manifestamente descuidada, limitando-se a prescrever, quase que num enjeito copy paste, que o uso da IA deve ser orientado “pelo respeito dos direitos fundamentais, garantindo um justo equilíbrio entre os princípios da explicabilidade, da segurança, da transparência e da responsabilidade que atenda às circunstâncias de cada caso concreto e estabeleça processos destinados a evitar quaisquer preconceitos e formas de discriminação”.

Pois que, do conceito da proposta infere-se, primeiramente, o reiterado viés monodisciplinar de atos normativos secundários do Direito da União Europeia, como sucede, aliás, com os vários Regulamentos e Diretivas em matérias de Direito e Tecnologia. Estes becos sem saídas draconianos parecem agora também repisar-se em atos do Direito Interno, como o do n.º 1 do artigo 9.º da CPDHED. Abispa-se então que este(s) baluarte(s) tão-só dos livros das Faculdades de Direito não pode sem mais perpetuar propor ou aprovar atos normativos autoconstruídos. Antes pelo contrário, uma área pluridisciplinar como a da IA em particular, não só pode, como deve ou até tem de decifrar múltiplos saberes externos – mais polímatos, diria.

Senão vejam-se alguns dados estatísticos que corroboram estas afirmações. De facto, haverá que realçar numa primeira análise que, por de entre um total de 1215 contribuições da consulta pública online acessível por todos os interessados a partir do dia 19 de fevereiro de 2020, apenas 352 ensaios ou investigações (ou seja, em termos percentuais, 28,9% dos participantes) materializaram pontos de vista ou opiniões manifestadas por empresas, associações ou organizações que atuam, direta ou indiretamente, na indústria da IA. Daqui depreender-se-ia, ainda que parca e aprioristicamente, a propensão para a tal maior ou tendencial multidisciplinaridade que colmatasse as falhas de especialização (ou melhor, as lacunas de formação jurídica nesta área) que têm engendrado obstáculos intransponíveis à aprovação de políticas náufragas dos conhecimentos informáticos e da neurociência. Não obstante, esta sensação de saber para-jurígeno, afinal, não passou de um mero fogo de vista. É que o estudo de impacto desta proposta, também publicado na mesma data, esclarece-nos que a maioria dos ensaios de investigação submetidos (ou seja, 286 dos 408 escritos, correspondentes a aproximadamente 70% do total) não fazem qualquer menção à definição plasmada de “sistemas de IA”. Como se não bastasse, 64 destas entidades (numa parcela equivalente a 15,7% das apresentadas dentro de um total percentual dos 30% excedente) revela discordância(s) para com o corpo do texto referente ao conceito aludido, considerando-o demasiado amplo ou restritivo, alternativamente. Pior ainda, 5,4% dos documentos submetidos, i.e., um total destes 22 participantes que se pronunciaram, caraterizam-na pela sua indesejável não clareza ou imprecisão terminológica – não surpreendente.

PUB • CONTINUE A LER A SEGUIR

Pois bem, num diapasão mais técnico, é indubitável que a falsa tendência regulatória que pode vir a ser imposta aos vários Estados-Membros robustece o desenvolvimento obrigatório de sistemas de “IA centrada no ser humano” desde a conceção – autopáticos, portanto. Desta catadura ressaltam, desde logo, quatro desarranjos incorretos em relação aos quais não se pode deixar de fazer referência, desde logo, porque clarificam o obscurantismo ou a incompletude (omissiva e irrazoável) dos vários normativos do RGPD e da CPDHED, quando e se aplicáveis a título de sanção contraordenacional ao contexto pragmático da IA.

Em primeiro lugar, sendo unânime o entendimento segundo o qual a IA pode ser versada enquanto engenharia que se debruça sobre o desenvolvimento de entidades artificiais habilitadas à execução auxiliar ou substitutiva de tarefas científicas geralmente associadas à faculdade ou habilidade inteligência, avalia-se como totalmente desacertada (ou até mesmo, propositadamente ardilosa) a definição expressa no artigo 3.º da proposta em apreço. Sucede que desde meados da década de 80 do século passado que o subcampo “Inteligência Artificial Distribuída” surgiu no propósito de analisar, configurar e implementar Sistemas Multi-agente que, além dos “diferentes níveis de autonomia”, exteriorizam propriedades ou atributos – não conscientes, é certo – de racionalidade, sociabilidade, reatividade, proatividade, entre tantos outros, como comprovaram Michael Wooldridge e Nicholas Jennings no ano de 1995. Pelo dito, não se pode refutar a ideia segundo a qual o trato autonomia não encontra no considerando 6 qualquer outra sem-par funcionalidade por incúria propositada do “quem” com dever de cuidar e corretamente legiferar. Aqui, uma teoria agentícia do direito ao uso razoável e lógico-inferencial da IA viabilizaria indubitavelmente performances e interações mais precisas, mais adaptadas e mais profícuas dos sistemas avançados aos problemas setoriais, tantas vezes complexos, em relação aos quais novas intencionalidades são comummente treinadas, testadas, validadas e implementadas.

Em segundo lugar, é incorreta, segundo as bases primárias da informática teórica, a tradução efetuada na versão portuguesa da expressão “resultados”, plasmada na definição do n.º 1 do artigo 3.º em análise. Certo é que na IA tudo findará com a tomada de uma decisão exclusiva ou parcialmente automatizada, subsumível em conformidade ao artigo 22.º do RGPD. Mas sobre as suas correlações intermédias ou até mesmo após aquelas extraídas nas saídas modelares -como sejam, os conteúdos, as recomendações ou as previsões, etc. – nem sempre o ser humano terá controlo. Tal corroborar-se-á facilmente através da confrontação das expressões inscritas em língua inglesa na alínea a) do artigo 3.º – o output – com aquela outra plasmada na alínea e) do n.º 2, do artigo 7.º da proposta – o outcome –, erradamente traduzidas no uso dos mesmos termos pela versão portuguesa, com as respetivas repercussões quanto à prática design thinking do estágio primário, a maturação, na conceção de uma aplicação inteligente. Aliás, apercebe-se, desde logo, esta imperfeição no ato de aplicação precipitada à proibição de sujeição a decisões individuais automatizadas do artigo 22.º do RGPD quando a própria Comissão Nacional de Proteção de Dados (CNPD), no ponto 38 da Deliberação/2020/292, de 8 de julho, condiciona o Vitória Sport Clube de aceder a tecnologias de reconhecimento facial sem compreender que o processo de decisão em causa não seria exclusivamente automatizado. No caso sub judice, a realidade na interface homem-máquina em apreço descrevia um tratamento sequencial demarcado pela primeira fase de deteção e reconhecimento facial e, só numa fase ulterior, é que as Forças de Segurança seriam incumbidas de validar as saídas sinalizadas das pessoas com a subsequente interdição controlada e mais fidedigna do acesso ao recinto desportivo do Estádio D. Afonso Henriques.

Em terceiro lugar, a assumirem-se os termos da transparência interpretável tal qual propostos pelo número 1 do artigo 13.º do Regulamento IA, pôr-se-á término ao debate acerca da existência de um direito à explicação enquanto salvaguarda necessária – ora tido como sistematicamente utópico e desprovido de eficácia – para o titular dos dados pessoais, tal qual exigida em contornos genéricos e abstratos (ou incompletos) pelo n.º 3 do artigo 22.º do RGPD – dizem alguns, direito este que resulta também da interpretação com os artigos relativos às informações a prestar aos titulares dos dados pessoais. Sucede que, revelará mais, para os devidos efeitos, a capacidade de intuir a forma como o modelo de aprendizagem se comportará em termos de acuidade diante a alteração das entradas (os inputs) do que explicar à limitada cognição humana em ambiente big data a mecânica interna ou o nexo causal das correlações individuais estabelecidas no (ou para o) processo de tomada de decisão, em especial quando aplicadas técnicas de aprendizagem profunda, não rastreáveis e insuscetíveis de engenharia reversa.

Por último, também sobremodo preponderante, surge aqui a tópica atinente à exequível supervisão suficientemente atenta do ser humano em ambientes de computação de alto desempenho, como nos pode vir a ser exigido segundo a versão atual do artigo 14.º da proposta de Regulamento IA. Já em 2002, não conjeturando sequer os avanços sobrevindos nesta área, Paulo Alexandre Ribeiro Cortez não deixara de notar que em termos de velocidade, o processo neurofisiológico do correlato sináptico-neuronal é cerca de 5 a 6 vezes mais lento do que uma porta lógica de silício. Perante isto, deixa-se então o seguinte repto: não seria mais profícua a criação de agentes policiais artificiais contrafactuais do que a conceção de interfaces homem-máquina que, no atual estado de arte, ainda não viabilizam o controlo do processo decisório, não raras vezes tão-só de suporte à decisão e, a fim ao cabo, ainda assim semi-automatizado e não inteligíveis?

Face ao exposto, são evidentes os perigos e abusos típicos de uma discricionariedade desproporcional e irrazoável como esta que neste artigo de opinião se descortinara. Não se esqueça o tecido empresarial que o paradigma regulamentar europeu e legislativo nacional continua a sujeitar qualquer preterição dos direitos dos titulares dos dados pessoais ao pagamento de “coimas até 20 000 000 EUR ou, no caso de uma empresa, até 4% do seu volume de negócios anual a nível mundial”, nos termos da alínea b) do n.º 5 do artigo 83.º do RGPD e da alínea i) do número 1.º do artigo 37.º da Lei n.º 58/2019, de 8 de agosto, que assegura na ordem jurídica interna a execução do RGPD.

Questiono-me, nesta encruzilhada panorâmica com tantas técnicas pinturescas abstratas:

  • Conseguirão ora os (co)-responsáveis pelo tratamento depreender os elementos essenciais que fundamentam a licitude ou a legitimidade de um tratamento de dados pessoais à escala IA sem a aprovação e entrada em vigor do Regulamento IA?
  • Considerar-se-á observado o requisito de legalidade do artigo 1.º na redação atual prevista pelo Decreto-Lei n.º 433/82, de 27 de outubro, este que institui o ilícito de mera ordenação social e respetivo processo?

Sem mais, indaga-se que toda e qualquer resposta do quadro legal em vigor é insuficiente, deficiente e inadequada. Fere o limite positivo constitucional que exige do Estado e dos seus órgãos uma mais e melhor atividade legislativa, uma proporcional ação. Traduz uma incapacidade legiferante que corrige a vermelho estas vivificadas lacunas do “quemcom reserva de competência relativa, por força das alíneas c) e do d) do n.º 1 do art. 165.º da Constituição da República Portuguesa (CRP). Até porque nem a lei que assegura a execução do RGPD na ordem jurídica nacional – i.e., a Lei n.º 58/2019, de 8 de agosto – contém qualquer disposição aplicável a matérias de IA, a não ser para as sancionar sem mais via remissões indiretas. E mesmo o n.º 1 do artigo 9.º da CPDHED, apesar de quase auto-intitulada como se de uma norma hierarquicamente superior à de uma lei se trate, replica na sua substância o despautério técnico-científico estabelecido no (ou pelo) articulado do RGPD.

Afinal, certo é que a totalidade dos obstáculos jurídicos em torno dos critérios que determinam a informação passível de ser utilizada pelos responsáveis pelo tratamento de dados pessoais apenas serão integralmente resolvidos na presença de normas setoriais específicas. Estas, por conseguinte, devem ser claras e completas, recorrer a critérios sólidos, bem definidos tecnicamente. Devem sobretudo, mais do que tudo e acima de tudo, auxiliar na determinação daquelas classes de megadados que podem ser utilizados nas entradas dos modelos (os inputs) em função das saídas (os outputs), para o melhor desempenho de uma determinada tarefa (o outcome). Sem que com isto, se queira alguma vez batalhar por abdicar da neutralidade tecnológica exigível em ambientes concorrenciais como este.

Portanto, também aqui, por enquanto, melhor legislador português, precisa-se, sob pena de tanto o Presidente da República, como o Provedor de Justiça, ou até o próprio Tribunal Constitucional – em sede de fiscalização concreta – poderem suscitar ou verificar a existência de uma inconstitucionalidade por omissão nos termos do artigo 283.º da CRP.

Resumindo, se dantes, via-me ao espelho como o Dom Quixote de la Mancha do Direito da Inteligência Artificial – aquela criatura que julgara ser boa guerra lutar contra cerca de 15 moinhos de ventos jusfundamentais –, hoje, reconheço (não desconsiderando os direitos, é certo) preferir ser o amigo Sancho Pança, futurista, declaradamente defensor de uma tecnofilia cautelosa, não proibitiva, antes promotora da inovação tecnológica. Já Stephen Hawkings se interrogava acerca de todos os temores que sondam esta área. Afinal “por que estamos tão preocupados com a inteligência artificial? Decerto os seres humanos serão sempre capazes de a desligar”. Assim, espero que este meu pequeno contributo assista, tanto os cidadãos como as empresas diretamente interessadas na indústria da IA, a perspetivar a comunidade de agentes plúrimos em alusão à alegoria da caverna XXI. Esta tem sido até agora personificada inconstitucionalmente fazendo uso de prisioneiros humanos que têm sido forçados a olhar somente para a parede do drama, sem sequer poderem ver os outros agentes ou a si próprios, reconhecendo os seus limites e potenciando outras das suas valências, quiçá, desconhecidas até hoje.

Porque o regime atual em vigor é inconstitucional por omissão e, se aplicadas as coimas correspondentes, irrazoável ou destruidor será diante a maioria do tecido empresarial. Parece-se com um eletrão: a existir, a fim ao cabo, ninguém sabe onde está, porque até não são conhecidas as suas concretas componentes ou propriedades.