A Amnistia Internacional alertou esta segunda-feira contra o uso de inteligência artificial para prejudicar os requerentes de asilo, com vigilância eletrónica e discriminação racial que atentam contra os direitos humanos.

Num relatório publicado esta segunda-feira, denominado “Defendendo os direitos dos refugiados e migrantes na época digital”, a organização não-governamental (ONG) alerta que “estas tecnologias estão a tornar-se cada vez mais uma preocupação fundamental em matéria de direitos humanos”.

Os Estados utilizam mecanismos de vigilância e controlo, com recurso a Inteligência Artificial, para “violar as suas obrigações em matéria de direitos humanos para com os refugiados e os migrantes”, refere a organização.

Citado em comunicado, o conselheiro da Amnistia Internacional para a Inteligência Artificial e a Tecnologia dos Direitos Humanos, Matt Mahmoudi, considera que “a proliferação destas tecnologias corre o risco de perpetuar e reforçar a discriminação, o racismo e a vigilância desproporcionada e ilegal contra pessoas racializadas”.

PUB • CONTINUE A LER A SEGUIR

O relatório documenta a forma como os governos utilizaram tecnologias específicas nos sistemas de asilo e migração, dando o exemplo dos Programas de Supervisão Intensiva e de Monitorização Eletrónica, nos EUA, que se destina a “monitorizar os migrantes e os requerentes de asilo libertados de detenção”.

Refere ainda a construção de “torres de vigia orientadas por Inteligência Artificial ao longo da fronteira entre os EUA e o México, que aumentam o risco de identificação de perfis de comunidades negras, latino-americanas e outras comunidades racializadas”.

No caso da União Europeia, está em vigor a “vigilância aérea em tempo real e drones sobre o Mar Mediterrâneo central para identificar embarcações de refugiados e migrantes no mar e coordenar com as autoridades líbias a sua chegada às costas europeias”.

A Amnistia Internacional alerta para o futuro uso do “sistema automatizado de controlo das fronteiras financiado pela UE, denominado iBorderCtrl”, que já foi testado na Hungria, na Grécia e na Letónia.

“O projeto utilizou um sistema de inteligência artificial ‘detetor de mentiras’ para entrevistar os viajantes que pretendem atravessar as fronteiras, ao mesmo tempo que avalia os pormenores minuciosos das suas expressões faciais utilizando tecnologias de reconhecimento facial e de emoções”, refere a organização.

Caso o sistema considere que as respostas foram honestas, os inquiridos “recebem um código que lhes permite atravessar a fronteira”.

Estas tecnologias “estão a reforçar a exclusão e a bloquear a circulação de migrantes, requerentes de asilo e refugiados negros, muçulmanos e de outras raças”, através de “regimes fronteiriços que discriminam com base na raça, etnia, origem nacional e estatuto de cidadania”, alerta a Amnistia Internacional.

Para tentar ultrapassar a situação, a ONG pede aos Estados que protejam “os direitos das pessoas em movimento, abstendo-se de usar tecnologias que estejam em desacordo com os direitos humanos e garantindo que as tecnologias digitais abordem o racismo sistémico, a xenofobia e a discriminação”.

Além disso, os autores do relatório pedem o fim do uso de “ferramentas de reconhecimento de emoções”, baseadas na Inteligência Artificial e de “sistemas automatizados de avaliação de riscos e de definição de perfis na migração, na gestão do asilo e no controlo das fronteiras”.

No caso dos pedidos de asilo, a ONG insiste na proibição de “qualquer utilização de tecnologias preditivas que ameacem” esse direito, consagrado internacionalmente.