As autoridades norte-americanas e canadianas estão a utilizar uma aplicação de reconhecimento facial para identificar vítimas de abuso sexual, noticiou o The New York Times. É, em princípio, uma boa notícia: numa das investigações em que a app foi usada, no estado do Indiana, a Clearview AI (é assim que se chama) reconheceu 14 dos 21 jovens que apareciam nas imagens na posse de um abusador.

Mas há um problema: para conseguir ter esta eficácia, a app já armazenou três mil milhões de vídeos e fotografias, que foi buscar a sites e redes sociais como o YouTube, Facebook ou Twitter, onde essas imagens estão públicas e ao alcance de todos os internautas. A startup norte-americana Clearview AI promete, contudo, ter esta base de dados disponível apenas para investigações policiais e nega utilizar essas informações para outros fins. Mas, como não está a ser regulamentada — não existe ainda regulamentação sobre reconhecimento facial —, não há certezas sobre este ponto.

Na página oficial da aplicação, a empresa define-a como “uma nova ferramenta de pesquisa usada pelas agências policiais para identificar autores e vítimas de crimes“. A tecnologia “ajudou a polícia a localizar centenas de criminosos em geral, incluindo pedófilos, terroristas e traficantes de sexo”, mas também “é usada para ajudar a proteger os inocentes e identificar as vítimas de crimes, incluindo abuso sexual infantil e fraude financeira”.

Quando as autoridades suspeitam que uma determinada pessoa é vítima de um crime ou que é um criminoso, carregam uma fotografia dela na aplicação e esperam que esta procure pelas mesmas características faciais noutras imagens do banco de dados. Ou seja, deteta através de expressões faciais. A pesquisa pode terminar sem qualquer resultado, com resultados “similares” ou com “possíveis resultados” — as certezas só surgem quando os polícias comparam as imagens fora da aplicação.

PUB • CONTINUE A LER A SEGUIR

Associada a cada pesquisa há um número delta (Δ). Quanto menor for esse número, mais precisos são os resultados. De acordo com um documento de perguntas e respostas da Clearview a que o The New York Times teve acesso (normalmente esse PDF só é enviado aos clientes), as pesquisas da aplicação têm uma taxa de precisão de 98,6%, ou seja, raramente há falsos positivos. Contudo, a má qualidade das imagens ou o ângulo da fotografia pode levar a resultados que são falsos negativos. A aplicação tende a acertar em 80% dos casos, uma percentagem que poder aumentar à medida que mais imagens são adicionadas à base de dados — este tipo de programas é otimizado à medida que as bases de dados vão sendo alimentadas.

Um utilizador comum de um smartphone não vai encontrar a Clearview AI se pesquisar por ela na loja de aplicações do telemóvel. Não é “um produto de consumo”, garante a própria empresa na página dedicada à imprensa, que “rejeita a ideia” de que tornar a aplicação pública seria “mais rentável”.

“A Clearview existe para ajudar as agências policiais a resolver os casos mais difíceis. E a nossa tecnologia vem com diretrizes e salvaguardas rígidas para garantir que os investigadores a usam apenas para o propósito a que se destinam.”

De acordo com uma fonte oficial do Departamento Policial de Chicago, um período à experiência de dois anos custou àquela entidade 50 mil dólares, o equivalente a 45,8 mil euros. É o preço que se paga para aceder a uma das ferramentas de reconhecimento facial que maior taxa de sucesso tem no mercado. Para isso conta também o facto de a aplicação não apresentar grandes margens de erro quando tem de identificar indivíduos não-caucasianos. Esta dificuldade tem sido, aliás, um dos principais problemas das ferramentas de reconhecimento facial, descreve a CNN.

Ter “a melhor das intenções” é suficiente?

O fundador da aplicação disse à CNN que teve “a melhor das intenções” quando desenvolveu a tecnologia, mas isso não basta. É isso que defende o Surveillance Technology Oversight Project, um projeto que procura salvaguardar a privacidade tecnológica e que pede mais regulamentação na vigilância que se faz dos cidadãos.

“É difícil. Toda a gente quer segurança e salvar as crianças. Há sempre alguma maneira de normalizar a vigilância, mas seria perigoso para nós focarmo-nos nas possíveis vantagens. O reconhecimento facial comete muitos erros”, comentou Liz O’Sullivan, a diretora tecnológica, ao The New York Times.

A Clearview AI sabe disso e admite haver problemas no controlo do que acontece à base de dados da aplicação quando ela é posta ao serviço de um agente policial. Numa publicação feita no final do mês passado, sobre o código da conduta da empresa, o fundador recorda que todos os dados estão já disponibilizados, publicados e ao alcance de qualquer um na internet. E confessa: “Reconhecemos que as ferramentas poderosas têm sempre o potencial de serem alvo de abuso, independentemente de quem as esteja a usar, e levamos a ameaça muito a sério”.

A empresa afirma que tem “sistemas de seguranças incorporados para garantir que os profissionais treinados só usam isto para aquilo para que foi concebido”, mas nunca esclareceu que sistemas são esses. Essa utilização não é regulada por entidades independentes, aponta Liz O’Sullivan. E, de resto, as verdadeiras vantagens do sistema podem não ser tão bem sucedidas quanto afirma a empresa, critica a ativista.

Liz O’Sullivan suporta essa posição em três aspetos. Em primeiro lugar, o reconhecimento facial pode ser menos eficaz em crianças, porque os rostos dos menores alteram-se com muita rapidez. Depois, porque os rostos utilizados para conceber o algoritmo original das aplicações de reconhecimento oficial são, normalmente, de adultos — fazendo com que a aplicação seja menos capaz de identificar crianças.

E, em terceiro lugar, porque “a troca de liberdade e privacidade por algumas evidências anedóticas anteriores de que isso pode ajudar algumas pessoas é totalmente insuficiente para transferir as nossas liberdades civis”, disse ao The New York Times.

Hoan Ton-That, o fundador da Clearview AI e autor de aplicações jocosas como a que permite juntar o cabelo de Donald Trump ao retrato de alguém, já respondeu a estas preocupações. Ao mesmo jornal, o empresário diz compreender “a extrema sensibilidade em envolver a identificação de crianças” — numa primeira fase, a aplicação só era utilizada para identificar os abusadores — mas garante que a missão da empresa é “proteger os menores”.

Sobre a ausência de regulamentação, Hoan Ton-That justifica: “Nós somos um motor de busca de imagens públicas, não um sistema de vigilância”, afirmou ao The New York Times. E questionado sobre o facto de, ao receber imagens que indiciem algum tipo de abuso entre as pessoas retratadas nela, ser obrigado a reportar o caso à polícia (caso contrário, tornar-se-ia cúmplice do alegado crime), o fundador também contorna a situação: “Só temos rostos, não imagens inteiras”.

Desde que o debate ético que tem balanceado as vantagens e os problemas desta utilização do reconhecimento facial, as redes sociais uniram-se para enviar uma carta à Clearview AI exigindo-lhe que pare de recolher fotografias e vídeos publicados naqueles sites — mesmo os conteúdos em estado público — e elimine aqueles que já tem armazenados, contou o The New York Times.

Mas, apesar das críticas que o Facebook já fez publicamente contra esta tecnologia, um dos investidores da Clearview AI é Peter Thiel — que, além de ter fundado PayPal, também é investidor e membro do conselho de administração da rede social liderada por Mark Zuckerberg. A confirmação veio da assessoria do investidor à CNN, que afirmou que Peter Thiel investiu 200 mil euros na Clearview AI em 2017. Mas nem ele, nem Hoan Ton-That clarificaram se Thiel estava ciente de como a nova aplicação usaria as publicações do Facebook e de outras redes sociais na arquitetura algorítmica da Clearview AI.

A procuradoria-geral de New Jersey proibiu as autoridades de utilizarem a Clearview AI; e tanto o estado do Illinois como o de Virginia ponderam fazer o mesmo. Em declarações à CNN, Gurbir Grewal, o procurador-geral de New Jersey, disse-se “profundamente perturbado” pela tecnologia da Clearview AI: “Fiquei preocupado com o modo como a Clearview acumulou o banco de dados de imagens que usa com a sua tecnologia. Fiquei preocupado com as medidas de privacidade e segurança cibernética adotadas”.

Nova Iorque e Washington têm em mãos projetos de lei que também podem travar a utilização desta tecnologia pela polícia. Em Massachussets, a procuradoria-geral pediu à empresa que informe a justiça sobre que entidades policiais estão a usar a Clearview AI ativamente nas suas investigações sobre o abuso sexual de menores.