“Esta proposta é sobre a proteção das crianças, para resgatá-las e ajudá-las”. Foi desta forma que a comissária europeia dos Assuntos Internos, Ylva Johansson começou na quarta-feira a apresentação da proposta de regulamento 2022/0155 da Comissão Europeia. O objetivo é claro e consensual — combater o abuso sexual de menores e a divulgação de pornografia infantil. Mas a ideia para chegar a esse objetivo não é tão unânime: a Comissão quer obrigar as plataformas digitais a monitorizar todas as “comunicações interpessoais”, para detetar possíveis abusos. Ou seja, quer vigiar e passar a pente fino todas as mensagens enviadas e recebidas pelos cidadãos europeus.
Uma ideia que fez soar os alarmes, principalmente entre os defensores dos direitos digitais. Isto porque a proposta de regulamento da Comissão Europeia não tem medo de dizer ao que vem: na página 13 do documento — e de resto, em várias passagens do texto –, o organismo admite que a proposta “resulta em níveis variados de intrusão em relação aos direitos fundamentais dos utilizadores”. E que direitos? À cabeça o direito à privacidade, contemplado no artigo 5.º. da Diretiva 2002/58 da Comissão Europeia, que garante a “confidencialidade das comunicações”, bem como a proibição de “dispositivos de escuta, armazenamento ou outras formas de interceção ou vigilância de comunicações”, que podem agora ficar em risco. Pelo menos é o que receia a comunidade digital.
Bruxelas quer vigiar comunicações online para combater abuso de menores
“Fica difícil escapar à analogia do Big Brother”
Ricardo Lafuente, vice-presidente da D3, a associação portuguesa de Defesa dos Direitos Digitais, reconhece a importância da proteção das crianças, mas não tem dúvidas: a proposta europeia pode levar a uma “grande catástrofe” em termos de direitos de privacidade, que podem mesmo chegar ao fim se o plano for aprovado. “O abuso sexual de menores é um problema gravíssimo e delicado, mas está a ser aqui usado apenas como pretexto político para mais uma vez tentar enfraquecer a privacidade da comunicação das pessoas”, diz ao Observador.
UE quer ver chats: “É difícil escapar à analogia do Big Brother”
Mas, afinal, segundo a proposta da Comissão Europeia, quem é que pode vir a ler as nossas mensagens? A resposta até pode ser “ninguém”, pelo menos de carne e osso e numa primeira instância. De acordo com a proposta, a análise das comunicações vai ser feita por softwares de inteligência artificial através do fenómeno de “hashing“, que no fundo compara as mensagens analisadas com abordagens de abusos sexuais reais. Diz a proposta europeia que vão ser usadas “tecnologias confiáveis de deteção automática”, o “menos intrusivas à privacidade possível” e que todas as monitorizações necessárias vão ser feitas “de forma anónima”. A parte humana chega depois: enquanto estas inteligências artificiais são uma espécie de antivírus, que serve para lançar um alerta de suspeição sobre conteúdos de abuso, a filtragem destas suspeitas vai ser feita por pessoas. E é aí que entra o “Big Brother”, uma analogia a que Ricardo Lafuente diz ser difícil de escapar.
Esse “Big Brother” é uma entidade independente — feita por pessoas –, que vai ser criada em cooperação com a Europol, para analisar, com olho humano, todas as mensagens suspeitas sinalizadas pelas inteligências artificiais. Chama-se Centro UE e diz o jornal Político que deve custar cerca de 26 milhões de euros. É aqui que, em teoria, haverá pela primeira vez pessoas reais a ver correspondência privada… mas que pode ser ou não realmente suspeita.
O Observador falou com o eurodeputado alemão e ativista pelos direitos digitais Patrick Breyer, que abre a hipótese de chegar muito material inocente, de qualquer um de nós, às mãos e olhos deste Centro UE: “Para uma máquina, é realmente impossível identificar com segurança que imagens são de um abuso e que imagens são, por exemplo, de uma família na praia, ou de uma foto íntima que partilhamos com um parceiro”. Ou seja, diz o eurodeputado dos Grupo dos Verdes, há um risco elevado de que cheguem aos analistas humanos do Centro UE fotos ou mensagens privadas — e inocentes — de qualquer cidadão europeu. Isto porque, diz, a inteligência artificial é “propensa a erros”, ainda que se saiba muito pouco sobre qual vai ser utilizada.
“Estes algoritmos são ainda experimentais, sabemos muito pouco sobre eles. Não são públicos e não sabemos absolutamente nada sobre a margem de erro que podem conter. Por isso, é provável que muitas conversas inocentes entre adolescentes ou entre adultos sejam falsamente divulgadas”, avisa o eurodeputado, que acrescenta que “é muito perigoso não sabermos nada sobre as tecnologias que podem vir a ser usadas para monitorizar as comunicações”. Por enquanto, sabe-se apenas que as empresas de comunicação vão ser parte importante no desenvolvimento dos softwares, até porque vão ser obrigadas a fazer esta monitorização. Até agora, e desde julho de 2021, está em vigor uma lei semelhante a esta proposta, mas com uma pequena grande diferença: as plataformas não eram obrigadas a vigiar as comunicações, mas podiam fazê-lo numa base voluntária. Com o cariz obrigatório que a proposta determina, chegam as críticas.
O artigo 28.º, alínea c) da proposta apresentada, estabelece que as empresas que se recusem a monitorizar as mensagens privadas dos seus utilizadores serão penalizadas com uma multa. No documento não é mencionado o valor dessa multa, mas diz o jornal Político que pode chegar aos 6% da receita global anual da empresa. A título de exemplo, se o Twitter — que teve quase 5 mil milhões de euros de receita em 2021 — se recusar a vigiar as comunicações dos seus utilizadores, terá de pagar uma multa de quase 300 milhões de euros. Do WhatsApp, chegaram os primeiros sinais de revolta: o diretor da plataforma, Will Cathcart, considera que a ideia é “errada e incoerente com o compromisso da União Europeia” e que pode ser “usada para atacar os direitos humanos de muitas maneiras diferentes em todo o mundo”. Contactada pelo Observador, a Google preferiu não fazer comentários sobre a proposta. Já o Grupo Meta — que detém o Facebook, Instagram e WhatsApp –, também em resposta ao Observador, admite que está “ansioso” por trabalhar com a UE, mas ressalva a importância de que “quaisquer medidas adotadas não prejudiquem a encriptação ponto-a-ponto, que protege a segurança e a privacidade de milhões de pessoas, incluindo crianças”. E por falar nelas: independentemente de todos estes receios… será esta proposta eficaz no combate ao abuso sexual de menores?
Incredibly disappointing to see a proposed EU regulation on the internet fail to protect end-to-end encryption. https://t.co/1W1HixQUVJ
— Will Cathcart (@wcathcart) May 11, 2022
Da “proposta válida” à “porta aberta a outros ilícitos”
O Observador falou com Paulo Pelixo. É psicólogo e diretor-executivo da Associação para o Planeamento da Família. Dedicou grande parte da vida profissional à área da intervenção em abuso sexual infantil. Olhando para a proposta da Comissão Europeia, não tem dúvidas: a proposta é “muito válida”, principalmente numa altura destas. “Devemos encontrar soluções de forma urgente, até porque tem havido um aumento no número de denúncias e de vítimas de abuso desde o início da pandemia”, explica. Em 2021, a Fundação Internet Watch registou um aumento de 64%, em comparação com 2020, nas denúncias confirmadas de abusos sexuais de crianças. Também no ano passado, diz a Comissão Europeia, foram denunciadas 85 milhões de imagens e vídeos de alegados abusos sexuais de crianças.
Números que apelam à urgência e à adoção de medidas fortes, diz Paulo Pelixo: “É uma problemática que exige medidas muito consistentes e por vezes, talvez, até duras para promovermos o combate a este fenómeno”. Do lado da defesa dos direitos digitais e da privacidade dos utilizadores, não há dúvidas da gravidade do fenómeno e da necessidade de proteger as crianças. Há dúvidas, sim, quanto à eficácia da proposta e do extremismo da medida. O eurodeputado alemão Patrick Breyer diz ao Observador que de acordo com a Polícia Federal Suíça, 87% das denúncias recebidas pelo método de “hashing” são “criminalmente irrelevantes”. Além disso, assegura que “não há provas de que esta estratégia sustenha a difusão da pornografia”, usando o exemplo do Facebook: “Eles já fazem monitorização das conversas de forma voluntária há alguns anos e as denúncias reportadas continuam a aumentar em cada ano”, garante o membro do Partido Pirata Alemão.
???????? Why are the EU's plans for #chatcontrol so dangerous? What could happen to your private holiday photos in the future if the law is passed? https://t.co/fta5P7Riva pic.twitter.com/prQobTFpL1
— Patrick Breyer #PiratenWählen (@echo_pbreyer) May 13, 2022
Ricardo Lafuente alinha com o eurodeputado. O vice-presidente da D3 aposta que a proposta “não terá qualquer efeito ou um efeito diminuto no combate à criminalidade” e que “os criminosos vão continuar a passar fora disto”, até porque muitos atacam e trabalham apenas em fóruns e redes privadas, muitas vezes até na deep e darkweb. Paulo Pelixo não nega essa realidade, mas lembra que uma parte da ação criminal acontece bem às claras e em espaços que todos conhecemos: “O aliciamento vai acontecer sempre que houver crianças. E nós sabemos exatamente que há crianças que são aliciadas, por exemplo, no Facebook, e noutras plataformas que todos utilizamos”. Por um lado, fica assim patente a importância da proteção das crianças, e por outro a importância do direito à privacidade. Numa balança, é difícil perceber qual pesa mais, mas à luz da lei haverá uma mais pesada que a outra?
O “princípio da proporcionalidade”, a bóia de salvação
No documento da proposta de regulamento, a Comissão Europeia não tem medo de assumir que o que está em causa é um dilema entre direitos: o direto à privacidade e o direito à proteção de menores. Logo na página cinco pode ler-se que a proposta quer “equilibrar de forma justa os vários direitos fundamentais em causa”, mas relembra também que em causa está “o contexto da luta contra o abuso sexual infantil online e a importância do interesse público em jogo”. Mais à frente, sublinha-se também que estes direitos não são absolutos, e por isso há margem para os limitar em situações extremas. E é aí que está a chave para a legalidade.
O Observador falou com João Ferreira Pinto. É advogado e foca-se na proteção de dados e cibersegurança. Foi ainda adido técnico na representação permanente de Portugal junto da União Europeia, durante a presidência portuguesa em 2021, e por isso mesmo teve um contacto próximo com a proposta da Comissão. Considera que o que está em causa é o “balanceamento de dois direitos fundamentais” e explica: “Para a proposta ser eficaz, tem de ser altamente intrusiva. E só há uma forma de o permitir, que é sacrificando até determinado ponto a nossa privacidade nas comunicações eletrónicas”. E esse “sacrifício” é legal? Sim, diz, mas apenas se “houver um regulamento ou uma legislação”. No fundo, acrescenta, a lei anda à volta de um dilema, em que é “preciso ponderar o que é mais importante: a nossa privacidade de comunicação ou o combate ao abuso sexual infantil”.
E é aqui que entra o princípio de proporcionalidade. Na proposta (página 12) pode ler-se que “sob reserva do princípio da proporcionalidade, as limitações só podem ser feitas se forem necessárias e corresponderem genuinamente a objetivos de interesse geral ou à necessidade de proteger os direitos e liberdades de terceiros”. Mas o que é, afinal, isto do princípio da proporcionalidade? João Ferreira Pinto explica: “Sempre que houver uma compressão de um direito fundamental, ela tem de ser justificada, balanceada e proporcional. Isto é, não se pode apagar o direito fundamental de todo”. O advogado exemplifica com o caso da pandemia e os estados de emergência: “O direito à vida é sagrado, mas não é ilimitado. Há circunstâncias em que infelizmente, por razões médicas, é preciso optar por uma ou outra, como aconteceu na pandemia. Inclusivamente, a nível constitucional, tivemos uma discussão no início da pandemia em Portugal, com as medidas restritivas em que se discutia qual era a proporcionalidade de as pessoas usarem máscara ou não poderem sair de casa”.
Luís Neto Galvão, sócio da SRS Advogados, advogado também especializado em tecnologias e privacidade, concorda e faz outra comparação, com o polémico caso dos metadados. Explica que o direito à privacidade não é absoluto e que por isso “pode ser limitado, o que é possível à luz da nossa Constituição e à luz da Carta dos Direitos Fundamentais Europeia”. No fundo, acrescenta, “o que a Comissão Europeia quer fazer é criar um regime de exceção relativamente a uma lei que protege a privacidade. Estamos a comprimir um direito fundamental para salvaguardar outros direitos e garantir maior eficácia no combate ao abuso de menores”.
My message to victims of child sexual abuse, to law enforcement officers and to the criminals who commit this horrific crime.
For more on #EUvsChildSexualAbuse please go here ???? https://t.co/TZopmVpKy6 pic.twitter.com/1YgHcUdU4l
— Ylva Johansson (@YlvaJohansson) May 12, 2022
E pegando no caso dos metadados: em caso de aprovação desta proposta, como é que pode ser transposta para o direito português? João Ferreira Pinto indica que não haverá muito a fazer: “Isto é um regulamento comunitário e os regulamentos comunitários não são transpostos para a lei nacional. Eles vigoram na ordem jurídica da União Europeia e por isso os Estados Nacionais só têm de cumprir, até porque vão negociar este regulamento no Conselho Europeu”. Resta agora saber quando. O eurodeputado Patrick Breyer diz que ainda não há datas previstas nem para debate nem para aprovação, mas deixa o aviso: “Da última vez, na lei temporária que está em vigor, tudo foi apressado numa questão de meses. E por isso admito que esta proposta seja decidida até ao final do ano”.
Até lá, o tempo será de reflexão, numa matéria complexa em que mais do que a lei, entra a ética e a moral. Em jogo, nos próximos meses, vai estar um dilema entre a privacidade dos cidadãos europeus ou o aumento da proteção das crianças na era digital.