886kWh poupados com a
i

A opção Dark Mode permite-lhe poupar até 30% de bateria.

Reduza a sua pegada ecológica.
Saiba mais

Social Networking Sites May Be Monitored By Security Services
i

Getty Images

Getty Images

A privacidade ou as crianças? Como a UE quer conversas vigiadas para combater abuso de menores

Proposta deu entrada esta semana e obriga redes sociais a vigiar todas as comunicações, incluindo conversas privadas. A ideia é legal mas abre o dilema: a nossa privacidade ou segurança das crianças?

“Esta proposta é sobre a proteção das crianças, para resgatá-las e ajudá-las”. Foi desta forma que a comissária europeia dos Assuntos Internos, Ylva Johansson começou na quarta-feira a apresentação da proposta de regulamento 2022/0155 da Comissão Europeia. O objetivo é claro e consensual — combater o abuso sexual de menores e a divulgação de pornografia infantil. Mas a ideia para chegar a esse objetivo não é tão unânime: a Comissão quer obrigar as plataformas digitais a monitorizar todas as “comunicações interpessoais”, para detetar possíveis abusos. Ou seja, quer vigiar e passar a pente fino todas as mensagens enviadas e recebidas pelos cidadãos europeus.

Uma ideia que fez soar os alarmes, principalmente entre os defensores dos direitos digitais. Isto porque a proposta de regulamento da Comissão Europeia não tem medo de dizer ao que vem: na página 13 do documento — e de resto, em várias passagens do texto –, o organismo admite que a proposta “resulta em níveis variados de intrusão em relação aos direitos fundamentais dos utilizadores”. E que direitos? À cabeça o direito à privacidade, contemplado no artigo 5.º. da Diretiva 2002/58 da Comissão Europeia, que garante a “confidencialidade das comunicações”, bem como a proibição de “dispositivos de escuta, armazenamento ou outras formas de interceção ou vigilância de comunicações”, que podem agora ficar em risco. Pelo menos é o que receia a comunidade digital.

Bruxelas quer vigiar comunicações online para combater abuso de menores

PUB • CONTINUE A LER A SEGUIR

“Fica difícil escapar à analogia do Big Brother”

Ricardo Lafuente, vice-presidente da D3, a associação portuguesa de Defesa dos Direitos Digitais, reconhece a importância da proteção das crianças, mas não tem dúvidas: a proposta europeia pode levar a uma “grande catástrofe” em termos de direitos de privacidade, que podem mesmo chegar ao fim se o plano for aprovado. “O abuso sexual de menores é um problema gravíssimo e delicado, mas está a ser aqui usado apenas como pretexto político para mais uma vez tentar enfraquecer a privacidade da comunicação das pessoas”, diz ao Observador.

UE quer ver chats: “É difícil escapar à analogia do Big Brother”

Mas, afinal, segundo a proposta da Comissão Europeia, quem é que pode vir a ler as nossas mensagens? A resposta até pode ser “ninguém”, pelo menos de carne e osso e numa primeira instância. De acordo com a proposta, a análise das comunicações vai ser feita por softwares de inteligência artificial através do fenómeno de “hashing“, que no fundo compara as mensagens analisadas com abordagens de abusos sexuais reais. Diz a proposta europeia que vão ser usadas “tecnologias confiáveis de deteção automática”, o “menos intrusivas à privacidade possível” e que todas as monitorizações necessárias vão ser feitas “de forma anónima”. A parte humana chega depois: enquanto estas inteligências artificiais são uma espécie de antivírus, que serve para lançar um alerta de suspeição sobre conteúdos de abuso, a filtragem destas suspeitas vai ser feita por pessoas. E é aí que entra o “Big Brother”, uma analogia a que Ricardo Lafuente diz ser difícil de escapar.

Na proposta de regulamento, a Comissão Europeia garante que a monitorização vai ser “o menos intrusiva possível” e que vai ser feita “na base de revisões anónimas aos perfis”

Esse “Big Brother” é uma entidade independente — feita por pessoas –, que vai ser criada em cooperação com a Europol, para analisar, com olho humano, todas as mensagens suspeitas sinalizadas pelas inteligências artificiais. Chama-se Centro UE e diz o jornal Político que deve custar cerca de 26 milhões de euros. É aqui que, em teoria, haverá pela primeira vez pessoas reais a ver correspondência privada… mas que pode ser ou não realmente suspeita.

O Observador falou com o eurodeputado alemão e ativista pelos direitos digitais Patrick Breyer, que abre a hipótese de chegar muito material inocente, de qualquer um de nós, às mãos e olhos deste Centro UE: “Para uma máquina, é realmente impossível identificar com segurança que imagens são de um abuso e que imagens são, por exemplo, de uma família na praia, ou de uma foto íntima que partilhamos com um parceiro”. Ou seja, diz o eurodeputado dos Grupo dos Verdes, há um risco elevado de que cheguem aos analistas humanos do Centro UE fotos ou mensagens privadas — e inocentes — de qualquer cidadão europeu. Isto porque, diz, a inteligência artificial é “propensa a erros”, ainda que se saiba muito pouco sobre qual vai ser utilizada.

"Para uma máquina, é impossível identificar com segurança que imagens são de um abuso e que imagens são, por exemplo, de uma família na praia."
Patrick Breyer, eurodeputado e ativista de direitos digitais

“Estes algoritmos são ainda experimentais, sabemos muito pouco sobre eles. Não são públicos e não sabemos absolutamente nada sobre a margem de erro que podem conter. Por isso, é provável que muitas conversas inocentes entre adolescentes ou entre adultos sejam falsamente divulgadas”, avisa o eurodeputado, que acrescenta que “é muito perigoso não sabermos nada sobre as tecnologias que podem vir a ser usadas para monitorizar as comunicações”. Por enquanto, sabe-se apenas que as empresas de comunicação vão ser parte importante no desenvolvimento dos softwares, até porque vão ser obrigadas a fazer esta monitorização. Até agora, e desde julho de 2021, está em vigor uma lei semelhante a esta proposta, mas com uma pequena grande diferença: as plataformas não eram obrigadas a vigiar as comunicações, mas podiam fazê-lo numa base voluntária. Com o cariz obrigatório que a proposta determina, chegam as críticas.

O artigo 28.º, alínea c) da proposta apresentada, estabelece que as empresas que se recusem a monitorizar as mensagens privadas dos seus utilizadores serão penalizadas com uma multa. No documento não é mencionado o valor dessa multa, mas diz o jornal Político que pode chegar aos 6% da receita global anual da empresa. A título de exemplo, se o Twitter — que teve quase 5 mil milhões de euros de receita em 2021 — se recusar a vigiar as comunicações dos seus utilizadores, terá de pagar uma multa de quase 300 milhões de euros. Do WhatsApp, chegaram os primeiros sinais de revolta: o diretor da plataforma, Will Cathcart, considera que a ideia é “errada e incoerente com o compromisso da União Europeia” e que pode ser “usada para atacar os direitos humanos de muitas maneiras diferentes em todo o mundo”. Contactada pelo Observador, a Google preferiu não fazer comentários sobre a proposta. Já o Grupo Meta — que detém o Facebook, Instagram e WhatsApp –, também em resposta ao Observador, admite que está “ansioso” por trabalhar com a UE, mas ressalva a importância de que “quaisquer medidas adotadas não prejudiquem a encriptação ponto-a-ponto, que protege a segurança e a privacidade de milhões de pessoas, incluindo crianças”. E por falar nelas: independentemente de todos estes receios… será esta proposta eficaz no combate ao abuso sexual de menores?

Da “proposta válida” à “porta aberta a outros ilícitos”

O Observador falou com Paulo Pelixo. É psicólogo e diretor-executivo da Associação para o Planeamento da Família. Dedicou grande parte da vida profissional à área da intervenção em abuso sexual infantil. Olhando para a proposta da Comissão Europeia, não tem dúvidas: a proposta é “muito válida”, principalmente numa altura destas. “Devemos encontrar soluções de forma urgente, até porque tem havido um aumento no número de denúncias e de vítimas de abuso desde o início da pandemia”, explica. Em 2021, a Fundação Internet Watch registou um aumento de 64%, em comparação com 2020, nas denúncias confirmadas de abusos sexuais de crianças. Também no ano passado, diz a Comissão Europeia, foram denunciadas 85 milhões de imagens e vídeos de alegados abusos sexuais de crianças.

Números que apelam à urgência e à adoção de medidas fortes, diz Paulo Pelixo: “É uma problemática que exige medidas muito consistentes e por vezes, talvez, até duras para promovermos o combate a este fenómeno”. Do lado da defesa dos direitos digitais e da privacidade dos utilizadores, não há dúvidas da gravidade do fenómeno e da necessidade de proteger as crianças. Há dúvidas, sim, quanto à eficácia da proposta e do extremismo da medida. O eurodeputado alemão Patrick Breyer diz ao Observador que de acordo com a Polícia Federal Suíça, 87% das denúncias recebidas pelo método de “hashing” são “criminalmente irrelevantes”. Além disso, assegura que “não há provas de que esta estratégia sustenha a difusão da pornografia”, usando o exemplo do Facebook: “Eles já fazem monitorização das conversas de forma voluntária há alguns anos e as denúncias reportadas continuam a aumentar em cada ano”, garante o membro do Partido Pirata Alemão.

Ricardo Lafuente alinha com o eurodeputado. O vice-presidente da D3 aposta que a proposta “não terá qualquer efeito ou um efeito diminuto no combate à criminalidade” e que “os criminosos vão continuar a passar fora disto”, até porque muitos atacam e trabalham apenas em fóruns e redes privadas, muitas vezes até na deep e darkweb. Paulo Pelixo não nega essa realidade, mas lembra que uma parte da ação criminal acontece bem às claras e em espaços que todos conhecemos: “O aliciamento vai acontecer sempre que houver crianças. E nós sabemos exatamente que há crianças que são aliciadas, por exemplo, no Facebook, e noutras plataformas que todos utilizamos”. Por um lado, fica assim patente a importância da proteção das crianças, e por outro a importância do direito à privacidade. Numa balança, é difícil perceber qual pesa mais, mas à luz da lei haverá uma mais pesada que a outra?

O “princípio da proporcionalidade”, a bóia de salvação

No documento da proposta de regulamento, a Comissão Europeia não tem medo de assumir que o que está em causa é um dilema entre direitos: o direto à privacidade e o direito à proteção de menores. Logo na página cinco pode ler-se que a proposta quer “equilibrar de forma justa os vários direitos fundamentais em causa”, mas relembra também que em causa está “o contexto da luta contra o abuso sexual infantil online e a importância do interesse público em jogo”. Mais à frente, sublinha-se também que estes direitos não são absolutos, e por isso há margem para os limitar em situações extremas. E é aí que está a chave para a legalidade.

O Observador falou com João Ferreira Pinto. É advogado e foca-se na proteção de dados e cibersegurança. Foi ainda adido técnico na representação permanente de Portugal junto da União Europeia, durante a presidência portuguesa em 2021, e por isso mesmo teve um contacto próximo com a proposta da Comissão. Considera que o que está em causa é o “balanceamento de dois direitos fundamentais” e explica: “Para a proposta ser eficaz, tem de ser altamente intrusiva. E só há uma forma de o permitir, que é sacrificando até determinado ponto a nossa privacidade nas comunicações eletrónicas”. E esse “sacrifício” é legal? Sim, diz, mas apenas se “houver um regulamento ou uma legislação”. No fundo, acrescenta, a lei anda à volta de um dilema, em que é “preciso ponderar o que é mais importante: a nossa privacidade de comunicação ou o combate ao abuso sexual infantil”.

"É preciso ponderar o que é mais importante: a nossa privacidade de comunicação ou o combate ao abuso sexual infantil."
João Ferreira Pinto, advogado especialista em proteção de dados e cibersegurança

E é aqui que entra o princípio de proporcionalidade. Na proposta (página 12) pode ler-se que “sob reserva do princípio da proporcionalidade, as limitações só podem ser feitas se forem necessárias e corresponderem genuinamente a objetivos de interesse geral ou à necessidade de proteger os direitos e liberdades de terceiros”. Mas o que é, afinal, isto do princípio da proporcionalidade? João Ferreira Pinto explica: “Sempre que houver uma compressão de um direito fundamental, ela tem de ser justificada, balanceada e proporcional. Isto é, não se pode apagar o direito fundamental de todo”. O advogado exemplifica com o caso da pandemia e os estados de emergência: “O direito à vida é sagrado, mas não é ilimitado. Há circunstâncias em que infelizmente, por razões médicas, é preciso optar por uma ou outra, como aconteceu na pandemia. Inclusivamente, a nível constitucional, tivemos uma discussão no início da pandemia em Portugal, com as medidas restritivas em que se discutia qual era a proporcionalidade de as pessoas usarem máscara ou não poderem sair de casa”.

Luís Neto Galvão, sócio da SRS Advogados, advogado também especializado em tecnologias e privacidade, concorda e faz outra comparação, com o polémico caso dos metadados. Explica que o direito à privacidade não é absoluto e que por isso “pode ser limitado, o que é possível à luz da nossa Constituição e à luz da Carta dos Direitos Fundamentais Europeia”. No fundo, acrescenta, “o que a Comissão Europeia quer fazer é criar um regime de exceção relativamente a uma lei que protege a privacidade. Estamos a comprimir um direito fundamental para salvaguardar outros direitos e garantir maior eficácia no combate ao abuso de menores”.

E pegando no caso dos metadados: em caso de aprovação desta proposta, como é que pode ser transposta para o direito português? João Ferreira Pinto indica que não haverá muito a fazer: “Isto é um regulamento comunitário e os regulamentos comunitários não são transpostos para a lei nacional. Eles vigoram na ordem jurídica da União Europeia e por isso os Estados Nacionais só têm de cumprir, até porque vão negociar este regulamento no Conselho Europeu”. Resta agora saber quando. O eurodeputado Patrick Breyer diz que ainda não há datas previstas nem para debate nem para aprovação, mas deixa o aviso: “Da última vez, na lei temporária que está em vigor, tudo foi apressado numa questão de meses. E por isso admito que esta proposta seja decidida até ao final do ano”.

Até lá, o tempo será de reflexão, numa matéria complexa em que mais do que a lei, entra a ética e a moral. Em jogo, nos próximos meses, vai estar um dilema entre a privacidade dos cidadãos europeus ou o aumento da proteção das crianças na era digital.

Ofereça este artigo a um amigo

Enquanto assinante, tem para partilhar este mês.

A enviar artigo...

Artigo oferecido com sucesso

Ainda tem para partilhar este mês.

O seu amigo vai receber, nos próximos minutos, um e-mail com uma ligação para ler este artigo gratuitamente.

Ofereça até artigos por mês ao ser assinante do Observador

Partilhe os seus artigos preferidos com os seus amigos.
Quem recebe só precisa de iniciar a sessão na conta Observador e poderá ler o artigo, mesmo que não seja assinante.

Este artigo foi-lhe oferecido pelo nosso assinante . Assine o Observador hoje, e tenha acesso ilimitado a todo o nosso conteúdo. Veja aqui as suas opções.

Atingiu o limite de artigos que pode oferecer

Já ofereceu artigos este mês.
A partir de 1 de poderá oferecer mais artigos aos seus amigos.

Aconteceu um erro

Por favor tente mais tarde.

Atenção

Para ler este artigo grátis, registe-se gratuitamente no Observador com o mesmo email com o qual recebeu esta oferta.

Caso já tenha uma conta, faça login aqui.