Todas mulheres, todas figuras políticas, todas britânicas e todas vítimas de pornografia criada através de Inteligência Artificial (IA). A poucos dias das eleições no Reino Unido, que decorrem na quinta-feira, uma investigação do Channel4News revela que a imagem de várias protagonistas políticas no país tem sido utilizada para criar vídeos e imagens “deepfakes”.

Foram identificadas mais de 400 fotografias alteradas digitalmente para simular a nudez e posições sexualmente explícitas de dezenas de mulheres na política. No site que foi o foco da investigação, figuram mais de 30 figuras de alto nível do Reino Unido. Só nos últimos três meses, a página teve mais de 12,6 milhões de visitantes, 9% dos quais provenientes do Reino Unido.

Entre as vítimas contam-se a vice-líder dos trabalhistas, Angela Rayner, a secretária da Educação, Gillian Keegan, a líder dos conservadores na Câmara dos Comuns, Penny Mordaunt, a ex-secretária da Administração Interna, Priti Patel, e a deputada trabalhista Stella Creasy. A maioria das vítimas garantiu que vai apresentar queixa formal, mas não quis prestar declarações ao canal de televisão britânico temendo empolar o caso e promover o conteúdo pornográfico falso.

Stella Creasy, deputada do Partido Trabalhista, foi uma das que aceitou falar e revelou sentir-se “doente” quando teve conhecimento das imagens. “Nada disto tem a ver com prazer sexual, tem a ver com poder e controlo“, defendeu. Na rede social X, acrescentou que “o problema não é a existência de tecnologia”, mas sim “a misoginia que não suporta mulheres na vida pública e por isso procura humilhá-las falsificando pornografia com elas”. Apela ainda a que a polícia atue “para que mais ninguém que se candidate a eleições tenha de avisar as suas famílias da existência destas imagens.”

PUB • CONTINUE A LER A SEGUIR

Dehenna Davison, que abandonou o cargo de deputada conservadora quando as eleições foram convocadas, foi outra das exceções. Aceitou falar ao canal britânico, mostrando-se surpreendida por ser uma das visadas do conteúdo que considera ser “bastante violador”. A conservadora britânica entende que é premente a criação de um quadro regulamentar adequado para a IA.

No Reino Unido, a partilha ou distribuição de conteúdos deepfake pornográficos não consentidos ainda não constitui crime. Antes de serem anunciadas novas eleições, estava em curso um plano do governo para proibir a criação deste conteúdo, mas acabou por ficar em suspenso. Questionados pelo canal britânico, a maioria dos partidos no país deu garantias de que na próxima legislatura irão avançar com esta proibição.

Vídeos, imagens e sons manipulados andam à solta na internet. Quem pode resolver? Os caça deepfakes

A tecnologia deepfake não consensual tem como ponto de partida uma fotografia de um indivíduo e utiliza a inteligência artificial para tirar a roupa ou criar uma fotografia falsa de nudez, tornando-se um problema crescente à medida que a IA evolui. Em fevereiro, o The Guardian revelou uma investigação à aplicação ClothOff, que convida os utilizadores, com recurso a IA, a “despir qualquer pessoa”, incluindo crianças e adolescentes.