Todas mulheres, todas figuras políticas, todas britânicas e todas vítimas de pornografia criada através de Inteligência Artificial (IA). A poucos dias das eleições no Reino Unido, que decorrem na quinta-feira, uma investigação do Channel4News revela que a imagem de várias protagonistas políticas no país tem sido utilizada para criar vídeos e imagens “deepfakes”.
Foram identificadas mais de 400 fotografias alteradas digitalmente para simular a nudez e posições sexualmente explícitas de dezenas de mulheres na política. No site que foi o foco da investigação, figuram mais de 30 figuras de alto nível do Reino Unido. Só nos últimos três meses, a página teve mais de 12,6 milhões de visitantes, 9% dos quais provenientes do Reino Unido.
Entre as vítimas contam-se a vice-líder dos trabalhistas, Angela Rayner, a secretária da Educação, Gillian Keegan, a líder dos conservadores na Câmara dos Comuns, Penny Mordaunt, a ex-secretária da Administração Interna, Priti Patel, e a deputada trabalhista Stella Creasy. A maioria das vítimas garantiu que vai apresentar queixa formal, mas não quis prestar declarações ao canal de televisão britânico temendo empolar o caso e promover o conteúdo pornográfico falso.
Stella Creasy, deputada do Partido Trabalhista, foi uma das que aceitou falar e revelou sentir-se “doente” quando teve conhecimento das imagens. “Nada disto tem a ver com prazer sexual, tem a ver com poder e controlo“, defendeu. Na rede social X, acrescentou que “o problema não é a existência de tecnologia”, mas sim “a misoginia que não suporta mulheres na vida pública e por isso procura humilhá-las falsificando pornografia com elas”. Apela ainda a que a polícia atue “para que mais ninguém que se candidate a eleições tenha de avisar as suas famílias da existência destas imagens.”
The problem isn’t existence of technology.
The problem is the misogyny that can’t bear women in public life so seeks to humiliate them by faking porn with them in.
Police can and should act so no one else standing for election has to warn their families these images exist. https://t.co/AmFW86eLjQ
— stellacreasy (@stellacreasy) July 2, 2024
Dehenna Davison, que abandonou o cargo de deputada conservadora quando as eleições foram convocadas, foi outra das exceções. Aceitou falar ao canal britânico, mostrando-se surpreendida por ser uma das visadas do conteúdo que considera ser “bastante violador”. A conservadora britânica entende que é premente a criação de um quadro regulamentar adequado para a IA.
No Reino Unido, a partilha ou distribuição de conteúdos deepfake pornográficos não consentidos ainda não constitui crime. Antes de serem anunciadas novas eleições, estava em curso um plano do governo para proibir a criação deste conteúdo, mas acabou por ficar em suspenso. Questionados pelo canal britânico, a maioria dos partidos no país deu garantias de que na próxima legislatura irão avançar com esta proibição.
Vídeos, imagens e sons manipulados andam à solta na internet. Quem pode resolver? Os caça deepfakes
A tecnologia deepfake não consensual tem como ponto de partida uma fotografia de um indivíduo e utiliza a inteligência artificial para tirar a roupa ou criar uma fotografia falsa de nudez, tornando-se um problema crescente à medida que a IA evolui. Em fevereiro, o The Guardian revelou uma investigação à aplicação ClothOff, que convida os utilizadores, com recurso a IA, a “despir qualquer pessoa”, incluindo crianças e adolescentes.