As deepfake são os novos monstros dos media e são já tema de conversa nos Estados Unidos, sobretudo no Texas e Califórnia que têm uma lei específica para lidar com esta forma de manipulação de informação durante as eleições americanas de 2020.

E afinal, o que são as deepfake? Nada mais nada menos que a utilização de inteligência artificial para, a criação de vídeos, faixas de som ou imagens em que caras, vozes ou corpos são manipulados para enganar quem está do outro lado.

Mas as deepfake não se resumem ao formato vídeo. No Reino Unido, uma empresa energética foi burlada através de uma simples chamada telefónica que levou a uma transferência de milhares de euros para fechar um negócio.

A situação foi dada a conhecer pelo Wall Street Journal, sem nunca identificar a empresa em questão. O CEO da empresa inglesa julgou estar a falar por telefone com o CEO da empresa mãe, sediada na Alemanha, que requisitou uma transferência urgente de 220 mil euros para realizar um negócio de última hora. O dinheiro foi transferido mas para contas de terceiros — e não da empresa.

Este é o primeiro crime de que há registo em que um criminoso utilizou inteligência artificial, algo que Marc Stoecklin, diretor de Segurança e Ciberinteligencia Cognitiva na IBM, já tinha dado como próximo de acontecer.

A IBM foi, na verdade, a primeira empresa a desenhar malware que utilizasse inteligência artificial. O DeepLocker, o primeiro exemplo desse malware, era capaz de se esconder em softwares vulgares e decidir quando se acionar a si próprio através de indicadores para uma vítima específica como a voz ou a cara. Na altura, Stoecklin admitia ao Wall Street Journal a necessidade de estudar estes ataques ainda antes de eles existirem.

Outro exemplo de inteligência artificial é a tecnologia que permite recriar caras através de máscaras virtuais e colocá-las em vídeos sem contexto. O exemplo mais conhecido verifica-se com a forma como os jogadores de futebol se vêm recriados em videojogos ou a forma como o filme “Velocidade Furiosa 7” foi finalizado sem o ator Paul Walker — que morreu num acidente de viação.

Outro tipo de conteúdos, também malignos mas algo mais inofensivos, já fizeram sentir a sua presença ao longo dos últimos anos, quando se tornou viral um vídeo manipulado da presidente da Câmara dos Representantes americana, Nancy Pelosy.

O caso do Twitter

Vídeos desta natureza circulam todos os dias nas redes sociais e constituem graves fontes de desinformação. É por isso que o Twitter quer também combater este tipo de publicações enganosas à beira das próximas eleições presidenciais americanas de 2020.

É uma novidade desta segunda-feira avançada pela agência noticiosa Reuters — o Twitter vai marcar todos os vídeos que utilizem este tipo de tecnologia para que os utilizadores saibam do que se trata antes de os partilharem ou deixarem um gosto. A rede social admite mesmo remover os vídeos caso estes prejudiquem ou ameacem diretamente alguém.

Estes vídeos serão categorizados como conteúdo “significativamente alterado ou fabricado de forma a induzir em erro ou em alterar o significado original”.

Não é a primeira vez que esta mesma rede social toma uma atitude perante as deepfake. O Twitter já tinha também banido o uso desta tecnologia quando utilizada na manipulação de conteúdo intimo. Por exemplo, a manipulação de uma fotografia para colocar a cabeça de uma pessoa identificável num corpo nu que não é seu.