Com milhões de eleitores de 27 países a dirigirem-se às urnas para escolher os deputados do Parlamento Europeu em junho, as tecnológicas asseguram estar a adotar medidas para tentar proteger os utilizadores das campanhas de desinformação. No caso do YouTube, a plataforma de vídeos mais usada do mundo, foram implementadas medidas específicas a pensar no combate à desinformação e à transparência nos conteúdos gerados por inteligência artificial (IA).

David Wheeldon, diretor sénior da área de assuntos governamentais e políticas públicas do YouTube para a região da Europa, Médio Oriente e África, explica ao Observador algumas das medidas e preocupações da plataforma. Destaca a “abordagem multifacetada” que, por um lado, quer possibilitar aos utilizadores “encontrar conteúdo de qualidade na plataforma”, com origem em fontes credíveis, e, por outro, quer permitir encontrar e remover conteúdos potencialmente perigosos recorrendo a sistemas automatizados.

Wheeldon explica que, em primeiro lugar, será dada relevância a fontes de informação credíveis, como órgãos de comunicação social ou as próprias instituições europeias, nos resultados de pesquisa e nas sugestões do que ver a seguir quando termina um vídeo. Para determinar quais são as fontes confiáveis, são analisados vários “sinais vindos do Google, incluindo da pesquisa e das notícias, que vão determinar a relevância e quão recente é o conteúdo”, explica o responsável. Uma vez que são 27 países a ir às urnas, as fontes relevantes “vão ser diferentes em cada país” e adaptadas a cada mercado.

O responsável europeu do YouTube destaca a importância de os utilizadores terem acesso a informação devidamente contextualizada. Haverá funcionalidades para apresentar informações sobre candidatos, por exemplo, e indicações e lembretes sobre onde e quando votar.

PUB • CONTINUE A LER A SEGUIR

Estas eleições representam um “grande desafio”, por envolverem tantos países, mas David Wheeldon acredita que estão “preparados e à altura”. “Vamos fazer tudo para as pessoas encontrarem informação credível sobre as eleições e não serem induzidas em erro”, promete.

Os conteúdos que violem as regras do combate à desinformação vão ser removidos. Wheeldon dá como exemplos tentativas de indicar falsos locais de voto ou de colocar em causa a elegibilidade de candidatos. Revela que em 2023 o YouTube eliminou 800 vídeos carregados a partir de Portugal. E mais de 70% foram eliminados quando tinham menos de 100 visualizações.

Wheeldon realça que a métrica de “sucesso” mais relevante, mais do os conteúdos eliminados, é verificar quando vídeos conseguem ser detetados e removidos antes de alcançarem muitos utilizadores.

Há um desafio adicional nestas eleições europeias: são as primeiras desde o “boom” da inteligência artificial (IA) generativa, que permite criar imagens, vídeos e até clonar vozes. Têm sido recorrentes os avisos sobre as consequências de um acesso cada vez mais fácil a ferramentas para fazer “deepfakes”, imagens e vídeos manipulados. Nos EUA, por exemplo, já foi notícia uma falsa chamada de Joe Biden que apelava aos democratas a que não fossem votar nas primárias.

Vídeos, imagens e sons manipulados andam à solta na internet. Quem pode resolver? Os caça deepfakes

Devido ao receio sobre as consequências de conteúdos gerados por IA, Wheeldon explica que o YouTube implementou normas específicas. Por exemplo, os criadores de vídeos vão ter de revelar quando é que há recurso a imagens sintéticas (geradas por IA). O formulário dá exemplos como “o vídeo contém uma pessoa real a dizer algo que não disse ou fez, imagens que alteram um acontecimento ou local real ou que geram uma cena realista que não aconteceu na realidade” (ver imagem abaixo).

A indicação a preencher quando um vídeo tem imagens sintéticas, geradas por IA

Nesses casos, surgirá uma etiqueta no vídeo e a indicação na descrição sobre “conteúdo alterado ou sintético”. Em temas particularmente sensíveis, como vídeos ligados a saúde, notícias ou eleições, a indicação vai ter destaque. “Achamos que esse é um passo realmente importante para garantir que ninguém possa ser induzido em erro com imagens de algo realista que na realidade não aconteceu”, acrescenta.

A indicação de quando um vídeo contém imagens sintéticas

Questionado sobre será suficiente a iniciativa partir de quem carrega os vídeos, o responsável do YouTube esclarece que será algo com um caráter “obrigatório”. E, caso não seja feita essa divulgação no vídeo, “haverá uma série de penalizações”, como acontece com “qualquer criador que viole as regras”. Enumera opções como “sinalizações contra um vídeo ou um canal, suspensão de vídeos, de monetização e, em último caso, encerramento do canal”.

“Todas as opções estão ao nosso alcance e vamos aplicá-las a quem infrinja repetidamente as regras e não etiquete os conteúdos que foram gerados com IA”, avisa.

Por agora, reconhece que, como “são as primeiras eleições nesta era da IA”, o YouTube sabe que tem “a obrigação de informar e educar os utilizadores” sobre o uso de IA generativa. Mas a plataforma também ainda “está a aprender”, admite. “E estamos a ser muito abertos. Estamos a trabalhar com outras entidades, muitas organizações sem fins lucrativos, fact-checkers, académicos, toda a comunidade, para nos ajudar, porque reconhecemos que não temos todas as soluções. Queremos fazer isto com parceiros que são especialistas e que nos podem ajudar a encontrar as ferramentas certas e mensagens corretas para os nossos utilizadores.”

YouTube promete transparência sobre ameaças externas, mas “não quer mostrar demasiado a mão” aos cibercriminosos

Há seis anos que o YouTube tem uma equipa de especialistas que se dedica a monitorizar os temas e tendências no mundo da desinformação. De acordo com Wheeldon, a ideia é que esta equipa consiga encontrar “narrativas, comportamentos problemáticos ou conteúdos inapropriados”, não só no YouTube mas também noutras plataformas. O objetivo é o de detetar ameaças, incluindo de desinformação, que estão a desenvolver-se, “para que haja uma preparação atempada” de resposta no site de vídeos.

David Wheeldon não abre o jogo sobre se esta equipa já identificou tendências de desinformação ou possíveis ameaças de interferência de outros países a pensar nestas eleições. “Ainda falta algum tempo, portanto ainda é cedo para poder dizer se houve ou não uma subida [de ameaças]. Não há nada que queira sinalizar neste momento que possa dizer ‘ok, estamos a ver isto'”. Mas garante que a empresa “não está a ser complacente” com estes comportamentos.

“Ainda estamos a algumas semanas de distância e sabemos que haverá agentes que vão tentar perturbar e enviesar [os resultados], portanto temos de acompanhar de uma forma muito próxima o que está a acontecer, não só no YouTube, mas no ecossistema [de informação]”, refere.

Embora prometa transparência sobre as questões e ameaças que a equipa vai encontrando, prefere apostar na cautela “para não revelar aos maus agentes qualquer pista sobre como tentar contornar os sistemas e as políticas” do YouTube. “Vamos ser cuidadosos para não mostrar demasiado a nossa mão aos maus agentes.”