Índice
Índice
Quase da noite para o dia, os vídeos divertidos, as “dancinhas” e os “memes” passaram a conviver nas redes sociais com mais uma vaga de publicações e vídeos de violência explícita, desta vez sobre o conflito do Médio Oriente. Tudo começou a ser mais notório desde os ataques de 7 de outubro. Em alguns casos, existe mesmo o recurso a imagens de outros acontecimentos, que nas redes sociais passam a estar associadas ao conflito Israel-Hamas, aumentando a desinformação em torno do mesmo.
Já aconteceu, por exemplo, com um vídeo que circulou online, em que supostos combatentes do Hamas chegavam de paraquedas a Israel. Na realidade, o vídeo é anterior aos ataques de 7 de outubro e mostra imagens de um exercício que decorreu no Egito.
A desinformação e os conteúdos gráficos não são um fenómeno recente na internet, é certo. De qualquer forma, várias organizações e institutos que acompanham estas questões já alertaram para como a exposição a imagens extremas e as campanhas de desinformação estão a aumentar. O EDMO, o Observatório Europeu dos Meios de Comunicação Digital, foi um dos organismos que deu o alerta, especialmente em relação à rede social X, o antigo Twitter. Na análise preliminar, o observatório diz que as principais narrativas de desinformação que identificou estão ligadas à justificação do Hamas para as ações ou à desumanização dos terroristas, com vídeos e imagens que apresentam atos de brutalidade extrema de membros do Hamas.
A organização Tech Against Terrorism, sediada em Londres, também já sinalizou que tem o conflito debaixo de olho, reconhecendo a circulação de imagens extremas online. E, do outro lado do Atlântico, o Stanford Internet Observatory, que tenta combater o abuso online, também está ocupado a monitorizar a situação. Renée DiResta, gestora de investigação do Standford Internet Observatory, considera que, num “evento de crise deste género – e particularmente para aqueles que estão numa área de crise – é necessária informação de confiança”, mas que, neste caso, “estão a receber o oposto”.
A mudança de mãos do Twitter e todas as alterações que daí surgiram também é incluída na análise desta especialista. “O Twitter/X antes tinha profissionais treinados e experientes e protocolos para lidar com conteúdos violentos e de terrorismo em situações de crise como a que estamos a ver entre Israel e o Hamas”, disse. “A maioria da equipa foi despedida.” A investigadora lembrou ainda que o atual feed algorítmico do X está “a privilegiar os utilizadores que pagam, portanto contas não confiáveis com vistos azuis no Twitter/X estão a alavancar os fluxos de atenção no site”.
Quem também detetou a circulação de conteúdo extremo, a desinformação e as teorias da conspiração online associadas ao conflito Israel-Hamas foi a Comissão Europeia. Em agosto, entrou em vigor a Lei dos Serviços Digitais (DSA, na sigla em inglês) na União Europeia, que obriga as plataformas a estar em conformidade com uma série de requisitos, incluindo o de garantir que os utilizadores não são expostos a conteúdos ilegais e desinformação.
É no âmbito dessa lei, que está em vigor desde 25 de agosto para as plataformas de muito grande dimensão, que a Comissão Europeia fez chegar ao X, à Meta (dona do Facebook e Instagram), à Alphabet (que controla o YouTube) e ao TikTok pedidos de informação para perceber como é que estão a lidar com os conteúdos ilegais e extremistas ligados ao conflito em Israel. De acordo com os especialistas ouvidos pelo Observador, este pode mesmo ser o primeiro grande teste à eficácia da jovem legislação europeia.
Os lembretes e os alertas de Thierry Breton
Os pedidos de informação da Comissão Europeia começaram a ser feitos poucos dias após os ataques em Israel. Thierry Breton, o comissário europeu do Mercado Interno, que é atualmente a figura mais associada à Lei dos Serviços Digitais, começou a enviar as cartas para os líderes das plataformas: primeiro ao X e, mais tarde, à Alphabet, Meta e TikTok.
“Após os ataques terroristas do Hamas contra Israel, temos indicações de que a sua plataforma está a ser usada para disseminar conteúdo ilegal e desinformação na UE”, é possível ler na carta dirigida a Elon Musk, que logo a seguir lembra que, com “a DSA são definidas obrigações muito precisas no que diz respeito à moderação de conteúdos”.
Following the terrorist attacks by Hamas against ????????, we have indications of X/Twitter being used to disseminate illegal content & disinformation in the EU.
Urgent letter to @elonmusk on #DSA obligations ⤵️ pic.twitter.com/avMm1LHq54
— Thierry Breton (@ThierryBreton) October 10, 2023
As restantes cartas são semelhantes, mas adaptam o texto às especificidades de cada plataforma. Para o TikTok, numa missiva endereçada ao CEO Shou Zi Chew, é referido que é “extensivamente usado por crianças e adolescentes”, lembrando assim que existe a “obrigação particular de protegê-los de conteúdos violentos que alegam ser da captura de reféns e outros vídeos gráficos que estão alegadamente a circular de forma ampla na plataforma”. A Sundar Pichai, da Alphabet, é pedida atenção devido ao alcance da plataforma de vídeos YouTube; enquanto Zuckerberg, da Meta, recebe um lembrete para garantir que os sistemas de mitigação de desinformação e conteúdos ilegais são eficazes.
#TikTok has a particular obligation to protect children & teenagers from violent content & terrorist propaganda —as well as death challenges & potentially life-threatening content.#DSA sets out very clear obligations TikTok must comply with.
Letter to TikTok CEO Shou Zi Chew⤵️ pic.twitter.com/J1tpVzXaYR
— Thierry Breton (@ThierryBreton) October 12, 2023
Breton já levou o tema ao Parlamento Europeu, onde sublinhou as consequências da disseminação de conteúdos extremistas. Se a desinformação já era um problema para os momentos eleitorais, por exemplo, o conflito no Médio Oriente “elevou ainda mais o que está em jogo”, com alertas para “o risco claro de estigmatização de certas comunidades e a desestabilização de estruturas democráticas, já para não falar na exposição das crianças a conteúdos violentos”. Os ataques terroristas em Arras, França, e em Bruxelas, “são um lembrete sombrio de que a ameaça é real e está presente no nosso território”.
Para o responsável europeu, a Lei dos Serviços Digitais é “uma caixa de ferramentas completa” e deve ser usada para “assegurar que a segurança online está garantida e que os direitos fundamentais são totalmente protegidos”.
A prova dos nove sobre a eficácia da Lei dos Serviços Digitais
Depois das cartas enviadas aos responsáveis das plataformas, que determinaram um prazo de 24 horas para responder a Bruxelas, a Comissão Europeia emitiu pedidos formais de informação ao X, à Meta e ao TikTok. O objetivo passa por perceber o que é que as três empresas estão a fazer para estar em conformidade com as obrigações da DSA e que medidas de mitigação adotaram a seguir aos ataques do Hamas em Israel. A Meta tem ainda de prestar informação sobre outro tema – a proteção em momentos eleitorais.
Bruxelas pede informação à Meta e TikTok sobre medidas para combater conteúdos ilegais
Sara Rocha, associada de tecnologia, media e telecomunicações da CMS Portugal, explica ao Observador que, enquanto as cartas de Breton não eram “pedidos formais, nem tão pouco juridicamente vinculativos aos abrigo da DSA”, a formalização de pedidos de informação “é um passo preliminar” antes de uma investigação oficial. E, nesse sentido, é uma figura que se encontra “especificamente prevista na DSA”.
A advogada considera que, tendo em conta o “contexto atual em que vivemos, com conflitos armados em vários pontos do globo e nos quais a divulgação de informação online assume um papel fundamental”, os pedidos e a forma como a Comissão e as plataformas “lidarão com este assunto são efetivamente um teste de fogo” à legislação. E, lembrando que esta lei contou “desde cedo” com “vários céticos”, que sem questionarem a utilidade levantaram “dúvidas à sua efetividade”, Bruxelas “tem agora o momento certo para provar que os céticos estavam errados”.
Ricardo Henriques, da Abreu Advogados, refere que, ao pedir informação às plataformas, esta é uma forma de, “no fundo, tentar verificar se os mecanismos que estavam previstos estão implementados”. É uma oportunidade de “ver como é que as coisas se vão desenrolar e de ver também a eficácia” desta legislação e “a capacidade de resposta das plataformas”. O especialista contextualiza que a intenção também poderá passar por avaliar a capacidade de uma “remoção rápida de conteúdos” por parte das plataformas.
Ainda que as grandes plataformas tenham a responsabilidade de remover conteúdos que possam ser perigosos para os utilizadores, Sara Rocha, da CMS Portugal, lembra que “nunca deve ser posta em causa a liberdade de expressão na moderação destes conteúdos”. Num contexto de conflito em que existe “um ‘apagão’ no que diz respeito às telecomunicações, as plataformas de redes sociais são uma tábua de salvação” para aceder a informação, lembra. “Embora as plataformas devam combater diligentemente os conteúdos que põem em risco a segurança das pessoas, restringir injustificadamente o acesso a informações vitais é igualmente perigoso”, considera. Aos olhos desta especialista, a lei europeia “não pode servir como forma de oprimir a liberdade de expressão, que deve ser sempre defendida a todo o custo, nem para silenciar ou tomar posição em conflitos existentes”.
O advogado da área de tecnologia, media e telecomunicações da Abreu Advogados lembra que estas plataformas não terão sido apanhadas de surpresa por estes pedidos de informação. “A verdade é que já deveriam estar adaptadas – a entrada em vigor foi em agosto, mas já sabiam que tinham de estar preparadas para ter capacidade de resposta a este tipo de situação.” Durante o verão, algumas das plataformas de muito grande dimensão fizeram até testes de ‘stress’ com a Comissão Europeia para perceber se estavam em conformidade com a Lei dos Serviços Digitais. “Foram notificados com tempo para, no fundo, saberem as obrigações”, diz Ricardo Henriques.
Quais são as consequências das infrações à lei dos serviços digitais?
Quando enviou os pedidos de informação às tecnológicas, a Comissão Europeia emitiu prazos. A Meta e o TikTok têm até 25 de outubro para partilhar informação sobre a resposta de crise, enquanto o X teve até dia 18 de outubro, uma vez que recebeu o pedido antes. Há ainda outros prazos para mais questões: por exemplo, a Meta e o TikTok têm até 8 de novembro para responder a dúvidas sobre a proteção da integridade de eleições. Na mesma data, o TikTok deverá dar respostas sobre a proteção de menores online.
Consoante as informações recebidas, a Comissão vai decidir, após 31 de outubro, “se dará início a um processo formal contra as plataformas digitais”, explica Sara Rocha, da CMS Portugal. “Neste contexto, podem ser tomadas várias medidas, como a realização de inspeções. No contexto de processos que possam conduzir à adoção de uma decisão de incumprimento, em caso de urgência devido ao risco de prejuízos graves para os destinatários do serviço, a Comissão pode, mediante decisão, ordenar medidas provisórias contra o fornecedor da plataforma”, acrescenta.
A DSA prevê que, no caso de falta de resposta ou num cenário em que sejam prestadas informações incorretas, incompletas ou enganosas, poderá ser aplicada uma coima de 1% do volume de negócios anual. E, caso se confirme um incumprimento “ou não se respeite uma decisão de ordenação de medidas provisórias”, a Comissão pode impor coimas aos responsáveis de plataformas de grande dimensão num valor de “6% do seu volume de negócios anual total a nível mundial no exercício anterior.”
Dependendo da informação que a Comissão receber, Ricardo Henriques, da Abreu Advogados, admite que “não é expectável que seja aplicado o valor máximo numa primeira sanção” no âmbito desta legislação. Ainda assim, reconhece que as tecnológicas em causa têm “uma grande capacidade económica” para responder a possíveis sanções, mas lembra que as sanções também têm efeito na “credibilidade” destas empresas no mercado e junto dos utilizadores.
Nos EUA, também há pedidos de informação às tecnológicas
↓ Mostrar
↑ Esconder
Do outro lado do Atlântico, não existe ainda uma figura semelhante à lei dos serviços digitais europeia, mas também soam os alarmes sobre a presença de conteúdos extremistas online. Na terça-feira, Michael Bennet, senador democrata do estado do Colorado, enviou uma carta aos líderes do X, Meta, TikTok e Alphabet, com um pedido claro: “parem de difundir conteúdo falso e enganador ligado ao conflito em curso entre Israel e o Hamas”.
Numa carta aberta, Bennet menciona as “numerosas investigações” sobre conteúdo deste género nas redes sociais, que “por vezes tem milhões de visualizações”. E, de acordo com este senador, “em muitos casos” os algoritmos das várias plataformas “amplificaram este conteúdo, contribuindo para um ciclo perigoso de ultraje, envolvimento e redistribuição”. Na missiva, o norte-americano recorda que já foram “identificados exemplos de conteúdo alarmante” que se espalhou desde o início do ataque, incluindo alegações que tentam ligar a Ucrânia ao Hamas.
Há ainda outro fator que é destacado pelo senador – os despedimentos de “centenas de trabalhadores” de várias tecnológicas ao longo do último ano, considerando que em vários casos estariam “focados na moderação de conteúdos e no combate à desinformação”. Bennet considera que decisões deste género “contribuem para uma cascata de violência, paranóia e desconfiança à volta do mundo”. “As vossas plataformas estão a ajudar a produzir um ecossistema de informação em que factos básicos estão sob disputa de forma crescente, enquanto fontes não confiáveis são repetidamente designadas como a autoridade”.
Com estas considerações, o senador do Colorado faz um pedido semelhante ao do europeu Thierry Breton: quer mais informação sobre o tipo de conteúdo que está a ser removido e ainda que sejam postas em prática medidas para reduzir a circulação de conteúdo ilusório sobre o conflito.
O que têm dito até agora as empresas sobre a resposta à crise em Israel e Gaza
À medida que foram recebendo os pedidos de informação por parte da Comissão Europeia, as empresas visadas foram divulgando informações sobre os procedimentos que têm curso para tentar manter as plataformas seguras. Em resposta à carta de Thierry Breton (que, curiosamente, foi dirigida a Elon Musk e não à CEO Linda Yacarino), a líder do antigo Twitter disse que a empresa está “comprometida em servir a conversação pública, especialmente em momentos críticos como este, e percebe a importância de responder a qualquer conteúdo ilegal que possa ser difundido através da plataforma”. Nesta resposta, que foi enviada dias antes de a Comissão Europeia formalizar um pedido de informação, Yacarino explicava ainda que tinham “sido redistribuídos recursos” da empresa e que algumas “equipas internas” passaram a ter outro foco.
Everyday we're reminded of our global responsibility to protect the public conversation by ensuring everyone has access to real-time information and safeguarding the platform for all our users. In response to the recent terrorist attack on Israel by Hamas, we've redistributed… https://t.co/VR2rsK0J9K
— Linda Yaccarino (@lindayaX) October 12, 2023
A CEO da rede social assegurou ainda que “não há lugar no X para organizações terroristas ou grupos extremistas violentos” e que o X continua a remover conteúdos em tempo real. Especificamente em relação aos ataques em Israel, adiantou que foram removidos ou classificados “dezenas de milhares de conteúdos”. A empresa esclareceu ainda que, ao abrigo da política contra entidades violentas, desde o início do conflito “identificou e removeu centenas de contas ligadas ao Hamas”.
A Meta, que controla o Facebook, Instagram e WhatsApp, também disponibilizou alguns dados sobre o que tem estado a fazer desde o início do conflito. A empresa de Zuckerberg diz que adotou uma série de medidas para responder ao “pico de conteúdo perigoso e potencialmente perigoso” que começou a circular nas plataformas. Nos três dias a seguir aos ataques de 7 de outubro, a Meta disse ter removido ou marcado “mais de 795 mil conteúdos perturbadores”. É estabelecida uma comparação com os dois meses anteriores – só nesses três dias, a empresa removeu “sete vezes mais conteúdos” diariamente por violarem as regras, “apenas em hebraico e árabe”.
A empresa explicou que tomou medidas para evitar recomendar conteúdos potencialmente violentos, que limitou o alcance de determinadas hashtags e, tendo em conta as ameaças do Hamas de transmitir em direto imagens dos reféns, foram feitos ajustes e aplicadas restrições aos diretos do Facebook e Instagram. No combate à desinformação, a Meta diz estar a trabalhar com outras entidades para fazer mais fact-checks, por exemplo.
Do lado do TikTok, veio a explicação de que foi criado um centro de comando para responder às necessidades de monitorização na sequência do conflito Israel-Hamas, que tem “membros principais da equipa global de mais de 40 mil profissionais de segurança”. Segundo a empresa, estes profissionais têm uma “vasta experiência e perspetivas regionais”, para que possam “ser ágeis na forma como tomam medidas para responder a esta crise em rápida evolução”. Foi ainda explicado que foram contratados mais moderadores que falam árabe e hebraico para as equipas de segurança, para que possam fazer uma análise com mais contexto.
No espaço de uma semana, desde os ataques de 7 de outubro até à data de publicação da nota sobre os esforços, foram removidos “mais de 500 mil vídeos e cerca de 8 mil transmissões em direto na zona impactada”, por violarem as diretrizes da plataforma. A empresa também fez “ajustes temporários” a algumas funcionalidades, como por exemplo implementar restrições adicionais para limitar quem é que pode fazer diretos no TikTok, tendo em conta “o risco acrescido de segurança no contexto da atual situação de reféns”.
Também está em curso um bloqueio de hashtags que possam promover a violência e estão a ser adicionados ecrãs que requerem uma ação do utilizador – uma solução em que as imagens são desfocadas e que é usada para garantir que as pessoas não veem conteúdos que possam ser mais gráficos a menos que digam que querem ver a imagem ou vídeo na mesma. E, tendo em conta que a empresa sabe o poder do feed “For You”, onde são apresentados vídeos que vão ao encontro do perfil dos utilizadores, quando um vídeo ainda está a ser analisado pela equipa de “fact-checkers” deixa automaticamente de aparecer neste feed.
O YouTube, da Alphabet, fez um comentário à carta que recebeu de Thierry Breton através de uma porta-voz, Ivy Choi. Ao The Verge, disse que removeram “dezenas de milhares de vídeos perigosos e encerraram centenas de canais”. “Ao mesmo tempo, os nossos sistemas continuam a ligar pessoas a notícias de alta qualidade e informação”, continuou a porta-voz, dizendo que “as equipas estão a trabalhar de forma contínua para monitorizar filmagens perigosas e continuam a agir de forma rápida em caso de necessidade, em todos os tipos de conteúdo, incluindo os Shorts [vídeos curtos, semelhantes ao TikTok] e nas transmissões em direto.”
Até aqui, a Alphabet é a única que não recebeu um pedido formal de informação por parte da Comissão Europeia. Resta saber quais são as informações que as restantes plataformas vão fazer chegar a Bruxelas.