O TikTok, a rede social e plataforma de partilha de conteúdos mais usada pelos jovens, promove através das suas recomendações conteúdos que promovem o suicídio e distúrbios alimentares.
A conclusão é de duas investigações, uma levada a cabo pelo Centro de Combate ao Ódio Digital (CCDH, na sigla inglesa), e uma outra da autoria da Sky News, cujo objetivo era compreender a frequência com que o algoritmo da rede mostra aos utilizadores conteúdos potencialmente perigosos com base na sua atividade na plataforma.
Com base nas pesquisas, concluiu-se que conteúdos relacionados com suícidio podem demorar menos de 3 minutos a serem recomendados, enquanto que conteúdos ligados a distúrbios alimentares poderão levar 8 minutos.
BREAKING: TikTok’s algorithm is Deadly by Design.
Our new report shows how TikTok bombards new teen accounts with harmful videos about body image, mental health, eating disorders, and self-harm.#FixTikTok https://t.co/TORhn2AuGr
— Center for Countering Digital Hate (@CCDHate) December 15, 2022
A pesquisa da CCDH envolveu a criação de várias contas, baseadas em quatro países de língua inglesa: Reino, Unido, Estados Unidos, Canadá e Austrália. As novas contas apresentavam-se com um nome feminino e como tendo 13 anos de idade.
Durante um período de 30 minutos, os investigadores analisaram as recomendações da For YouPage da aplicação (que recomenda conteúdos aos utilizadores com base em outros conteúdos com os quais estes interagem), apenas interagindo com publicações relacionadas com perda de peso e body image. Com base neste padrão, a CCDH constatou que conteúdos relacionados com esses temas (incluindo com distúrbios alimentares), eram recomendados a cada 39 segundos.
Este número não distingue entre conteúdos potencialmente nocivos e outros, e a empresa sediada na China veio defender-se, sustentando que a experiência “não reflete o comportamento ou hábitos de visionamento genuínos de pessoas reais”.
Por seu lado, a pesquisa da Sky News incidiu sobretudo sobre recomendações baseadas em pesquisas na aplicação. Após criar várias contas, o meio de comunicação social britânico procurou por termos neutros, como “perda de peso” e “dieta”, evitando deliberadamente o uso de termos de pesquisa potencialmente perigosos.
Numa das pesquisas por “dieta”, os jornalistas depararam-se com uma sugestão de pesquisa por “pr0 a4a” — um código para “pro ana”, que é um diminutivo para “pró-anorexia”.
Outros termos recomendados que podem ser vistos nas capturas de ecrã divulgadas pela Sky News e que remetem para este tipo de conteúdos “bumilia weightloss tips” (que literalmente se traduz para “bumilia dicas de perda de peso” — “bumilia” sendo um anagrama velado de “bulimia”), ou “anoxia” (mais um código que remete para a anorexia).
A Sky News revelou ainda que pesquisas por utilizadores específicos também retornam resultados ligados a distúrbios alimentares. Uma pesquisa pelo termo “perda de peso” recomendou num dos 10 primeiros resultados uma conta ligada a distúrbios alimentares (o TikTok foi alertado para esta situação, acabando posteriormente por apagar a conta).
“É alarmante que o algoritmo do TikTok esteja ativamente a empurrar os seus utilizadores na direção de vídeos nocivos e com um impacto devastador em pessoas vulneráveis”, lamentou Tom Quinn, diretor de assuntos externos da BEAT, a associação inglesa de luta contra distúrbios alimentares. “O TikTok e outras plataformas têm de tomar ações urgentes para proteger utilizadores vulneráveis de conteúdos danosos”.
Confrontado com os resultados das investigações, um porta-voz da rede social afirmou que a esta “ouve regularmente profissionais de saúde, remove conteúdos que violam os nosso termos de serviço e direciona para linhas de apoio aqueles que precisam”.
Os termos de serviço da aplicação proíbem a utilização de quaisquer termos relacionados, direta ou indiretamente, com distúrbios alimentares. No entanto, os utilizadores conseguem contornar a regra recorrendo a códigos e alterações aos termos originais (como o já referido “pro ana”), que passam despercebidos aos moderadores da plataforma.
“Temos consciência de que o conteúdo que possa causar comportamentos nocivos é algo único para cada indivíduo, pelo que mantemos o foco em fomentar um espaço seguro e confortável para todos, incluindo pessoas que escolham partilhar as suas jornadas de recuperação ou educar outros sobre estes assuntos importantes”.
Adolescentes portugueses estão mais infelizes, especialistas pedem mais respostas
Mental é uma secção do Observador dedicada exclusivamente a temas relacionados com a Saúde Mental. Resulta de uma parceria com a Fundação Luso-Americana para o Desenvolvimento (FLAD) e com o Hospital da Luz e tem a colaboração do Colégio de Psiquiatria da Ordem dos Médicos e da Ordem dos Psicólogos Portugueses. É um conteúdo editorial completamente independente.
Uma parceria com:
Com a colaboração de: