Nove em cada dez adolescentes nos Estados Unidos usam o YouTube, e um quinto deles o acessa “quase constantemente”. A plataforma é mais utilizada por jovens do que redes sociais como TikTok ou Snapchat. Mas essa popularidade tem sido acompanhada de preocupações, principalmente diante da crise global de saúde mental dos mais jovens.O número de crianças desenvolvendo transtornos alimentares aumentou significativamente em diversos países, e há evidências de que as mídias sociais têm contribuído para esse problema. Entre 2000 e 2018, a prevalência global desses transtornos dobrou. Em 2021, um levantamento do Centro de Controle de Doenças (CDC), nos EUA, revelou que um terço dos adolescentes considerou seriamente tentar suicídio, um aumento de 60% em relação à década anterior.Diante desse cenário, o Centro de Combate ao Ódio Digital (CCDH), instituto do Reino Unido que promove mudanças ao expor produtores de ódio e desinformação, decidiu testar como o algoritmo do YouTube recomenda conteúdo para usuários adolescentes. Os resultados, publicados em dezembro de 2024, mostram que a plataforma direciona meninas para conteúdo relacionado a transtornos alimentares e automutilação.“O YouTube reconheceu o problema no passado e afirma tentar evitar contribuir para ele, mas nossa pesquisa mostra que eles ficaram muito aquém”, disse Imran Ahmed, CEO do CCDH, na publicação do estudo.O CCDH criou perfis falsos de usuárias adolescentes, indicando apenas que se tratavam de meninas de 13 anos, sem histórico de visualização prévio. A partir da primeira vez que assistiam a um vídeo sobre transtorno alimentar, o algoritmo do YouTube determinava quais conteúdos seriam recomendados. Ao analisar mil recomendações, os pesquisadores identificaram um padrão preocupante. Os resultados mostraram que:Entre os conteúdos encontrados, estavam vídeos que promoviam restrição calórica extrema e corpos esqueléticos como modelos “inspiradores”. Esses vídeos acumulavam, em média, mais de 388 mil visualizações na época da análise.“Se uma criança buscasse orientação com um profissional de saúde, um professor ou um colega sobre dietas extremas ou manifestação de dismorfia corporal, e a resposta fosse recomendar uma ‘dieta de acampamento de anorexia’, os pais nunca mais a deixariam perto dessa pessoa”, compara Ahmed. “Mas é exatamente isso que o YouTube fez.”Além disso, segundo o CCDH, ao lado desses vídeos prejudiciais, o YouTube exibia anúncios de grandes corporações, como Nike, T-Mobile e Hello Fresh, gerando receita a partir do conteúdo perigoso.Segundo a pesquisa, o YouTube afirma remover ou restringir por idade conteúdo sobre transtornos alimentares que possa ser prejudicial. A plataforma atualizou suas políticas sobre o tema em abril de 2023, ampliando o conjunto de vídeos que são proibidos no site.A política revisada introduziu restrição de idade para alguns vídeos relacionados a transtornos alimentares. Seguindo os novos termos, determinados conteúdos que tenham “contexto documental, científico ou artístico” ou que abordem “comportamentos alimentares desordenados no contexto de recuperação” ficam indisponíveis para menores de 18 anos.A plataforma também afirma que suas recomendações são “responsáveis” e que privilegia vídeos “autorizados” sobre temas médicos e científicos, garantindo maior destaque para informações confiáveis.O YouTube reconhece que a exposição repetida a determinados vídeos pode ser problemática para adolescentes e, por isso, implementou um sistema para limitar recomendações excessivas desse tipo de conteúdo nos EUA desde 2023.