“Diante do avanço das redes sociais e do consumo digital precoce, relatórios técnicos em países como a França defendem restrições de acesso para menores e mudanças estruturais no design das plataformas, colocando a saúde mental de adolescentes no centro das políticas de proteção e regulação tecnológica”
Impactos na saúde mental de adolescentes
Estudos científicos e levantamentos recentes mostram associação crescente entre uso intensivo de redes sociais e problemas de saúde mental entre jovens. O uso excessivo tem sido ligado a maiores taxas de ansiedade, depressão, distúrbios do sono e baixa autoestima, especialmente entre 12 e 17 anos, fase em que o cérebro ainda está em desenvolvimento. A comparação constante e a busca por validação on-line são citadas como fatores de estresse emocional.
Revisões acadêmicas apontam também que a natureza do impacto pode variar conforme características individuais, tipo de uso e plataforma, indicando que não há efeito uniforme para todos os adolescentes.
No Brasil, pesquisa de opinião indica que 90% dos adultos acreditam que adolescentes não recebem apoio emocional e social adequado para lidar com ambientes digitais, evidenciando lacunas no suporte familiar e educacional.
Organizações de saúde pública, como a OMS, destacam a necessidade de políticas direcionadas à proteção de jovens em ambientes digitais, com ações que incluam educação digital e mitigação de riscos relacionados à exposição on-line.
Judicialização e pressão normativa sobre plataformas
Nos Estados Unidos, uma série de ações judiciais a partir de 2024–2025 acusa empresas como Meta, YouTube, TikTok e Snap de projetar plataformas aditivas que prejudicam a saúde mental de crianças e adolescentes. Processos em tribunais da Califórnia e Novo México têm servido de teste para responsabilizar as empresas pelo design dos produtos, com analogias à litigação histórica contra indústrias como tabaco e opioides.
Uma pesquisa de opinião recente indica que 86% dos americanos querem que Meta e Google sejam responsabilizadas pelo que classificam como crise de “vício predatório” em redes sociais, sinalizando forte demanda pública por regulação de algoritmos e interfaces projetadas para maximizar engajamento.
Além de processos judiciais, há movimentos de autoavaliação: Meta, TikTok e Snap concordaram em se submeter a avaliações independentes de segurança para adolescentes, com métricas sobre pausa obrigatória no uso e limites ao “scroll infinito”.
Projetos e iniciativas de política pública
Nos Estados Unidos tramita o Kids Off Social Media Act, que propõe proibir menores de 13 anos em plataformas sociais e vetar recomendações algorítmicas para menores de 17 anos — embora sua tramitação ainda enfrente desafios parlamentares.
Nos níveis subnacionais, estados como Colorado implementaram normas obrigatórias em 2026 para exibir alertas de uso excessivo a usuários com menos de 18 anos, com avisos periódicos quando a presença on-line ultrapassa determinado tempo.
Regulação internacional
Na União Europeia, o cumprimento do Digital Services Act tem levado autoridades a advertir redes como TikTok por práticas de design potencialmente prejudiciais à saúde mental de crianças, com possibilidade de multas significativas e exigência de mitigação de riscos sistêmicos.
Relatórios técnicos em países como França recomendam restrições de acesso para menores de idade e reformulação do design das plataformas para priorizar segurança e bem-estar dos usuários jovens.