Julgamentos contra Meta e Google nos EUA e a entrada em vigor do ECA Digital no Brasil forçam redes sociais a repensar design, moderação e limites de uso para proteger jovens usuários.
(Imagem: Marcello Casal jr/Agência Brasil)
Março de 2026 entrou para a história como um mês de inflexão na maneira como a internet passa a ser regulada para proteger crianças e adolescentes. Em paralelo às decisões recentes de tribunais dos Estados Unidos contra o Meta e o Google, o Brasil viu o ECA Digital – Lei 15.211/2025 – começar a valer em pleno, com novas obrigações para serviços digitais que operam no país.
Esses dois marcos legislativos e judiciais convergem para a mesma direção: deixar de lado a lógica de que plataformas são apenas “intermediárias passivas” e assumir que o design de apps, a forma como conteúdos são exibidos e o tempo de permanência do usuário influenciam diretamente a segurança e a saúde mental de jovens. A partir de agora, redes sociais e grandes plataformas são chamadas a agir de forma proativa para evitar riscos on‑line, sob risco de multas, indenizações e maior fiscalização.
Meta obrigada a pagar penas coletivas por falhas de proteção
Em 24 de março de 2026, em Santa Fe, capital do Novo México, um júri reconheceu que o Meta – empresa que controla Facebook, Instagram e WhatsApp – não tomou medidas suficientes para proteger crianças e adolescentes de conteúdos inadequados, incluindo imagens associadas a abuso sexual praticado por adultos.
Como consequência, o tribunal determinou o pagamento de cerca de 375 milhões de dólares como pena à coletividade, um valor simbólico que evidencia a gravidade da falha: a empresa foi considerada negligente em relação a mecanismos que, por ausência de proteção robusta, permitiram que menores tivessem acesso a conteúdos extremamente perigosos, sem filtros adequados.
Indenização por impacto na saúde mental de jovem
Um dia depois, em Los Angeles, na Califórnia, outro júri concluiu que plataformas do Meta e do Google, como o YouTube, foram desenhadas para criar dependência. O uso de rolagem infinita, notificações constantes, reprodução automática de vídeos e recompensas intermitentes, como “curtidas” e comentários, teria levado uma jovem de cerca de 20 anos – identificada apenas como Kaley – a desenvolver transtorno dismórfico corporal, depressão e pensamentos suicidas durante a adolescência.
Em função desse dano, a Justiça determinou que as duas empresas paguem ao todo 6 milhões de dólares em indenização à vítima. A decisão é vista como um sinal de mudança: ela passa a considerar o próprio design das plataformas como parte central do problema, não apenas como um efeito colateral neutro da tecnologia.
Design manipulativo e exploração da atenção
Especialistas brasileiros destacam que esses casos evidenciam o uso de recursos de design manipulativo, em que algoritmos aprendem interesses, gostos e comportamentos dos usuários e, a partir disso, personalizam feeds de forma opaca, muitas vezes imperceptível para quem apenas clica na tela.
Ricardo Horta, diretor de segurança e prevenção de riscos no ambiente digital do Ministério da Justiça e Segurança Pública, compara esses mecanismos a produtos que priorizam, acima de tudo, o tempo de uso e a permanência do usuário, em vez de segurança e bem‑estar. Georgia Cruz, professora da Universidade Federal do Ceará, lembra que a lucratividade dessas empresas está ligada à chamada “economia da atenção”, que exige continuar cativando o usuário, mas com custos reais para emoções, hábitos e saúde mental.
Rompimento com a lógica de “imunidade total” das plataformas
Para Horta, esses julgamentos rompem com um paradigma antigo, segundo o qual plataformas não poderiam ser responsabilizadas por conteúdos publicados por terceiros. Agora, fica claro que existe um conjunto de mecanismos de design que influencia diretamente a saúde e o comportamento dos usuários, o que abre espaço para responsabilização mais ampla.
Paulo Rená da Silva Santarém, pesquisador do Instituto de Referência em Internet e Sociedade (Iris), ressalta que, em vez de focar exclusivamente no conteúdo, as ações passaram a olhar “como as redes sociais funcionam por dentro”. O advogado Marcos Bruno, especialista em direito digital, reforça que essas decisões reforçam o debate global sobre até onde elementos de design contribuem para o uso excessivo de jovens e para agravar problemas de saúde mental e comportamento online.
O ECA Digital entra em vigor no Brasil
No Brasil, em 17 de março de 2026 começou a valer a Lei 15.211/2025, conhecida como ECA Digital, regulamentada no dia seguinte pelo Decreto 12.880, assinado pelo presidente Luiz Inácio Lula da Silva. A norma impõe às empresas de tecnologia o dever de prevenir e mitigar riscos ligados ao acesso de crianças e adolescentes a conteúdos impróprios ou potencialmente nocivos.
Mylena Devezas Souza, professora da Universidade Federal Fluminense, explica que a lei exige que plataformas sejam estruturadas para oferecer experiências adequadas à idade do usuário, tornando necessário o uso de filtros por faixa etária, recomendações mais seguras e ferramentas claras para que jovens e responsáveis tenham maior controle sobre o tempo de tela e o tipo de conteúdo consumido.
Supervisão parental e responsabilidade compartilhada
Uma das apostas centrais do ECA Digital é a supervisão parental. A lei determina que plataformas facilitem a ação de responsáveis, permitindo que estes limitem ou restrinjam o uso das redes sociais, filtrem conteúdos específicos e monitorem o tempo de uso dos filhos.
Wladimir Gramacho, professor da Faculdade de Comunicação da Universidade de Brasília (FAC‑UnB), destaca que, hoje, não basta proibir celulares ou aplicativos: muitas vezes, os próprios adultos também são “capturados” pelas mesmas lógicas de design viciante. A segurança digital de crianças e adolescentes passa, portanto, a ser entendida como uma responsabilidade compartilhada entre Estado, empresas e famílias, com a sociedade civil também chamada a denunciar violações pelos canais que as plataformas serão obrigadas a manter.
Conexão entre EUA e Brasil: tendência global de proteção
- Os julgamentos ao Meta e ao Google nos Estados Unidos e o ECA Digital no Brasil convergem no foco em saúde mental, bem‑estar e segurança de jovens usuários da internet.
- Ambos exigem que plataformas adotem medidas proativas, como filtros de idade, limites de tempo, moderação preventiva e maior transparência sobre como algoritmos funcionam e influenciam o que é visto.
- Especialistas avaliam que essas decisões podem servir de referência para outros países, elevando o patamar mínimo de proteção de crianças e adolescentes na internet e pressionando empresas a reformular seus modelos de negócio.
Em resumo, o período marca um ponto de virada: plataformas digitais não poderão mais tratar a relação direta entre design, uso compulsivo e danos à saúde mental como mera coincidência. Com o ECA Digital no Brasil e com os julgamentos ao Meta e ao Google nos EUA, o cenário indica que regras mais rígidas sobre transparência, segurança, bem‑estar digital e responsabilidade das empresas tendem a se consolidar em direção a um padrão global mais exigente para a proteção de jovens online.