Novos julgamentos contra Meta e Google nos Estados Unidos e a entrada em vigor do ECA Digital no Brasil reforçam obrigações de plataformas para proteger crianças e adolescentes na internet.
(Imagem: Marcello Casal jr/Agência Brasil)
Duas grandes mudanças em março de 2026 reforçam a ideia de que a internet está sendo obrigada a se tornar um ambiente mais seguro, especialmente para crianças e adolescentes. Enquanto os Estados Unidos produziram duas condenações importantes contra o Meta e o Google, o Brasil viu o ECA Digital (Lei 15.211/2025) começar a valer em pleno, com novas regras para serviços digitais que atuam no país.
A combinação desses marcos – um conjunto de decisões judiciais em solo norte‑americano e a nova legislação protecionista brasileira – cria um cenário em que plataformas não podem mais alegar apenas “neutralidade” para se eximir de responsabilidades. Em vez disso, são chamadas a revisar o design de seus apps, limitar o tempo de uso e filtrar conteúdos inadequados, sob pena de pagar multas, indenizações e enfrentar fiscalização mais rígida.
Julgamentos nos Estados Unidos contra Meta e Google
Em 24 de março de 2026, um júri em Santa Fe, capital do Novo México, decidiu que o Meta – dono de Facebook, Instagram e WhatsApp – deve ser responsabilizado por não adotar medidas concretas para impedir que crianças e adolescentes fossem expostas a conteúdos impróprios, incluindo material de abuso sexual por adultos.
Além disso, a Justiça determinou o pagamento de cerca de 375 milhões de dólares como pena à coletividade, um valor simbólico que sinaliza a gravidade da acusação: a empresa foi visto como omisso diante de mecanismos que, por falta de proteção, facilitaram o acesso de menores a conteúdos altamente perigosos.
Indenização por “vício digital” e efeitos na saúde mental
Um dia depois, em Los Angeles, na Califórnia, um segundo júri entendeu que plataformas do Meta e do Google (YouTube) foram desenhadas para criar dependência: o uso de rolagem infinita, notificações constantes, reprodução automática de vídeos e recompensas intermitentes como “curtidas” teria levado uma jovem de cerca de 20 anos – identificada apenas como Kaley – a desenvolver transtorno dismórfico corporal, depressão e pensamentos suicidas na adolescência.
Como consequência, o júri determinou que as duas empresas paguem ao todo 6 milhões de dólares em indenização à vítima. A decisão marca um ponto de inflexão, ao tratar mecanismos de design como parte central do problema, não apenas como consequência neutra da tecnologia.
Design manipulativo e a “economia da atenção”
Segundo especialistas brasileiros, esses julgamentos mostram que plataformas usam recursos de design manipulativo – como algoritmos que aprendem interesses, gostos e comportamentos dos usuários e que seguem padrões “obscuros”, isto é, opacos para quem está apenas olhando para a tela.
Ricardo Horta, diretor de segurança e prevenção de riscos no ambiente digital do Ministério da Justiça e Segurança Pública, compara esse tipo de design a produtos que, em vez de buscar segurança e bem‑estar do usuário, têm como objetivo principal maximizar o tempo de uso. E Georgia Cruz, professora da Universidade Federal do Ceará, lembra que as empresas lucram com essa “econom.populate\text{da atenção}”, enquanto usuários ficam sobrecarregados com impactos emocionais, sociais e de comportamento.
Fim da “imunidade” das big techs?
Para Horta, esses julgamentos quebram um paradigma: pela primeira vez fica explícito que esses mecanismos existem e que têm impacto direto na saúde e no bem‑estar do consumidor. Ainda que em decisões estaduais, os casos rompem com a lógica segundo a qual as plataformas não poderiam ser responsabilizadas pelos conteúdos postados por terceiros.
Paulo Rená da Silva Santarém, pesquisador do Instituto de Referência em Internet e Sociedade (Iris), destaca que, em vez de focar apenas no conteúdo, as ações passaram a ver “como as redes sociais funcionam”. Também o advogado Marcos Bruno, especialista em direito digital, considera que essas decisões reforçam o debate global sobre até que ponto o design das plataformas contribui para uso excessivo entre jovens.
O ECA Digital no Brasil: regras para plataformas
No Brasil, em 17 de março de 2026 entrou em vigor a Lei 15.211/2025, o chamado ECA Digital, regulamentado no dia seguinte pelo Decreto 12.880, assinado pelo presidente Luiz Inácio Lula da Silva. A norma impõe aos serviços digitais o dever de prevenir e mitigar riscos ligados ao acesso de crianças e adolescentes a conteúdos inadequados.
Segundo a professora Mylena Devezas Souza, da Universidade Federal Fluminense, a lei exige que as plataformas sejam estruturadas de modo a oferecer experiências adequadas à idade do usuário e que disponibilizem configurações e ferramentas acessíveis, permitindo maior controle do tempo de uso e dos conteúdos visualizados.
Supervisão parental e responsabilidade compartilhada
O ECA Digital determina que as plataformas devem facilitar a supervisão parental, permitindo que responsáveis limitem ou restrinjam o uso das redes sociais, filtrem conteúdos e monitorem o tempo de tela. Wladimir Gramacho, professor da Faculdade de Comunicação da Universidade de Brasília (FAC‑UnB), destaca que, hoje, os pais precisam acompanhar a exposição dos filhos, porque o adulto também é “capturado” pelas mesmas telas.
Assim, a segurança digital de crianças e adolescentes passa a ser vista como uma responsabilidade compartilhada entre Estado, empresas e família. Além disso, a Agência Nacional de Proteção de Dados (ANPD) reforça que qualquer pessoa que presenciar violação de direitos deve denunciar pelos canais de denúncia que as plataformas serão obrigadas a manter.
Conexão entre EUA e Brasil: novos padrões globais
- Os julgamentos nos Estados Unidos e o ECA Digital no Brasil convergem no foco na saúde mental e na segurança de usuários jovens on‑line.
- Ambos exigem que plataformas adotem medidas proativas, como filtros de idade, limites de tempo, moderação antecipada e transparência sobre algoritmos.
- Para especialistas, essas decisões podem influenciar jurisprudências e leis em outros países, elevando o patamar mínimo de proteção de crianças e adolescentes na internet.
Em resumo, março de 2026 marcou um passo claro no sentido de que plataformas digitais não poderão mais tratar ligações diretas entre design, uso compulsivo e danos à saúde mental como mera coincidência. Com o ECA Digital e com os julgamentos ao Meta e ao Google, a tendência é que regras mais rígidas sobre transparência, segurança e bem‑estar digital se espalhem em direção a um padrão global mais exigente.