ECA Digital: Entenda as novas regras para crianças e adolescentes na internet
O cenário digital brasileiro passa por uma transformação estrutural com a sanção da Lei nº 15.211/25, o chamado ECA Digital. A legislação, que adapta o Estatuto da Criança e do Adolescente à realidade das telas, é a primeira no país a estabelecer regras diretas e punições severas para plataformas de tecnologia.
Informalmente apelidada de “Lei Felca”, o texto não veta o uso da rede, mas impõe o fim da autodeclaração de idade e exige mecanismos robustos de proteção contra a exploração comercial e o assédio.
O fim da “idade declarada” e o controle parental
A mudança mais visível para o usuário comum será a verificação de idade. A partir de agora, as plataformas devem implementar métodos eficazes de confirmação etária, proibindo que crianças simplesmente “marquem uma caixa” afirmando ter mais de 18 anos.
Para menores de 16 anos, a regra é clara: o acesso a redes sociais só será permitido se a conta estiver vinculada à de um responsável. As empresas são obrigadas a fornecer painéis de controle para que pais monitorem o tempo de uso e os contatos dos filhos.
Proibições
Jogos de azar e publicidade emocional
O ECA Digital ataca diretamente modelos de negócios que lucram com a vulnerabilidade infantil:
- Lootboxes: As famosas “caixas-surpresa” em jogos eletrônicos, que exigem pagamento por itens aleatórios, estão proibidas para este público.
- Perfilamento emocional: Empresas não podem mais usar dados sensíveis ou estados emocionais de menores para direcionar publicidade.
- Monetização indevida: É vedado o impulsionamento de conteúdos que promovam a erotização infantil ou a adultização precoce.
A lei garante que a coleta de dados para verificação de idade não pode ser utilizada para fins comerciais. O desvio dessa finalidade pode acarretar sanções da ANPD.
Fiscalização
A fiscalização oficial começa nesta terça-feira (17), após o período de seis meses concedido para adaptação técnica das Big Techs. A Agência Nacional de Proteção de Dados (ANPD) será o órgão regulador, com poderes para aplicar advertências e multas. Em casos de extrema gravidade, a justiça poderá determinar a suspensão das atividades da plataforma no território nacional.
Para empresas com mais de um milhão de usuários jovens, a transparência deixa de ser opcional. Elas deverão publicar relatórios periódicos detalhando o número de contas moderadas e os critérios utilizados para remoção de conteúdos nocivos, como cyberbullying e incentivo à automutilação.
A lei proíbe o monitoramento massivo e indiscriminado, limitando os pedidos de remoção de conteúdo a vítimas, responsáveis legais, Ministério Público e entidades de proteção especializadas.
O objetivo central é garantir que o ambiente digital deixe de ser uma “terra sem lei” para o público infantojuvenil, transferindo a responsabilidade da segurança do usuário individual para a arquitetura das plataformas.