Mais
    Início Colunas Editorial Proteção de crianças no ambiente digital

    Proteção de crianças no ambiente digital

    A entrada em vigor, nesta terça-feira, 17, da Lei 15.211/2025, o chamado “ECA Digital” ou “Lei Felca”, marca um ponto de inflexão no debate brasileiro sobre proteção de crianças e adolescentes no ambiente online.

    Como lembra em artigo Márcio Filho, presidente da Associação de Criadores de Jogos do Rio de Janeiro, não se trata de “mais uma lei de internet”, mas do reconhecimento de um fato inescapável: a infância brasileira também passou a viver no ambiente digital.

    “Ignorar isso seria fechar os olhos para uma realidade que já organiza boa parte da vida social de crianças e jovens”, defende ele. Os dados citados por Márcio Filho são eloquentes.

    Segundo a pesquisa TIC Kids Online 2025, 19% das crianças de nove a dez anos acessam redes sociais várias vezes ao dia, porcentagem que sobe a 33% entre 11 e 12 anos e chega a 55% entre 13 e 14 anos.

    No WhatsApp, os números são semelhantes ou ainda mais altos. Isso significa que, em plena formação, milhões de meninos e meninas estão expostos, de forma intensa e cotidiana, a ambientes que distribuem conteúdos por algoritmos, estimulam engajamento e capturam tempo e atenção em escala industrial.

    Nesse cenário, como observa o autor, as plataformas digitais não podem ser tratadas apenas como canais neutros de comunicação.

    “Elas são sistemas que organizam relações sociais, definem o que aparece primeiro na tela, incentivam determinados comportamentos e permitem que determinados conteúdos – inclusive violentos, sexualizados ou abusivos – se tornem virais em pouquíssimo tempo”, observa ele.

    Quando esse sistema passa a fazer parte da vida cotidiana de crianças e adolescentes, o debate deixa de ser privado e passa a ser, necessariamente, público.

    É exatamente aí que o ECA Digital ganha relevância. Nas palavras de Márcio Filho, a lei afirma algo que “deveria ser óbvio, mas demorou para ser reconhecido”: se as plataformas estruturam a experiência social de milhões de jovens, também precisam assumir responsabilidades proporcionais.

    Não basta oferecer ferramentas de controle parental como gesto isolado, como fez o WhatsApp ao anunciar contas gerenciadas por pais para menores de 13 anos.

    Esses recursos podem ajudar, e muitos responsáveis pedem esse tipo de funcionalidade, mas confiar apenas nisso é transferir para as famílias um problema estrutural de desenho de produto e de modelo de negócios.

    O episódio recente envolvendo o TikTok (questionado pelo Ministério da Justiça após a viralização de vídeos que simulavam agressões contra mulheres) evidencia o tamanho do desafio.

    Não se trata de “um conteúdo inadequado que escapou da moderação”, como sublinha Márcio. Trata-se de dinâmicas de viralização que podem amplificar discursos violentos antes que qualquer sistema de controle consiga reagir.

    Sem regras claras, transparência algorítmica e responsabilidade efetiva, a proteção de crianças e adolescentes fica à mercê de decisões unilaterais de empresas cujo objetivo central é maximizar engajamento – e apenas lucro, por conseguinte.

    O mundo (menos incivilizado) começa a responder, porém. A Austrália proibiu, em 2025, o acesso de menores de 16 anos a redes sociais e plataformas consideradas de alto risco.

    A Indonésia seguiu caminho semelhante em 2026, impedindo que crianças e adolescentes utilizem serviços como YouTube, TikTok, Instagram, X e Roblox, citando riscos de pornografia, cyberbullying, fraudes e dependência.

    Não se trata de copiar modelos estrangeiros, mas de reconhecer que a ideia de que “regular plataformas prejudica a inovação” é, como afirma Márcio, uma falsa oposição. Sociedades que conseguem organizar seus ecossistemas digitais não matam a inovação; definem regras mínimas de responsabilidade e proteção.

    No Brasil, o ECA Digital é um passo relevante, mas está longe de encerrar o debate. O ambiente digital se transforma rápido demais para soluções únicas. A lei, contudo, fixa um princípio que precisa ser levado a sério: a proteção da infância não termina quando a criança pega um celular. Isso implica, necessariamente, políticas públicas consistentes de defesa de crianças e adolescentes no ambiente digital.

    Cabe ao poder público fiscalizar, aplicar a legislação, exigir mecanismos robustos de verificação etária, impor parâmetros mínimos de design seguro e atuar de forma proativa em parceria com órgãos de justiça, educação e saúde.

    Ao mesmo tempo, há um ponto que o próprio diretor ressalta e sobre o qual não há ressalvas: nenhuma lei, regulação ou tecnologia substitui o papel dos pais. Por mais óbvio seja, é preciso repetir: a principal responsabilidade pela educação, orientação de valores e acompanhamento da vida digital das crianças é da família.

    Não se trata de culpabilizar pais e mães, mas de reforçar que delegar à escola, ao Estado ou às plataformas o que é, em primeiro lugar, função da casa é um risco grave.

    Isso significa, na prática, estabelecer regras claras de uso de telas, acompanhar de perto com quem os filhos conversam e que tipo de conteúdo consomem, manter diálogo aberto sobre riscos, limites e responsabilidade, e não normalizar o uso irrestrito de celular como “babá digital”.

    As escolas, como lembra Márcio Filho, também precisam incorporar educação digital de forma consistente, desenvolvendo pensamento crítico, noção de privacidade, compreensão de algoritmos e cultura de segurança online. Mas nada disso funciona se a família se ausentar.

    O setor privado, em especial o de jogos e entretenimento digital, já começa a se mover, argumento ele. O próprio diretor relata a participação em estudos enviados ao Senado sobre restrição de “loot boxes” para menores, a inclusão de dispositivos de proteção à infância no Marco Legal dos Jogos e critérios em editais públicos para evitar experiências digitais de risco. São iniciativas importantes, que mostram que é possível inovar e, ao mesmo tempo, assumir responsabilidade.

    No fim, como sintetiza o autor do artigo, a pergunta central é quem vai definir as regras desse ambiente em que a infância brasileira já está inserida.

    Se essa definição ficar apenas nas mãos das plataformas, seria o mesmo que aceitar que interesses comerciais determinem os limites da infância conectada.

    Se, ao contrário, sociedade, famílias, escolas, Estado e empresas assumirem, em conjunto, que proteger crianças e adolescentes é uma decisão coletiva, pode haver chance de se construir um ambiente digital mais justo, mais transparente e, sobretudo, mais humano.

    Regular e controlar redes sociais voltadas ao público infantil e juvenil não é censura; é cuidado. Exigir políticas públicas de proteção digital não é exagero; é dever do Estado. E assumir, como pais e mães, o protagonismo na educação dos filhos – inclusive, no mundo online – não é detalhe; é responsabilidade intransferível.