A partir de 17 de março, teremos mudanças no ambiente digital com a entrada em vigor da chamada Lei do ECA Digital. Um de seus pilares é a averiguação de idade, que surge como resposta à proteção de crianças e adolescentes. Esse instrumento aparece como atualização do dever constitucional de proteção integral.
O debate ganha força com a expansão da internet móvel, das redes sociais e das plataformas adultas, sobretudo após o vídeo-denúncia do youtuber Felca, que expôs produtores de conteúdo que utilizam crianças e adolescentes para se promover profissionalmente.
O vídeo, com grande apelo, mobilizou as noções de “adultização” e “sexualização”, deslocando a centralidade do debate das novas formas de trabalho infantil para a discussão sobre pornografia e sexualidade. Com isso, os debates passaram a centrar-se na ideia de que pornografia, sexualização e sexo seriam os principais fatores de risco no ambiente digital para crianças e adolescentes.
A discussão sobre averiguação de idade aparece como uma solução técnica. Contudo, ela reorganiza quem é considerado risco e quem é considerado perigo.
ECA Digital e suas demandas
A Lei nº 15.211/2025 estabelece diretrizes para a proteção de crianças e adolescentes em ambientes digitais, incluindo a exigência de mecanismos de aferição de idade para acesso a determinados conteúdos e serviços. Ela amplia direitos e reconhece a criança como consumidora digital.
No entanto, o contexto de sua criação é conflituoso e contraditório: foi aprovada sem que uma política estruturada de regulação das plataformas digitais tivesse avançado. Assim, o ECA Digital acaba incidindo mais sobre o comportamento dos usuários do que sobre o funcionamento estrutural das próprias redes.
Há consenso quanto à necessidade de proteção infantil: verificação etária, moderação de conteúdo, combate à exploração sexual e à violência digital. Mas o consenso termina quando se pergunta: proteger de quê? E por meio de quais mecanismos?
É evidente que crianças não devem acessar conteúdos impróprios e que as plataformas precisam assumir responsabilidades. Também é claro que a autodeclaração é insuficiente. No entanto, a falha não se limita ao campo técnico: ela se estende à ausência de políticas educacionais que abordem prevenção, conduta e letramento digital em espaços coletivos.
Entre os dissensos estão as formas de implementação: upload de documentos? Biometria? Integração com sistemas governamentais? Armazenamento de dados sensíveis? Aplicação do princípio da proporcionalidade? Todas essas propostas esbarram em normas já vigentes, como a Lei Geral de Proteção de Dados e o Marco Civil da Internet.
O relatório do MJSP
Diante dessas questões, o CGI e o MJSP organizaram encontros multissetoriais e sistematizaram um relatório. O documento teve três objetivos centrais: organizar as contribuições recebidas; identificar consensos e dissensos técnicos; e oferecer subsídios para regulamentação infralegal.
O relatório sistematiza quatro caminhos principais para a aferição de idade. O modelo mais simples é o da autodeclaração, no qual o próprio usuário informa sua data de nascimento, solução amplamente considerada insuficiente quando se trata de conteúdos classificados como sensíveis.
Em contraposição, a verificação documental surge como alternativa mais robusta, exigindo o envio ou a validação de documentos oficiais; contudo, esse modelo é alvo de críticas consistentes devido aos riscos à privacidade e à concentração de dados sensíveis.
Outra proposta envolve a estimativa de idade por meio de biometria ou inteligência artificial, especialmente a partir de reconhecimento facial. Embora apresentada como solução tecnológica eficiente, ela é marcada por controvérsias relacionadas a vieses algorítmicos, margens de erro e possíveis discriminações raciais e etárias.

Por fim, aparece a certificação por terceiros, na qual provedores de identidade digital confirmariam a maioridade sem necessariamente revelar todos os dados pessoais do usuário, modelo visto por alguns participantes como uma alternativa potencialmente mais equilibrada entre proteção e preservação da privacidade, ainda que também dependa de forte regulação e fiscalização.
As propostas regulatórias foram organizadas sob uma abordagem baseada em risco (risk-based approach), diferenciando tipos de plataformas, prevendo auditorias, transparência algorítmica, proteção reforçada de dados biométricos e responsabilização progressiva.
Entre as críticas, destacou-se o possível conflito com a Lei Geral de Proteção de Dados, especialmente quanto à coleta excessiva e ao armazenamento de dados sensíveis — inclusive dados relacionados à navegação sexual. Houve preocupação com vazamentos, uso secundário de informações e vigilância estatal ou privada.
Também se questionou a eficácia prática: uso de VPN, compartilhamento de contas, identidade de terceiros e migração para plataformas estrangeiras podem limitar o impacto real da medida. Mecanismos rígidos podem não impedir o acesso juvenil, mas ampliar riscos de exposição de dados.
Outro eixo crítico foi o impacto sobre direitos fundamentais: liberdade de expressão, acesso à informação, anonimato e possíveis efeitos discriminatórios, especialmente para populações vulneráveis.
Pornografia como “alto risco”
O relatório enquadra conteúdos de natureza sexual como um dos principais vetores para justificar mecanismos robustos de aferição de idade. A sexualidade passa a ser tratada como conteúdo de “alto risco”.
Essa classificação, no entanto, mistura categorias distintas. Nem todo conteúdo sexual é ilegal. Diferenciar pornografia legal, educação sexual, erotismo e exploração sexual é fundamental, inclusive para que crianças e adolescentes saibam identificar e denunciar situações abusivas. A ausência de distinções claras pode gerar sobrebloqueio e remoção automatizada de conteúdos educativos.
As propostas mais restritivas defendem verificação documental obrigatória para acesso a sites pornográficos e integração com sistemas governamentais. O argumento central é que o acesso precoce à pornografia estaria associado a riscos ao desenvolvimento psíquico e social, tema que permanece controverso e marcado por lacunas metodológicas.
Chama atenção que o foco recai mais sobre o controle do acesso à sexualidade adulta do que sobre o enfrentamento estruturado de redes que produzem conteúdo ilegal ou exploram menores.
Trabalho sexual e riscos desproporcionais
O trabalho sexual aparece no relatório em três eixos: impacto sobre plataformas adultas, exposição de dados sensíveis e desproporcionalidade regulatória.
Exigir identificação documental pode afastar consumidores, reduzir renda e criar riscos adicionais para trabalhadores sexuais. Consumir ou produzir conteúdo adulto envolve dados sensíveis. Sistemas centralizados de verificação podem expor performers a vazamentos, assédio, chantagem e doxing.
Além disso, a legislação tende a tratar plataformas de trabalho sexual como categoria homogênea, sem diferenciar produção autônoma, exploração sexual e tráfico de pessoas.
Experiências internacionais demonstram que mecanismos excessivamente rígidos podem empurrar trabalhadoras para ambientes informais e menos seguros, intensificando processos de desplatformização.
A hierarquia dos perigos
Aqui emerge uma assimetria importante. Enquanto a pornografia é tratada como risco inerente ao conteúdo e classificada como “alto risco”, espaços digitais que incitam ódio e violência (como comunidades redpill) aparecem como problema de moderação e governança, não como questão central na aferição etária.
Isso revela uma hierarquia: a sexualidade é tratada como conteúdo que exige controle de entrada; já a misoginia organizada e a radicalização masculina são enquadradas como problemas comportamentais.
No entanto, muitos desses espaços incitam violência contra meninas, adolescentes, mulheres, incentivam crimes e operam por meio de monetização algorítmica. Ainda assim, não aparecem como justificativa central para mecanismos robustos de verificação de idade.
O que está em disputa
A análise sugere que a forma como o risco vem sendo construído não é neutra. Ao classificar a pornografia como “alto risco” em si, o debate regulatório parece tratar a sexualidade como um perigo moral estruturante, algo que exige controle de entrada e vigilância permanente. Nesse movimento, consolida-se uma espécie de biopolítica digital: regula-se o acesso ao corpo, ao desejo e à intimidade como estratégia central de proteção.
Ao mesmo tempo, espaços que produzem e disseminam violência ideológica (como comunidades misóginas que incentivam ódio e radicalização masculina) tendem a ser enquadrados como problemas de moderação ou comportamento, não como ameaças estruturais que demandariam barreiras de acesso semelhantes. A violência organizada aparece como desvio administrável; a sexualidade, como risco intrínseco.
Essa assimetria revela uma lógica regulatória que associa proteção infantil prioritariamente ao controle da sexualidade, e não ao enfrentamento sistemático da misoginia digital. O resultado é uma hierarquia dos perigos na qual o conteúdo sexual ocupa o centro da intervenção, enquanto dinâmicas de ódio e incitação à violência permanecem em segundo plano, mesmo quando seus impactos sociais são amplamente documentados
Essas escolhas não são neutras. Elas moldam quem será monitorado, quem será protegido e quem será enquadrado como perigo.
A pergunta final permanece: como proteger crianças e adolescentes sem transformar a sexualidade adulta em objeto de vigilância permanente e sem precarizar ainda mais quem trabalha no mercado sexual digital?
Novas regras que decidem quem pode comprar, vender e ver sexo online
