Bullying

terça-feira, 17 de março de 2026

TERÇA-FEIRA, 17 DE MARÇO DE 2026 | A15 ECA Digital proíbe autoplay de vídeos, notificações com apelo emocional e rolagem infinita.

TERÇA-FEIRA, 17 DE MARÇO DE 2026 | A15

ECA Digital proíbe autoplay de vídeos, notificações com apelo emocional e rolagem infinita.

Legislação entra em vigor nesta terça-feira (17) e prevê verificação de idade, moderação mais ativa e identificação de comportamento de risco

Bruno Lucca e Bárbara Sá

SÃO PAULO Redes sociais que operam no Brasil serão obrigadas a abandonar o uso de recursos que possam prender a atenção de crianças e adolescentes, como a rolagem infinita de feed sem pausas naturais e a reprodução automática de vídeos.

Essas medidas estão no decreto produzido pelo Ministério da Justiça e da Segurança Pública para regulamentar o ECA Digital. A Folha teve acesso a seus principais pontos. O documento deve ser assinado pelo presidente Lula (PT) nesta terça-feira (17), quando a lei passa a valer. Um evento foi marcado para as 11h, no Palácio do Planalto.

O texto ainda proíbe todos os tipos de técnicas que exploram fragilidades emocionais ou cognitivas dos jovens, criando falso senso de urgência e usando pressão emocional ou gatilhos de recompensa para mantê-los online. Nessa linha, ele veta o disparo de notificações com o intuito de levar usuários de volta aos aplicativos.

O ECA Digital busca reduzir casos de violência, assédio e exploração de menores na internet. A lei prevê que empresas de tecnologia adotem mecanismos capazes de identificar a idade dos usuários, reforcem sistemas de moderação e implementem ferramentas capazes de detectar comportamentos de risco antes de denúncias formais.

A implementação, no entanto, será escalonada e pode levar meses, já que a ANPD (Agência Nacional de Proteção de Dados) expedirá diretrizes após a publicação do decreto. Caberá à agência, por exemplo, definir quando a proibição da rolagem infinita e da reprodução automática de vídeos entra em vigor.

O texto do ministério também veta a publicidade personalizada para crianças. Plataformas não poderão mais usar o perfil comportamental desse público (gostos, histórico, tempo de tela) para direcionar anúncios. Também ficam proibidas técnicas de análise emocional, realidade aumentada e realidade virtual com fins comerciais.

"Esses são elementos que dão mais granularidade ao artigo que trata das medidas que as plataformas precisam adotar para não estimular o vício. Nesse sentido, parecem muito bem-vindos", diz Maria Mello, gerente do eixo digital do Instituto Alana.

Para ela, as práticas de funcionamento vetadas tendem a levar usuários a um comportamento de dependência. "Esse risco existe para todos, mas, quando se trata de crianças e adolescentes, a probabilidade de desenvolvimento de padrões de uso compulsivo é significativamente maior."

A reportagem procurou as redes sociais mais acessadas no país — Instagram, Facebook, TikTok e X — e as questionou sobre a adaptação às proibições.

O grupo Meta, dono do Instagram e do Facebook, diz que já conta desde 2024 com uma experiência específica para usuários de 13 a 17 anos, as chamadas Contas de Adolescente. Elas têm configurações mais restritas por padrão que incluem avisos de limite diário de tempo após 60 minutos de uso do Instagram e o modo descanso, que desativa notificações durante a noite automaticamente.

"Estamos incorporando recursos às Contas de Adolescente no Brasil para cumprimento do ECA Digital, e compartilharemos avanços adicionais que vierem a ser adotados na medida em que forem implementados", informou a empresa.

TikTok e X não enviaram resposta até a noite desta segunda.

Para quem investiga crimes digitais, o impacto das novas regras dependerá de como e quando as plataformas vão aplicá-las na prática.

"Fica difícil um posicionamento antes que seja feita a total implementação das mudanças. Ocorre que os autores desses crimes já utilizam perfis fakes e sabem burlar os sistemas, mas prefiro ser otimista e acreditar que, diante das dificuldades implementadas, os crimes diminuam", afirma a delegada Lucandréa Salveiego Colatruono, chefe do Noad (Núcleo de Observação e Análise Digital) da Polícia Civil de São Paulo.

A exigência de verificação de idade para acesso a conteúdos sensíveis, por exemplo, não será aplicada integralmente já no início da vigência da lei. A definição dos requisitos técnicos caberá à ANPD, que deverá estabelecer critérios para garantir a segurança e a confiabilidade dos sistemas de checagem etária, como quais tecnologias poderão ser utilizadas e de que forma os dados dos usuários deverão ser protegidos.

A delegada aponta que um dos principais entraves atuais está na comunicação entre plataformas digitais e autoridades. "Hoje a plataforma fornece o que quer e quando quer, não há um prazo para isso e nem quais dados devem ser fornecidos imediatamente". Em situações de risco imediato, diz ela, a demora pode comprometer a proteção da vítima.

Ela defende ainda que o enfrentamento da violência digital não pode ficar restrito ao trabalho policial: "É preciso que esse tema chegue nas escolas, igrejas, na sociedade como um todo. Ninguém terá sucesso se combater isso de forma isolada. Segurança, educação e saúde devem estar unidas nesse propósito."

Especialistas afirmam que a exigência de verificação de idade tenta enfrentar uma fragilidade histórica da internet: crianças e adolescentes conseguem acessar ambientes digitais com poucas barreiras efetivas.

Para o advogado Gonçalo Adão de Arruda Santos, especialista em perícia digital, já existem tecnologias capazes de melhorar esse controle, embora nenhuma seja totalmente infalível. "A autodeclaração é frágil e facilmente burlada. Já métodos biométricos ou documentais são mais confiáveis, mas levantam discussões importantes sobre privacidade e proteção de dados."

Do ponto de vista jurídico, a exigência representa uma adaptação das regras de proteção à infância ao ambiente digital, afirma Leilah Luzinda Gomes de Almeida, doutora em ciências jurídicas e sociais.

Para organizações da sociedade civil, a legislação representa uma mudança na forma de responsabilizar empresas de tecnologia.

Entre as empresas procuradas pela reportagem, o Discord disse que começou a implementar em 9 de março mecanismos de verificação de idade no Brasil.

Segundo a plataforma, usuários poderão verificar a idade por métodos como estimativa etária por selfie em vídeo ou envio de documento por meio de parceiros. A empresa afirma também utilizar denúncias de usuários, ferramentas automatizadas de detecção, modelos de machine learning e revisão humana para identificar conteúdos abusivos.

O Roblox foi contatado por mensagens e email, mas não respondeu até a conclusão desta edição.


O que muda para crianças e adolescentes

  • VERIFICAÇÃO DE IDADE: Plataformas podem ter de confirmar a idade do usuário para liberar acesso a determinados conteúdos ou serviços.

  • PROTEÇÃO CONTRA CONTEÚDO NOCIVO: Empresas devem adotar medidas para reduzir a exposição de menores a pornografia, violência ou material inadequado.

  • RESPONSABILIDADE DAS PLATAFORMAS: Serviços digitais podem ser obrigados a agir para prevenir riscos e responder rapidamente a denúncias.

  • FERRAMENTAS PARA RESPONSÁVEIS: Pais ou responsáveis podem ter acesso a mecanismos de supervisão e controle de uso.

  • PROTEÇÃO DE DADOS E PRIVACIDADE: Coleta e uso de dados de crianças e adolescentes terão regras mais rígidas.

Referência Bibliográfica (ABNT)

LUCCA, Bruno; SÁ, Bárbara. ECA Digital proíbe autoplay de vídeos, notificações com apelo emocional e rolagem infinita: Legislação entra em vigor nesta terça-feira (17) e prevê verificação de idade, moderação mais ativa e identificação de comportamento de risco. Folha de S.Paulo, São Paulo, ano 105, n. 35.412, p. A15, 17 mar. 2026.


Nenhum comentário: