ACOMPANHE-NOS     Campo Grande News no Facebook Campo Grande News no X Campo Grande News no Instagram Campo Grande News no TikTok Campo Grande News no Youtube
JANEIRO, QUINTA  29    CAMPO GRANDE 29º

Artigos

Roblox e o avanço da regulação sobre dados pessoais de crianças

Por Fernando Manfrin (*) | 29/01/2026 13:30

A restrição de funcionalidades do Roblox voltadas a crianças no Brasil não pode ser analisada como um gesto moral, pedagógico ou simbólico. Ela é, antes de tudo, um movimento regulatório que se alinha a uma racionalidade já consolidada nos Estados Unidos há mais de duas décadas.

O que o Brasil começa a fazer agora, ainda de forma fragmentada, é aplicar na prática uma lógica próxima à da Children’s Online Privacy Protection Act (COPPA) e, sobretudo, da COPPA Rule, uma gramática de conformidade centrada em desenho do serviço, idade e capacidade de controle demonstrável.

Nos Estados Unidos, a proteção de crianças no ambiente digital nunca foi tratada como uma extensão genérica do direito à privacidade. A COPPA construiu um modelo objetivo e operacional: ela se aplica a serviços direcionados a menores de 13 anos e também a serviços de público geral quando o operador tem actual knowledge de que está coletando informações pessoais de uma criança.

O eixo, portanto, não é “qualquer dado”, mas a combinação entre idade do usuário, características do serviço, inclusive quando são voltados direto a menores, e tratamento de informações pessoais como definidas na regulação.

Quando esses elementos estão presentes, a regra é direta: antes de coletar, usar ou divulgar informações pessoais de crianças, o operador deve fornecer aviso adequado e obter verifiable parental consent, o consentimento parental verificável, obtido por método “razoavelmente desenhado” para assegurar que quem consente é de fato o responsável.

Não basta informar. É preciso demonstrar governança e lastro probatório. Esse ponto é essencial para compreender o caso Roblox. Plataformas com alto grau de interação social, como jogos com chat, não apenas coletam dados: elas estimulam a produção constante de informação pela própria criança.

A COPPA trata esse desenho como parte do risco regulatório, inclusive quando o serviço habilita a criança a tornar informações pessoais publicamente disponíveis, o que pode configurar coleta, a menos que o operador adote medidas efetivas para remover “tudo ou praticamente tudo” do conteúdo identificável antes da publicação. Em outras palavras: quanto mais aberto e social é o ambiente, maior é o ônus do operador para demonstrar controle efetivo sobre quem participa, como o dado circula e quem pode acessá-lo, sobretudo, sobre o que a própria criança acaba expondo.

A ponte com a Lei Geral de Proteção de Dados é mais direta do que parece, mas exige precisão. A LGPD não enquadra automaticamente dados de crianças como “sensíveis” por categoria; ela cria um regime jurídico próprio, governado pelo melhor interesse, com disciplina específica para crianças e adolescentes.  No caso de crianças (no sentido do ECA), o art. 14 exige consentimento específico e em destaque por pelo menos um dos pais ou responsável legal, com exceções estritas para hipóteses como contato com os pais/responsável e proteção da criança.

A equivalência entre COPPA e LGPD, portanto, não está em uma “cópia” literal: a LGPD não usam definições similares, nem reproduz a mesma moldura regulatória dos EUA.

A convergência está na lógica de accountability aplicada ao desenho do serviço: se a arquitetura amplia o risco, multiplica a exposição e torna frágil a obtenção e a sustentação de um consentimento válido, o controlador passa a ter dificuldade de sustentar juridicamente o modelo. E a própria ANPD tem enfatizado o “melhor interesse” como eixo interpretativo, inclusive reconhecendo que hipóteses legais podem ser debatidas, mas sempre sob escrutínio reforçado quando envolvem crianças e adolescentes.

É exatamente nesse ponto que muitas plataformas globais encontram dificuldade. Em ambientes desenhados para escala, com milhões de usuários e interações em tempo real, comprovar (e documentar) um consentimento parental robusto, não é um desafio teórico: é um problema operacional. A COPPA já demonstrou, ao longo do tempo, que quando esse controle não é viável, a consequência prática frequente é a limitação de funcionalidades. Não por censura, mas por gestão de risco jurídico e reputacional.

O Brasil começa a se aproximar dessa lógica. A discussão em torno de um “ECA Digital” surge como tentativa de preencher lacunas e organizar a tutela no ambiente online, mas a LGPD já oferece fundamentos suficientes para intervenções regulatórias baseadas no desenho do serviço, sobretudo quando uma funcionalidade amplia o volume e a sensibilidade contextual do tratamento e dificulta a sustentação de um consentimento válido.  O chat infantil é o exemplo mais evidente desse dilema: ele transforma a criança em fonte contínua de dados, inclusive dados que ela mesma não percebe como dados.

A visibilidade pública do tema, impulsionada por influenciadores, acelera um processo que já estava em curso. A pressão social não cria a base jurídica, mas expõe o risco reputacional e reduz o espaço de tolerância regulatória. Diante desse cenário, a decisão de restringir funcionalidades passa a ser menos uma escolha política e mais uma resposta técnica a um problema de conformidade: quando a arquitetura não permite controle demonstrável, a redução do risco se impõe.

O que se observa, portanto, não é uma reação emocional à presença de crianças em ambientes digitais, mas uma convergência gradual com um modelo regulatório já testado no exterior. A COPPA ensinou que, sem consentimento parental verificável e governança real do ambiente, serviços direcionados a crianças precisam ser redesenhados. A LGPD, com linguagem própria, começa a tensionar as plataformas na mesma direção: melhor interesse, consentimento qualificado para crianças e dever reforçado de demonstrabilidade.

O caso Roblox deixa claro que o debate central não é se crianças devem ou não estar em plataformas digitais, mas se essas plataformas conseguem sustentar juridicamente o modo como foram desenhadas. Em um cenário de convergência regulatória global, a mensagem é inequívoca: quem cria ambientes digitais para crianças precisa assumir, técnica e juridicamente, os riscos que esse desenho produz. Quando isso não acontece, a limitação funcional deixa de ser exceção e passa a ser regra.

 (*) Fernando Manfrin, advogado especialista em compliance. 

 

Os artigos publicados com assinatura não traduzem necessariamente a opinião do portal. A publicação tem como propósito estimular o debate e provocar a reflexão sobre os problemas brasileiros.