Créditos: Conjur

Pela primeira vez na história, um júri norte-americano ouve o depoimento de uma jovem que acusa as gigantes da tecnologia de destruírem sua saúde mental por meio de um design intencionalmente viciante. O caso da jovem identificada pelas iniciais K.G.M, hoje com 20 anos, é o primeiro de uma série de mais de 20 julgamentos-teste em Los Angeles, que reúnem mais de 1.600 autores contra corporações como Meta e YouTube.

O relato é o retrato sombrio de uma geração: fisgada antes dos 10 anos pelas redes, a menina desenvolveu compulsão por notificações, o que culminou em depressão, ansiedade e transtornos mentais. O que é questionado não é a falha na moderação de conteúdos, mas a própria arquitetura dos aplicativos e plataformas, classificada como “intencionalmente viciante”, especialmente, durante a infância, momento de inúmeras vulnerabilidades e de necessidade de cuidado com a saúde mental e proteção integral, pois estão em pleno desenvolvimento biopsicossocial (Andrade, Jaborandy e Vieira de Carvalho, 2025, p. 115).

No Brasil, esse litígio aterrissa no momento exato em que o país inaugura um novo paradigma regulatório, com entrada em vigor em 18 de março deste ano. O ECA Digital (Brasil, 2025) inaugura um novo arcabouço normativo de proteção e responsabilidades, rechaçando a tese de que plataformas são “intermediários neutros”, transpondo para o ecossistema algorítmico a força normativa da proteção integral, insculpida no artigo 227 da Constituição.

Blindagem contra responsabilidade civil

Historicamente, as plataformas digitais blindaram-se contra a responsabilização civil utilizando a premissa de que são meras “hospedeiras” — seja invocando a Seção 230 da Communications Decency Act nos EUA, seja o artigo 19 do Marco Civil da Internet no Brasil (Brasil, 2014). Ocorre que o atual modelo de negócios, fundado na “economia da atenção” (WU, 2016) e no “capitalismo de vigilância” (Zuboff, 2021), tem fragilizado essa narrativa, e sua adequação tem se tornado imperioso.

Como aponta Frazão (2019), tudo o que acontece no espaço das redes sociais é resultado de decisões corporativas sobre design, priorização de dados e filtros de informação. Funcionalidades como a rolagem infinita (infinite scroll), reprodução automática (autoplay) e recompensas variáveis intermitentes não são acidentes de percurso. São mecanismos de engenharia comportamental desenhados para explorar vulnerabilidades cognitivas e maximizar o tempo de tela.

A falácia da neutralidade das plataformas e dos algoritmos parece ter, enfim, uma resistência à altura, somando-se aos esforços de pessoas que há mais de década pugnam por transparência e compromisso coletivo. A matemática estadunidense Cathy O’Neil (2021) tem explicado que a lógica algorítmica parte sempre das prioridades de seus criadores, que moldam essas ferramentas aos seus objetivos e propósitos.

Sob a ótica do direito do consumidor (Brasil, 1990) e do ECA Digital, um algoritmo programado para reter a atenção de uma criança à custa de sua saúde mental atua como um verdadeiro produto defeituoso. Trata-se de um claro vício de segurança e concepção. A plataforma deixa de ser uma vitrine passiva e passa a responder pelas decisões ativas de sua curadoria automatizada, atraindo para si a responsabilidade pelos danos gerados (Cavalieri Filho, 2014).

Proteção infantojuvenil

No direito brasileiro, a responsabilidade pela proteção infantojuvenil não é exclusiva da família, mas compartilhada com o Estado, a sociedade e as plataformas, por força do artigo 227 da Constituição (Brasil, 1988). Assim, a retórica defensiva das empresas de tecnologia que costumam transferir o ônus da proteção integral exclusivamente para o núcleo familiar, evocando um suposto “dever de vigilância” exclusivo dos pais ou responsáveis, em uma tentativa de afastar o nexo de causalidade, cai por terra.

Na trilha desse pensamento, o ECA Digital alinha-se ao Comentário Geral nº 25 do Comitê dos Direitos da Criança da ONU, que estabelece que o ambiente digital deve ser desenhado para respeitar os direitos da infância, e não apenas policiado pelas famílias (ONU, 2021). Se a arquitetura da plataforma fomenta a dependência e dificulta o controle parental, utilizando-se, por exemplo, de dark patterns (padrões obscuros de design) ou falhas sistêmicas na verificação de idade, a plataforma incorre em quebra direta do seu dever geral de cuidado (Frazão, 2021), e, por conseguinte, deve ser responsabilizada.

O coração do ECA Digital reside, portanto, na superação do modelo puramente reativo (Ex.: apagar conteúdos nocivos após a denúncia) para a imposição de uma obrigação proativa estrutural. A lei introduz o critério do acesso provável (likely to be accessed). Isso significa que cláusulas de Termos de Uso afirmando que o serviço “não é para menores de 13 anos” perdem sua validade exoneratória se, na prática, o produto possui apelo infantil.

Ambiente digital com privacidade e segurança

A mera autodeclaração de idade cede espaço à exigência de mecanismos rigorosos de aferição etária, que significa adequar a experiência de uso da internet à idade do usuário, incorporando a matriz do Privacy by Design (Cavoukian, 2009) e do Safety by Default. Pela nova regra, o ambiente digital deve ser entregue à criança com as configurações de privacidade e segurança ativadas de fábrica. É importante esclarecer que, atualmente, existem tecnologias que permitem a identificação de que se trata de uma criança ou um adolescente, sem que se precise ter dados específicos desse usuário, como sua data de nascimento, superando o discurso falacioso de que para afirmar qual a faixa etária do usuário seria obrigatório dispor de dados sensíveis dos mesmos.

Na verdade, a lei ataca a força motriz financeira desse ecossistema ao vedar categoricamente o uso de dados sensíveis infantis para perfilamento comportamental e publicidade microdirecionada.

Por certo, a inovação tecnológica não é uma carta de alforria contra a dignidade das crianças e adolescentes, neste contexto digital de hipervulnerabilidade. O que a Justiça americana começa a escrutinar, a partir do sofrimento individual da jovem K.G.M., a legislação brasileira institucionalizou com o ECA Digital, uma vez que as plataformas detêm o dever de cuidado de antever, auditar e mitigar os riscos sistêmicos inerentes à sua própria arquitetura.

A mensagem ao mercado é indelével: o código de programação deve conter, desde a sua gênese, o imperativo da proteção integral e esta deve ser prioridade absoluta. Cabe também, à sociedade e ao poder público, o compromisso e a responsabilidade, diante dos desafios de se efetivar, na prática, a devida proteção às infâncias e juventudes no contexto digital.

______________________________________

Referências

ANDRADE, Denise Almeida de; JABORANDY, Clara Cardoso Machado; CARVALHO, Grasielle Borges Vieira de. Neurodesenvolvimento e colonialidade digital: hipervulnerabilidade infantil a relevância dos neurodireitos na América Latina. In: Neurodireito em América Latina: vulnerabilidade e interseccionalidade. Porto Alegre: Livraria do Advogado, 2025.

BRASIL. Constituição da República Federativa do Brasil de 1988. Brasília, DF: Presidência da República, 1988.

BRASIL. Lei nº 8.078, de 11 de setembro de 1990 (Código de Defesa do Consumidor). Brasília, DF: Presidência da República, 1990.

BRASIL. Lei nº 12.965, de 23 de abril de 2014 (Marco Civil da Internet). Brasília, DF: Presidência da República, 2014.

BRASIL. Lei nº 15.211, de 17 de setembro de 2025 (Estatuto Digital da Criança e do Adolescente). Brasília, DF: Presidência da República, 2025.

CAVALIERI FILHO, Sergio. Programa de responsabilidade civil. 11. ed. São Paulo: Atlas, 2014.

CAVOUKIAN, Ann. Privacy by Design: The 7 Foundational Principles. Information and Privacy Commissioner of Ontario, 2009. Disponível aqui.

FRAZÃO, Ana. Plataformas digitais, Big Data e riscos para os direitos de personalidade. In: TEPEDINO, Gustavo; MENEZES, Joyciane Bezerra (coord.). Autonomia privada, liberdade existencial e direitos fundamentais. Belo Horizonte: Fórum, 2019.

FRAZÃO, Ana. Dever geral de cuidado das plataformas diante de crianças e adolescentes. São Paulo: Instituto Alana, 2021. Disponível aqui.

KONDER, Carlos Nelson; KONDER, Cíntia Muniz de Souza. Da vulnerabilidade à hipervulnerabilidade: exame crítico de uma trajetória de generalização. Interesse Público, Belo Horizonte, v.23, n.127, maio/jun. 2021. Disponível aqui.

O’NEIL, Cathy. Algoritmos de destruição em massa [recurso eletrônico]: Como o Big Data aumenta a desigualdade e ameaça à democracia. Tradução: Raphael Abraham. Santo André: Editora Rua do Sabão, 2021.

ORGANIZAÇÃO DAS NAÇÕES UNIDAS (ONU). Comentário Geral N° 25 sobre os Direitos das Crianças em relação ao ambiente digital. Genebra: Comitê dos Direitos da Criança, 2021.

WU, Tim. The Attention Merchants: The Epic Scramble to Get Inside Our Heads. New York: Knopf, 2016.

ZUBOFF, Shoshana. A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira de poder. Rio de Janeiro: Intrínseca, 2021.

  • Clara Machado é advogada especialista em Direito Digital, doutora e mestre em Direito pela Universidade Federal da Bahia e docente e pesquisadora na área de Direito, Tecnologia e Inovação.
  • Denise Andrade é doutora e mestre em Direito Constitucional pela Universidade Federal do Ceará, pós-doutora em Direito Político e Econômico pela Universidade Presbiteriana Mackenzie em São Paulo/SP, pós-doutoranda em Direito Público pela UFC (Capes) e docente e pesquisadora na área de Direitos Humanos, Igualdade de Gênero, Democracia e Gestão de Conflitos.
  • Grasielle Vieira é advogada, doutora em Direito pela Universidade Presbiteriana Mackenzie, mestre em Direito Penal pela Pontifícia Universidade Católica de São Paulo e docente e pesquisadora com atuação na área de Violência Doméstica e Políticas Públicas de Proteção de mulheres, crianças e adolescentes.