A busca pela eficiência no Poder Judiciário brasileiro encontrou na inteligência artificial (IA) sua grande aliada. Diante de um volume processual que desafia a capacidade humana de gestão, a automação promete celeridade e padronização. Contudo, essa inserção tecnológica não é asséptica, ela carrega riscos profundos de reprodução de desigualdades. É nesse cenário de tensão entre a modernização necessária e o perigo da injustiça automatizada que surge a Resolução nº 615/2025 do Conselho Nacional de Justiça (CNJ).
O novo normativo, que revoga a pioneira Resolução nº 332/2020, representa uma atualização indispensável frente ao boom da IA Generativa e dos Grandes Modelos de Linguagem (LLMs). Todavia, uma análise crítica do texto revela que, embora o CNJ tenha acertado ao traçar “linhas vermelhas” éticas, acabou por deixar portas entreabertas em quesitos cruciais como transparência, governança de dados e diversidade das equipes técnicas. Se a promessa é a eficiência, o risco, infelizmente, ainda é a discriminação sob a aparência de neutralidade.

Desmistificação da neutralidade algorítmica
O ponto de partida para compreender a importância da Resolução 615/2025 é o reconhecimento institucional de que algoritmos não são neutros. A literatura especializada alerta há tempos que a discriminação algorítmica consiste na produção de resultados desiguais e injustos para determinados grupos sociais, raciais ou de gênero, muitas vezes amplificando preconceitos presentes nos dados de treinamento.
O CNJ incorporou essa premissa ao definir expressamente, no artigo 4º, inciso XIII, o “viés discriminatório ilegal ou abusivo”. A norma o descreve como o “resultado indevidamente discriminatório que cria, reproduz ou reforça preconceitos ou tendências, derivados ou não dos dados ou seu treinamento”.
Essa definição é um avanço dogmático. Ao focar no resultado discriminatório e não na intenção do programador, a norma desmantela a defesa comum de que a máquina seria imparcial, obrigando os tribunais a monitorarem ativamente a produção de injustiças. A tecnologia, portanto, deixa de ser vista apenas como ferramenta de suporte e passa a ser encarada como um agente capaz de impactar direitos fundamentais.
‘Linhas vermelhas’: o que o Judiciário não pode fazer
Para mitigar os riscos mais graves, a resolução estabelece, em seu artigo 10, vedações categóricas ao desenvolvimento e uso de certas soluções de IA, classificando-as como de “risco excessivo”. Essas proibições funcionam como um firewall ético contra distopias judiciais.
Entre as vedações mais significativas está a proibição de sistemas que “valorem traços de personalidade, características ou comportamentos” para prever a probabilidade de reincidência criminal ou cometimento de crimes. Essa medida blinda o processo penal brasileiro contra ferramentas de risk assessment (avaliação de risco) baseadas em perfis, que em outras jurisdições têm servido para aprofundar o encarceramento em massa de populações vulneráveis.
Igualmente relevante é a vedação a sistemas que utilizem reconhecimento de padrões biométricos para o “reconhecimento de emoções”. A pseudociência de inferir estados internos ou intenções criminosas a partir de microexpressões faciais é rechaçada, garantindo que a dignidade da pessoa humana prevaleça sobre o fetiche tecnológico.
Além disso, a norma veda o ranqueamento de pessoas com base em situação social ou atributos de personalidade para avaliar a “plausibilidade de seus direitos” ou méritos judiciais. Tais dispositivos asseguram que a IA não se torne um instrumento de engenharia social ou de discriminação econômica automatizada dentro dos tribunais.
Institucionalização da ‘caixa-preta’
Se nas vedações o CNJ foi rigoroso, no quesito transparência a norma apresenta uma fragilidade preocupante. A transparência e a auditabilidade são princípios basilares para mitigar a opacidade inerente aos sistemas de IA, o chamado black box problem.
Contudo, o artigo 1º, § 2º da resolução introduz uma ressalva que pode comprometer a fiscalização efetiva. O dispositivo prevê que a auditoria e o monitoramento das soluções podem ser realizados “sem a obrigatoriedade de acesso irrestrito ao código-fonte”, sob a justificativa de tornar os sistemas auditáveis de forma “prática” e respeitar a propriedade intelectual.
Essa disposição cria uma zona de sombra. No Direito Digital, sabe-se que a análise exclusiva dos resultados externos é muitas vezes insuficiente para identificar vieses discriminatórios que estão “codificados” na lógica interna da ferramenta ou no peso atribuído a certas variáveis. Ao proteger o segredo de negócio de desenvolvedores privados em detrimento da transparência total de uma ferramenta que auxilia decisões judiciais, a resolução enfraquece o princípio da explicabilidade (artigo 3º, II).
Como garantir a ampla defesa e o contraditório (artigo 3º, V) se a parte afetada por uma sugestão algorítmica não pode auditar plenamente a lógica que a produziu? A “contestabilidade” (artigo 4º, XIX) torna-se um conceito vazio se o funcionamento interno da ferramenta permanecer inacessível.
Diversidade como item dispensável
Outro ponto reside na governança das equipes de desenvolvimento. O viés algorítmico não nasce apenas dos dados, mas também da visão de mundo limitada de quem projeta os sistemas. Reconhecendo isso, o Artigo 35 determina que a composição das equipes deve ser orientada pela busca da diversidade, com ênfase na inclusão de diferentes perfis de gênero, etnia e pessoas com deficiência.
Entretanto, o parágrafo 2º do mesmo artigo relativiza essa obrigação de forma alarmante. O texto permite que a diversidade seja dispensada mediante decisão fundamentada, caso haja “ausência de profissionais no quadro” ou “necessidade de garantir eficácia e a velocidade na implementação das soluções a curto prazo”, e aqui reside o perigo.
Essa exceção trata a diversidade como um requisito acessório, sacrificável no altar da celeridade. A inclusão de múltiplos olhares é uma das medidas mais eficazes de compliance ético e mitigação de vieses cognitivos. Ao permitir que a pressa se sobreponha à pluralidade, a norma autoriza que sistemas sejam desenvolvidos por grupos homogêneos, aumentando exponencialmente o risco de que preconceitos estruturais sejam invisibilizados e perpetuados pelo código. A eficiência a curto prazo não pode custar o preço da justiça a longo prazo.
Brecha dos dados e IA Generativa
A justiça dos resultados de uma IA é indissociável da qualidade dos dados que a alimentam (o princípio garbage in, garbage out). A resolução acerta ao exigir curadoria de dados, mas falha ao determinar que as fontes sejam apenas “preferencialmente governamentais” (artigo 2º, IX).
O uso do termo “preferencialmente” abre caminho para a contratação de bases de dados privadas, repletas de vieses socioeconômicos. A importação acrítica dessas bases para o ambiente judiciário pode contaminar a representatividade dos dados (artigo 7º, §1º) e distorcer a equidade das decisões.
Ademais, a resolução enfrenta o desafio das IAs Generativas (como o ChatGPT). O artigo 19 permite seu uso como ferramenta de auxílio, vedando, corretamente, sua utilização como “instrumento autônomo de tomada de decisões” sem revisão humana. Contudo, a norma exige capacitação contínua (artigo 3º, VIII) sem detalhar mecanismos técnicos robustos que garantam que essa “supervisão humana” não se torne uma mera validação burocrática de alucinações algorítmicas ou sugestões enviesadas.
Classificação de riscos: teoria e prática
É importante destacar o Anexo de Classificação de Riscos da Resolução, que tenta organizar esse cenário complexo. O CNJ classifica como “Alto Risco” (AR) atividades sensíveis como a identificação de perfis comportamentais (AR1) e a aferição de provas (AR2).
Essa categorização impõe, em tese, a necessidade de avaliação de impacto algorítmico (Art. 14) e monitoramento contínuo. No entanto, a eficácia dessas salvaguardas dependerá da capacidade técnica dos tribunais de realizarem tais avaliações com rigor, especialmente diante da limitação de acesso ao código-fonte mencionada anteriormente. Se a auditoria for superficial, a classificação de “alto risco” servirá apenas como um alerta burocrático, sem impedir danos reais aos jurisdicionados.
Por outro lado, atividades de “Baixo Risco” (BR), como a transcrição de audiências (BR7) e a anonimização de documentos (BR8), são incentivadas para promover a eficiência operacional. O desafio será garantir que a fronteira entre o suporte operacional e a influência decisória não se torne difusa na prática diária dos gabinetes.
Conclusão
A Resolução CNJ nº 615/2025 é, sem dúvida, um marco regulatório que coloca o Brasil na vanguarda da discussão sobre IA no Judiciário. Ao reconhecer o viés, proibir usos abusivos e estabelecer governança, o CNJ demonstra estar atento aos perigos da “tecnosolução”.
Contudo, as lacunas identificadas são fissuras na estrutura de proteção aos direitos fundamentais. A promessa de eficiência não pode se transformar em um canal de reprodução de desigualdades históricas sob a aparência de modernidade.
Para que a Justiça 4.0 seja, de fato, justa, é imperativo que os tribunais, ao aplicarem a resolução, interpretem suas exceções de forma restritiva. A tecnologia deve ser transparente, as equipes devem ser plurais e a supervisão humana deve ser qualificada e crítica. Do contrário, correremos o risco de automatizar não a justiça, mas a injustiça.
Créditos: Conjur
Bibliografia
CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução nº 615, de 11 de março de 2025. Estabelece diretrizes para o desenvolvimento, utilização e governança de soluções desenvolvidas com recursos de inteligência artificial no Poder Judiciário. Diário da Justiça Eletrônico, Brasília, DF, 12 mar. 2025.
ALMEIDA, Marcelo Pereira de; MEBUS, Rafaela. Entre Viéses e Imparcialidade: O diálogo entre juízes e sistemas de IA nas decisões judiciais. In: Aspectos Comtemporâneos dos Direitos Humanos Fundamentais – Volume 1: Primeira Dimensão dos Direitos Humanos, Curitiba/PR, 2025.
ALMEIDA, Marcelo Pereira de; MEBUS, Rafaela. Implicações da implentação da Inteligência Artificial nas decisões judicias. In: VII Seminário Interinstitucional e Internacional para a efetivação dos Direitos Humanos na Contemporaneidade – Democracia, Litígios Complexos, Avanços Tecnológicos e Inteligência Artificial. Rio de Janeiro/RJ, 2024.
BARREA, Adriana; SALMORIA, Camila Henning; RODRIGUES, Francisco Luciano Lima. Inteligência Artificial – IA: reflexões sobe sua utilização pelo Poder Judiciário. In: Revista Judiciária Brasileiro. ReJuB, 2023.
BERNSTS, Luísa Giuliani; ELSNER, Larrisa de Oliveira. Diferentes questões jurídicas a partir da Crítica Hermenêutica do Direito. In: Capes. Editora Fundação Fênix, 2022.
BICHARA, Anderson de Andrade; BRITO, Fabiana Amaro de. Desafios Éticos ao uso da Inteligência Artificial nos sistemas de justiça criminal. In: Boletim Instituto Brasileiro de Ciências Criminais, 2024.
BONAT, Débora; VALE, Luís Manoel Borges do. Inteligência Artificial Generativa e a Fundamentação da Decisão Judicial. In: Revistas dos tribunais Online. Thompson Reuters, 2023.
CARVALHO, Mario Cesar. Ganhador do Nobel tem visão catastrofista da inteligência artificial. In: Poder 360°. Disponível aqui.
CASTILHO, Ana Flávia de Andrade Nogueira; ALONSO, Ricardo Pinha; SILVA, Nelson Finotti. Princípio da Imparcialidade do Juiz: Conflitos com os Processos Mentais Humanos. In: Revista Eletrônica do Curso de Direito. Universidade Federal de Santa Maria, 2018.
Consultor Jurídico. Resolução 615 do CNJ: vedação de valoração de risco sobre indivíduos é decisão acertada. Disponível aqui.
JORNAL NACIONAL. Dois cientistas que criaram as bases da inteligência artificial ganham o Prêmio Nobel de Física. In: Jornal Nacional. Disponível aqui.
JUNIOR, Israel Nonato da Silva. O selo de inteligência artificial nas decisões judiciais. In: Consultor Jurídico. Disponível aqui.
JUNIOR, Orlando Luiz Zanon; BRANCO, Matheus de Andrade; SILVA, Pollyana Maria da. Inteligência Artificial e Viéses Morais na Tomada de Decisão. In: Revista da AGU. Brasília/DF, 2025.
MELLO, Victor Habib Lantyer de Mello. A gênese e a persistência da alucinação em Inteligência Artificial. In: Migalhas. Disponível aqui.
PEREIRA, Ana Carolina de Souza, BRUNO, Ana Luisa Brêtas, AZEVEDO, Ariane Meirelles de; PINHEIRO, Caroline da Rosa; CAMPOS, Lívia Melo Honorato;
PODER 360°. Nobel de Física vai para estudos sobre aprendizado de máquina. In: Poder 360°. Disponível aqui.
STRECK, Lenio Luiz; JUNG, Luã Nogueira. Hermenêutica e Inteligência Artificial: por uma alternativa paradigmática ao imaginário técnico. In: Revista Dieito Público. Brasília: IDP, 2024.