Créditos: Conjur
Quando Sergio Cavalieri Filho ingressou na magistratura, a realidade tecnológica do Judiciário era radicalmente diferente. Em suas próprias palavras, em entrevista ao Jornal do Brasil: “Há 38 anos, não tínhamos, sequer, uma máquina de escrever. Comprei uma elétrica, que guardo em casa como relíquia. Na época, quem datilografava minhas sentenças era a Jóia, minha mulher. As audiências eram feitas com fichas em papéis, o andamento do processo contava com a memória dos escreventes” [1].
Anos depois, como presidente do Tribunal de Justiça (2005-2006), o mesmo Cavalieri liderou o projeto de informatização para todas as varas do interior, orgulhando-se de ter “completado a informatização do órgão, que permitiu grandes avanços. A justiça estadual está informatizada, de Paraty a Varre e Sai” [2].
Muitos de nós testemunhamos essa evolução — a passagem do processo físico para o processo eletrônico. No início, a informatização apenas facilitava o gerenciamento de informações básicas: distribuição, identificação das partes, registro de andamentos. Depois, vieram as publicações no Diário Eletrônico, até que finalmente o processo abandonou o papel para se tornar verdadeiramente eletrônico. Durante a pandemia de covid-19, essa transformação permitiu que o Judiciário e os Tribunais de Contas não parassem. Advogados, juízes e promotores podiam atuar remotamente, garantindo a continuidade da prestação jurisdicional mesmo em tempos de isolamento social.
A revolução da inteligência artificial leva tudo a um novo patamar. Até aqui, a informática trouxe as facilidades do processo eletrônico, permitindo uma ampliação enorme do acesso à Justiça. A promessa da IA, contudo, é muito maior. Os modelos de linguagem — os LLMs (large language models) — não serão meros processadores de dados. Eles poderão ser capazes de fazer verdadeiros juízos de valor sobre os casos, de modo a efetivamente aplicar o direito e resolver questões concretas — ainda que sob revisão humana.

Nova revolução industrial
Mas, afinal, o que é essa tecnologia? Segundo Jensen Huang, CEO da NVidia, a IA é o motor de uma nova revolução industrial, baseada não mais na força física, mas na geração de “tokens”: unidades mínimas de linguagem e conhecimento que alimentam máquinas capazes de perceber, planejar e agir. Em sua keynote de 2025, Huang explicou que vivemos uma transição da era da computação baseada em recuperação, aquela em que a máquina apenas busca uma resposta previamente armazenada, para uma era da geração, em que a IA produz novos conteúdos, raciocínios e até decisões com base em contextos variáveis [3].
A tecnologia é tão surpreendente que nem os seus próprios criadores são capazes de entendê-la completamente. Como explica editorial da Anthropic, empresa norte-americana líder do setor: “Modelos de linguagem como o Claude não são programados diretamente por humanos — em vez disso, são treinados com grandes volumes de dados. Durante esse processo, eles aprendem suas próprias estratégias para resolver problemas. Essas estratégias ficam codificadas nos bilhões de cálculos que o modelo realiza para cada palavra que escreve. Isso significa que não entendemos como os modelos fazem a maioria das coisas que fazem” [4].
Dito isso, a IA melhora ou piora a prestação jurisdicional? É a pergunta central que se impõe a quem pensa o futuro do Judiciário e da advocacia.
O caso otimista é forte. Os gabinetes dos juízes gastam uma parcela enorme do seu tempo com tarefas mecânicas e burocráticas: triagem de processos, classificação de peças, pesquisa de jurisprudência, elaboração de minutas padronizadas, conferência de prazos. São atividades que exigem atenção, mas não propriamente juízo — e é justamente nelas que o ser humano mais erra. Erros de digitação, esquecimentos, inconsistências entre a fundamentação e o dispositivo da sentença, citações equivocadas de precedentes: falhas tipicamente humanas que a IA pode reduzir drasticamente. Ao assumir essas tarefas, a IA liberaria juízes e assessores para se concentrarem no que realmente importa na essência do ato de julgar: a ponderação entre princípios, a interpretação do caso concreto, a atenção às peculiaridades que fazem de cada processo algo único. A Resolução CNJ nº 615, de março de 2025, já reconhece esse potencial ao estabelecer um marco regulatório para o uso de IA no Judiciário, permitindo que magistrados utilizem ferramentas de IA generativa como apoio, desde que sob supervisão humana e com vedação para conteúdos sigilosos ou aplicações de alto risco [5].
O caso pessimista, porém, é igualmente forte e talvez mais urgente. A Justiça brasileira já é massificada. O volume de processos é tamanho que, na prática, muitos casos recebem tratamento padronizado, com decisões reproduzidas em bloco e fundamentações genéricas que pouco dialogam com as especificidades do caso concreto. A IA corre o risco não de criar esse problema, mas de aprofundá-lo. Se o modelo aprende com milhares de decisões padronizadas, ele tende a replicar o padrão. O caso atípico, que justamente precisa de atenção judicial diferenciada, pode ser engolido pela média estatística. É o oposto do que a jurisdição deveria ser: cada caso tratado como único, cada parte ouvida em suas razões, cada decisão fundamentada para aquele litígio específico.
Há um risco concreto e já identificável. Um motor de IA treinado predominantemente com decisões de não admissão de recursos pode aprender a replicar esse padrão, operando com um viés de rejeição sistemática que prejudica a análise individualizada. A máquina aprende o que lhe ensinamos — e se lhe ensinamos a negar, ela nega.
Experimento restrito em tribunais
Como alerta Dierle Nunes, ainda predomina o uso experimental e restrito da IA nos tribunais, com projetos-piloto que nem sempre dialogam com as necessidades reais dos gabinetes. Muitos tribunais enfrentam dificuldades na contratação de infraestrutura tecnológica segura, além de uma lacuna na formação dos servidores para atuar com essas ferramentas. Há barreiras culturais, como o receio de que o uso de IA comprometa a autonomia dos juízes ou banalize a atividade jurisdicional. E há o risco de as ferramentas se tornarem “caixas-pretas” incompreensíveis até para seus próprios operadores, caso não se garanta transparência e auditabilidade [6].
Outro risco que merece atenção é o da dependência tecnológica. A maioria dos modelos mais avançados — como GPT, Claude ou Gemini — são estrangeiros, controlados por empresas privadas sediadas fora do Brasil. Isso levanta preocupações legítimas sobre soberania digital, privacidade dos dados processados e alinhamento entre os valores jurídicos brasileiros e os princípios embutidos nesses modelos. O desenvolvimento de LLMs nacionais não é um luxo, é uma necessidade estratégica.
Há, ainda, o desafio profundo que é o impacto da IA sobre o emprego e a estrutura funcional do setor público. Milhares de cargos técnicos — analistas, técnicos judiciários, auxiliares de auditoria — foram concebidos para um mundo em que o trabalho intelectual repetitivo era feito por seres humanos. Se a IA faz triagem, classificação, minutas, pesquisa de jurisprudência e conferência documental, o que sobra para o servidor que construiu sua carreira fazendo exatamente isso?
A questão não é apenas de requalificação profissional. É uma questão de modelo institucional. Concursos públicos, planos de cargos e carreiras, a própria estrutura organizacional dos tribunais — tudo foi pensado para absorver um volume de trabalho humano que a IA pode tornar parcialmente desnecessário. Sem um plano deliberado de transição, o avanço tecnológico pode gerar não apenas desemprego, mas desmobilização institucional e perda de conhecimento acumulado. Servidores experientes, com décadas de prática, podem se ver subitamente obsoletos — e com eles, a memória institucional que nenhum modelo de linguagem é capaz de replicar. O desafio será transformar essa transição em oportunidade de evolução funcional, e não em crise ocupacional.
Bom senso e raciocínio complexo: problemas da IA
O AI Index Report 2024, publicado pela Universidade de Stanford, reforça essa ambiguidade. Embora a IA já supere o desempenho humano em tarefas como classificação de imagens e compreensão textual, ela ainda falha em testes que envolvem raciocínio complexo, planejamento e, especialmente, bom senso e julgamento moral em contextos ambíguos [7]. Essa constatação é essencial: na aplicação do direito, os casos difíceis não são resolvidos por mera lógica formal, mas exigem precisamente o tipo de julgamento prudencial que esses modelos ainda não dominam. “Alucinações” — quando o modelo inventa fatos ou cita leis inexistentes — são particularmente perigosas nesse domínio.
A integração da IA aos sistemas de Justiça deve respeitar não apenas os limites tecnológicos, mas os valores fundamentais do Estado democrático de direito. A IA pode e deve ser uma aliada poderosa, desde que utilizada com responsabilidade, sob supervisão humana efetiva, com transparência, auditabilidade e plena consciência de suas limitações.
A jornada que começou com juízes usando máquinas de escrever e passou pela digitalização dos processos agora avança para uma era em que a própria decisão pode ser assistida por inteligência artificial. É uma transformação vertiginosa que ocorre em apenas algumas décadas.
Como disse Cavalieri ao Jornal do Brasil, “as audiências eram feitas com fichas em papéis, o andamento do processo contava com a memória dos escreventes. A informatização foi um grande passo. E a internet também, ajuda na transparência”. Ele já reconhecia, muito antes da era da IA, como a tecnologia poderia promover não apenas eficiência, mas valores fundamentais como a transparência judicial.
Se olharmos para trás, para o tempo em que Cavalieri guardava sua máquina de escrever elétrica “como relíquia”, perceberemos que a tecnologia avançou muito mais rapidamente do que nossa capacidade de refletir sobre suas implicações. À medida que avançamos na era da geração de conhecimento, talvez o maior desafio seja manter o equilíbrio: aproveitar o potencial da IA para tarefas repetitivas e certas análises, mesmo que complexas, liberando a inteligência humana para aquilo que ainda é exclusivamente nosso — o julgamento contextualizado, a empatia e a capacidade de inovação ética. Nessa nova fronteira, a tecnologia deve servir à justiça, nunca o contrário.
Como certa vez disse Vargas Llosa, “a incerteza é uma margarida cujas pétalas nunca acabam de desfolhar”. No melhor dos cenários da IA, tudo é dourado, funciona melhor e com menores custos. No pior, a relíquia seremos nós.
[1]Jornal do Brasil, 17.11.2009. Reproduzido em https://www.oabrj.org.br/noticias/apos-37-anos-magistratura-cavalieri-deixa-tribunal-justica.
[2]Idem.
[3]https://www.youtube.com/watch?v=_waPvOwL9Z8&t=4073s, acesso em 07.04.2025.
[4]https://www.anthropic.com/news/tracing-thoughts-language-model, acesso em 07.04.2025.
[5]Resolução CNJ nº 615, de 11 de março de 2025.
[6]NUNES, Dierle. “IA generativa no Judiciário brasileiro: realidade e alguns desafios”. Disponível em: https://www.conjur.com.br/2025-mar-10/ia-generativa-no-judiciario-brasileiro-realidade-e-alguns-desafios, acesso em 07.04.2025.
[7] STANFORD UNIVERSITY. AI Index Report 2024. Stanford, CA: Institute for Human-Centered AI, 2024. Disponível em: https://aiindex.stanford.edu.
- Rodrigo Jansen é procurador do Tribunal de Contas do Estado do Rio de Janeiro, advogado e mestre em Direito pela Uerj.