Créditos: Conjur
A tentativa de simplificar, ao extremo, o processo de aplicação do Direito não é recente e envolve um certo alheamento hermenêutico, cujos termos desconsideram a complexa arquitetura social, que é objeto de regulação pelo ordenamento jurídico.
Ao regressar à França revolucionária, no século 18, percebe-se que a limitação imposta ao Poder Judiciário, que restringia a atividade de julgamento à mera replicação dos textos legais [1], ocasionou não apenas uma crise de efetividade, mas ergueu paredes invisíveis refratárias à própria evolução do pensamento jurídico.
O juiz era um mera boca da lei (bouche de la loi), expurgando-se, assim, qualquer arranjo de criatividade, que, porventura, viesse a violar o tônus pulsante da democracia espelhada nos textos legais. [2]
Esses arranjos decisórios marcadamente silogísticos transformavam o magistrado em um julgador autômato e alheio, em certa medida, às eventuais nuances do caso concreto, que poderiam exigir um passo interpretativo para além das simples amarras dos enunciados linguísticos contidos nos dispositivos legais.
A ideia de suficiência da lei acobertava a falácia de que seria possível esgotar as múltiplas configurações da realidade fática subjacente. Por certo, nem o catálogo legal mais extenso de hipóteses de incidência seria hábil a aportar soluções para o mosaico de contextos situacionais apresentado, diuturnamente, ao Poder Judiciário.

Nessa ordem de ideias, as amarras impostas aos julgadores erguiam obstáculos à deliberação acertada de questões jurídicas, com destaque para a apreciação dos tradicionalmente nominados “casos difíceis” (hard cases), que desafiam o magistrado a considerar as inúmeras variáveis de um sistema jurídico, de tal modo que a acoplagem subsuntiva é via insuficiente para a concretização de um julgamento justo, équo, proporcional e razoável.
Abandona-se, portanto, a icônica figura do juiz boca da lei, como via de resposta, inclusive, às demandas sociais, que exigiam dos órgãos julgadores um perfil criativo, pois a separação entre texto e norma evidencia que os magistrados têm o papel de adscrever sentido aos enunciados normativos.
Esse passado, de alguma forma, está a nos revisitar, em decorrência da vigente arquitetura do ecossistema de justiça, que se encontra baseada no uso de novas tecnologias de propósito geral, a exemplo da inteligência artificial, blockchain, internet das coisas (IoT) e computação quântica.
A inteligência artificial generativa, que permite a criação de conteúdo “novo”, tal como um texto, uma imagem, um áudio, um vídeo, dados sintéticos e códigos de programação, bem como os agentes de inteligência artificial [3] e a inteligência artificial agêntica [4], têm servido como suporte para a tomada de decisões, no âmbito do Poder Judiciário, em uma era de verdadeira atuação sinérgica entre o ser humano e o sistema computacional inteligente, nos termos do que se encontra regulado na Resolução nº 615/2025 [5], do Conselho Nacional de Justiça.
Não é possível considerar, no cenário acima descrito, que as ferramentas de inteligência artificial são meros apêndices no articulado decisório. Apesar de figurarem como tecnologias de suporte à tomada de decisão, uma vez que, de acordo com os parâmetros constitucionais e infraconstitucionais vigentes, não é possível a substituição completa de um magistrado por um sistema de inteligência artificial, essas soluções computacionais ajudam a projetar, como sublinhado acima, um novo design de resolução de conflitos, através do qual o órgão julgador busca maximizar sua capacidade cognitiva.
As afirmações acima destacadas possuem chancela empírica, em consonância com o que se identifica na pesquisa realizada pelo Conselho Nacional de Justiça, intitulada “O uso da Inteligência Artificial Generativa no Poder Judiciário”. No levantamento aludido, verificou-se que 49,4% dos magistrados entrevistados já se valem de solução de IA Generativa para o desempenho de suas atribuições funcionais.
Ocorre que o uso de ferramentas dessa natureza pressupõe cautelas e salvaguardas necessárias à tutela de direitos e garantias fundamentais. Com efeito, é imprescindível compreender que os seguintes riscos são recorrentes:
a) base de dados limitada, o que implica na apresentação de resultados desatualizados ou descontextualizados;
b) ocorrência de vieses discriminatórios, dos quais podem derivar exclusões de grupos vulneráveis, a exemplo de mulheres, indígenas e pessoas negras;
c) identificação das nominadas alucinações maquínicas, cuja compreensão envolve a ideia de que ferramentas de inteligência artificial generativa, por trabalharem com juízo probabilístico, podem apresentar respostas completamente destoantes da realidade (exemplos: criação de precedentes inexistentes ou alteração de conteúdo de dispositivos legais); e
d) violação ao direito fundamental à proteção de dados pessoais e ao dever de sigilo de certas informações, considerando não apenas a falta de letramento digital de certos usuários, mas a ausência de uma infraestrutura de tecnológica baseada no resguardo da privacidade.
Nessa linha de intelecção, a supervisão técnica do julgador, em relação aos conteúdos gestados por ferramentas de inteligência artificial, é impositiva e exsurge como consectário natural do devido processo legal tecnológico, pois inexiste tutela jurisdicional justa e efetiva quando, no bojo de um ecossistema de justiça digital, o controle dos sistemas computacionais inteligentes utilizados como medida de apoio à tomada de decisão é meramente simbólico ou superficial.
Infelizmente, não é incomum que a fundamentação de pronunciamentos jurisdicionais apresente marcas da alucinação maquínica, diante da inserção, por exemplo, de precedentes inexistentes ou de dispositivos legais com conteúdo destoante do diploma normativo. O TJ-RS (Tribunal de Justiça do Rio Grande do Sul), na Apelação Cível nº 5000328-52.2020.8.21.0010/RS, anulou sentença produzida com o apoio de inteligência artificial generativa, na qual constavam, expressamente, casos de alucinação.
O TJ-RS, no processo acima referenciado, sublinhou que a sentença violava os deveres de fundamentação adequada, que se encontram previstos no artigo 93, IX, da Constituição, e no artigo 489, §1º, do Código de Processo Civil.
Situações como a que fora relatada em linhas pretéritas conduzem, inevitavelmente, o jurisdicionado a se perguntar: o juiz boca da lei de outrora agora será o juiz boca da inteligência artificial?
O questionamento não é retórico, nem, tampouco, despiciendo. Afinal de contas, em pesquisa publicada, em janeiro de 2026, pelos professores Steven D. Shaw e Gideon Nave, ambos da Universidade da Pensilvânia, constatou-se que, em 73,2% das vezes, usuários de soluções de inteligência artificial generativa se sentiam confortáveis com respostas equivocadas, de tal modo que não se prontificavam a realizar uma supervisão técnica mais acurada do conteúdo advindo do sistema computacional inteligente [6]. Esse fenômeno foi nominado de “rendição cognitiva” e demonstra o risco da utilização acrítica de ferramentas de IA generativa.
Crise de legitimidade institucional
A constatação dessa fenomenologia no Poder Judiciário pode conduzir a uma crise de legitimidade institucional e de efetividade das decisões, tendo em vista que, na prática, estar-se-ia a transferir a capacidade de análise técnica aprofundada, através de uma supervisão humana real, aos sistemas de IA generativa, contrariando não apenas a Constituição e a legislação infraconstitucional, mas a própria resolução do Conselho Nacional de Justiça, que se propõe a regular esse tipo de tecnologia (Resolução nº 615/2025) [7].
Render-se cognitivamente aos sistemas computacionais inteligentes é o mesmo que esmaecer a capacidade de aferição crítica dos resultados gerados por essas ferramentas tecnológicas, elevando, assim, o risco de se produzirem decisões em descompasso com o ordenamento jurídico.
O juiz não pode se transformar em boca da inteligência artificial, chancelando os seus conteúdos, sem que exista uma verificação detalhada do texto que promana de uma solução tecnológica dessa envergadura, a qual, como visto outrora, possui as suas limitações operacionais.
É preciso rememorar que as ferramentas de inteligência artificial generativa são vias possíveis de aperfeiçoamento da sistemática decisória, na medida em permitem análise de eventuais incongruências argumentativas expostas nos autos, aprimoramento estilístico de textos, elaboração de minutas, gerenciamento de padrões decisórios vinculantes, para fins de aplicação em casos análogos, e sumarização processual, com o objetivo de facilitar a elaboração do relatório.
Todavia, os magistrados não podem se tornar meros replicadores daquilo que advém da inteligência artificial generativa, pois é o seu agir técnico, vertical e crítico, que densifica a supervisão humana exigida pela legislação de regência.
Se mergulharmos em um universo de rendição cognitiva no Poder Judiciário, correremos o sério risco de transformarmos os julgadores em bocas da inteligência artificial, corroborando, assim, com todas as suas vicissitudes e ceifando, no âmago, a cláusula geral do devido processo legal tecnológico.
_______________________________________
[1] A desconfiança em relação às autoridades julgadoras derivava dos seus malsinados vínculos aristocráticos, de tal modo que a limitação dos poderes dos magistrados, especialmente através de sua adstrição exclusiva aos textos legais, era uma forma de garantir a verdadeira força libertária popular, que estaria refletida no trabalho desempenhado pelo Poder Legislativo.
[2] A concepção em comento é atribuída a Montesquieu, que afirmou: “os juízes da nação são apenas (…) a boca que pronuncia as palavras da lei”. MONTESQUIEU, Charles de Secondat, Baron de. O espírito das leis, 3ª edição, São Paulo: Martins Fontes, 2005, p. 175.
[3] “Os Agentes de IA podem ser definidos como entidades de software autônomas, projetadas para a execução de tarefas orientadas a objetivos em ambientes digitais delimitados. Esses agentes se caracterizam pela capacidade de perceber entradas estruturadas ou não estruturadas, de raciocinar sobre informações contextuais [49], [50] e de desencadear ações voltadas ao alcance de objetivos específicos, atuando frequentemente como substitutos de usuários humanos ou de subsistemas.” (Sapkota et al. AI Agents vs. Agentic AI. 2025. Disponível aqui)
[4] “Os sistemas de IA Agêntica representam uma classe emergente de arquiteturas inteligentes nas quais múltiplos agentes especializados colaboram para alcançar objetivos complexos e de alto nível, valendo-se de raciocínio colaborativo e planejamento em múltiplas etapas. Conforme definido em frameworks recentes, esses sistemas são compostos por agentes modulares, cada qual responsável por um subcomponente distinto de um objetivo mais amplo, coordenados por meio de um orquestrador centralizado ou de um protocolo descentralizado.” (Sapkota et al. AI Agents vs. Agentic AI. 2025. Disponível aqui)
[5] O presente ato normativo do Conselho Nacional de Justiça estabelece diretrizes para o desenvolvimento, utilização e governança de soluções desenvolvidas com recursos de inteligência artificial no Poder Judiciário.
[6] Shaw, Steven D and Nave, Gideon, Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender (January 11, 2026). https://doi.org/10.31234/osf.io/yk25n_v1, The Wharton School Research Paper , Available at SSRN: aqui.
[7] Art. 33. Os usuários externos deverão ser informados, de maneira clara, acessível e objetiva, sobre a utilização de sistemas baseados em IA nos serviços que lhes forem prestados, devendo ser empregada linguagem simples, que possibilite a fácil compreensão por parte de pessoas não especializadas. § 1º A informação prevista no caput deste artigo deverá destacar o caráter consultivo e não vinculante da proposta de solução apresentada pela inteligência artificial, a qual sempre será submetida à análise e decisão final de uma autoridade competente, que exercerá a supervisão humana sobre o caso. (Grifos nossos)
- Luís Manoel Borges do Vale é procurador de Alagoas (chefe do Centro de Estudos), membro do Tribunal Administrativo de Tributos Estaduais, sócio do Rafael Oliveira Advogados Associados, nomeado procurador federal, ex-Advogado da Petrobras, presidente da Comissão de IA aplicada à Advocacia Pública, membro da Comissão do Código de Processo Civil do Conselho Federal da OAB, doutor pela UnB, mestre em Direito Processual pela Universidade Federal de Alagoas, especialista pela Ohio University, professor de Direito Processual Civil na Escola Superior da Magistratura de Alagoas (Esmal), na de Goiás, em Mato Grosso do Sul e na Escola da Advocacia Geral da União – Eagu, na Uerj, membro da Internacional Association of Privacy Professionals (Iapp), do IBDP (Instituto Brasileiro de Direito Processual) e da Associação Norte e Nordeste de Professores de Processo (Annep), revisor da Revista Eletrônica de Direito Processual.
- Rafael Carvalho Rezende Oliveira é professor titular de Direito Administrativo do Ibmec, visiting scholar pela Fordham University School of Law (EUA), pós-doutor pela Uerj e advogado.