Créditos: Conjur

A aplicação da inteligência artificial (IA) generativa no direito, festejada como mecanismo de eficiência e produtividade, pode homogeneizar a linguagem e o raciocínio jurídico, interferir na evolução da jurisprudência e comprometer a confiança social com a possível delegação da autoridade judicial a sistemas tecnológicos.

As ferramentas de IA generativa estão sendo recebidas como uma solução de governança tecnológica para os problemas de escassez de recursos e sobrecarga de processos judiciais. Vistas como progresso inevitável, falta-lhes, contudo, um debate crítico diante da opacidade dos sistemas e da má compreensão de suas consequências.

Baseada em grandes modelos de linguagem (LLMs), a IA generativa tem a capacidade de reconhecer regularidades linguísticas aprendidas em conjunto massivos de textos e de produzir respostas por meio de padrões estatísticos associados ao contexto da pergunta formulada.

Os sistemas LLMs são capazes de gerar textos sofisticados, em linguagem natural e com elevado grau de fluidez discursiva, podendo moldar a forma como escrevemos, ao marginalizar os nossos traços individuais e assinaturas linguísticas, e como pensamos, ao articular processos de raciocínio fora da nossa mente individual.

Estudos recentes mostram que os LLMs, quando utilizados para melhorar a escrita, resultam textos complexos e dissociados das características do autor, com o uso, por exemplo, de “palavras difíceis de sete letras ou mais, que podem indicar complexidade intelectual e formalidade”, mas que enfraquecem a conexão com a experiência humana e autoral (Shourati, Ziabari e Dehghani, 2026).

Redução de criatividade e reflexão crítica

A preocupação não está apenas nessa modelagem da escrita e da fala, mas também no fato de que os LLMs, “redefinem sutilmente o que é considerado discurso credível”, aproximando-se do processo de “McDonaldização”, que visa à eficiência, previsibilidade e controle (Shourati, Ziabari e Dehghani, 2026), mas acaba por padronizar excessivamente, diminuir a criatividade e reflexão crítica e produzir decisões superficiais ou mecânicas.

Em recente pesquisa da Universidade da Pensilvânia, publicada pela BBC, verificou-se que mesmo os chatbots de IA mais avançados deram respostas erradas em 45% das vezes e os usuários eram propensos a aceitar tais respostas sem questionamento e sem consciência desse fenômeno, nomeado como “rendição cognitiva”. No experimento realizado com 359 pessoas, os participantes seguiram as recomendações corretas da IA em 92,7% dos casos e também seguiram a IA em 79,8% das vezes, mesmo quando ela estava errada.

A análise dos impactos do uso de LLMs por advogados, juízes e tribunais merece, portanto, uma reflexão mais aprofundada.

O raciocínio jurídico tem sido objeto de importantes escolas na tradição do direito, desde o raciocínio lógico-dedutivo (silogismo jurídico) até a teoria da argumentação (racional e persuasiva). Giovanni Sartor, referência na interface entre o direito e a IA, defende que o raciocínio jurídico pode ser apenas parcialmente formalizado e modelado em sistemas computacionais, diante de suas características, já que normas jurídicas admitem exceções, podem entrar em conflito e dependem de interpretação de princípios (Sartor, 1994).

Do outro lado dessa moeda, os sistemas LLMs são capazes de produzir respostas que não resultam da aplicação de estruturas formais do raciocínio jurídico, porquanto decorrem, conforme dito, de processos estatísticos de previsão da probabilidade de ocorrência de padrões linguísticos no discurso, treinados com dados não curados. Esses sistemas não têm compromisso com a apreensão genuína do significado jurídico e podem mascarar a reprodução de vieses e preconceitos próprios dos dados de treinamento (Bender et al., 2021), o que torna o problema particularmente sensível no campo jurídico, quando decisões dependem de elevado grau de confiabilidade.

Qualidade de decisões judiciais por IA

O que está em jogo, assim, não é apenas a diversidade da linguagem e do raciocínio, mas principalmente a qualidade das decisões judiciais assistidas por IA. Na pesquisa “Impacto da IA Generativa no Direito” (2026), publicada em março de 2026, verificou-se que 77% dos advogados já utilizam a IA generativa em suas rotinas profissionais e, dentre os utilizadores frequentes, 53% usam-na para criar documentos e peças jurídicas. No grupo dos entusiastas, 64% acreditam que tais ferramentas melhoram a qualidade dos documentos jurídicos produzidos ou revisados.

Significa dizer que mais da metade do uso da IA generativa por advogados são para a produção técnico-jurídica em sistemas sem formalização prévia do raciocínio jurídico, treinados para produzir discursos coerentes e altamente estilizados, conquanto desvinculados da assimilação do direito.

Plataformas para uso do Judiciário

Em 26 de março, o Conselho Nacional de Justiça (CNJ) lançou a plataforma Promptus, um banco de prompts do Poder Judiciário, desenvolvido em parceria com o Tribunal de Justiça do Pará (TJ-PA), que centraliza, organiza e facilita o “acesso a prompts eficazes, promovendo a produtividade, inovação e compartilhamento de conhecimento entre magistrados e servidores”. Com a intenção de “aumentar a assertividade” no uso da IA e “melhorar a qualidade das decisões judiciais”, o banco disponibiliza prompts já testados e possibilita o cadastramento de novos, que são avaliados pela própria comunidade de usuários (Manual do Usuário, 2026).

Iniciativa similar, a Prompteca, foi desenvolvida em 2024 pelo Tribunal Regional Federal da 6ª Região, uma biblioteca institucional de prompts voltada ao uso da IA generativa. Em sua versão mais recente, lançada em 19 de março de 2026, a ferramenta foi aprimorada, passando a incorporar novas funcionalidades e mecanismos de monitoramento das métricas de uso e reutilização de prompts.

A domesticação e padronização dos prompts busca endereçar o risco de alucinação, que gera inconsistências e erros conceituais em produções jurídicas. A medida aborda, ainda, os fenômenos da sensibilidade ao prompt (prompt sensitivity) — em que pequenas mudanças na entrada podem gerar grandes mudanças na saída — e da dependência de formulação (framing effect) — quando a resposta é fortemente influenciada pelo modo como a pergunta é formulada. Em paralelo, balanceia, minimamente, a lacuna de capacitação profissional na utilização das novas tecnologias. Atrai, contudo, um efeito perverso: a convergência coletiva do raciocínio jurídico.

Crescimento de IA generativa na Justiça

A Comissão Europeia para a Eficiência da Justiça, divulgou o 1º Relatório  do Conselho Consultivo sobre o uso de IA no Judiciário (2025), no qual aponta a tendência crescente do uso de sistemas de IA generativa em países não europeus, especialmente na América Latina, que enfrentam o dilema de utilizar nuvem de empresas norte-americanas e, assim, depender de LLMs treinados com dados proprietários. O mesmo relatório aponta exemplos considerados boas práticas de ferramentas de ciberjustiça, dentre as quais não se identifica nenhuma iniciativa similar ao banco de prompts institucionalizado pelo CNJ no Brasil.

A estratégia de condicionamento de prompts pode aumentar, em escala institucional, o efeito homogeneizador das gerações textuais mediadas por LLMs. Isso é especialmente crítico para o Judiciário, responsável por produzir o direito nos casos concretos e trabalhar com a progressão jurisprudencial. Nesse contexto, Karen Eltis alerta para o risco do “congelamento da jurisprudência em uma camisa de força” e de se “instalar, imperceptivelmente e provavelmente de forma institucional, uma abordagem do direito que exclui soluções criativas, contextuais e progressivas que não estejam alinhadas com a previsibilidade visada pelos algoritmos”. Para a autora, “o algoritmo visa à precisão, à conformidade com o passado” (Eltis, 2024), contudo a jurisprudência caminha para frente e a inovação é necessária à justiça das decisões.

Em 2026, 43% dos brasileiros declararam não confiar no Supremo Tribunal Federal, o maior índice desde o início da série histórica em 2012, o que evidencia a fragilização da confiança no sistema de justiça brasileiro (Datafolha, 2026). Esse cenário tende a se agravar com o uso de sistemas de IA que possam implicar “transferência de autoridade” do julgador para as tecnologias de IA generativa..

A esse respeito, a relatora especial da ONU, Margaret Satterthwaite, alerta que o uso de IA em sistemas judiciais, especialmente quando operam como “caixa-preta”, pode comprometer o direito a um julgamento justo, ao dificultar a explicação, a contestação e a revisão das decisões (Conselho da Europa, 2025).

A retórica da inevitabilidade do avanço tecnológico e a percepção de que a adoção célere das ferramentas é sinal de maturidade e inovação institucional podem trazer consequências nocivas, eclipsando os reais benefícios do uso responsável da tecnologia. O diálogo plural, em especial com a Academia, é imperativo para recolocar o Brasil em condições mínimas de acompanhar as iniciativas globais de uso da IA no direito, que preservem a confiabilidade interpessoal e institucional e, por consequência, a legitimidade das instituições responsáveis por arbitrar conflitos e garantir direitos.

____________________________________

Referências

BENDER, Emily M.; GEBRU, Timnit; McMILLAN-MAJOR, Angelina; SHMITCHELL, Shmargaret. On the dangers of stochastic parrots: can language models be too big? In: ACM CONFERENCE ON FAIRNESS, ACCOUNTABILITY, AND TRANSPARENCY (FAccT ’21), 2021. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. New York: ACM, 2021. DOI: aqui.

CONSELHO DA EUROPA. Comissão Europeia para a Eficiência da Justiça (CEPEJ). Artificial Intelligence Advisory Board (AIAB). Reflections of the AIAB on the use of artificial intelligence in judicial systems. Strasbourg: Council of Europe, 2025. Disponível aqui.

CONSELHO DA EUROPA. Comissão Europeia para a Eficiência da Justiça (CEPEJ). Advisory Board on Artificial Intelligence (AIAB). 1st AIAB report on the use of artificial intelligence (AI) in the judiciary based on the information contained in the resource centre on cyberjustice and AI. Strasbourg: Council of Europe, 2025. (CEPEJ-AIAB(2024)4Rev5). Disponível aqui.

CONSELHO NACIONAL DE JUSTIÇA (CNJ). Promptus: banco de prompts do Poder Judiciário: manual de usuário. Brasília, DF: CNJ, 2025.

DATAFOLHA. Desconfiança sobre STF e Judiciário chega a 43% e atinge recorde. CNN Brasil, 12 mar. 2026. Disponível aqui.

ELTIS, Karen. Déléguer l’autorité au système? L’extériorisation de la fonction judiciaire et le dé-agencement des juges: les retombées inattendues du déploiement de l’intelligence artificielle en justice. McGill Law Journal, v. 69, n. 4, p. 515–532, 2024.

ÉPOCA NEGÓCIOS. Estudo acende alerta: a maioria das pessoas acredita no que o ChatGPT diz, mesmo que esteja totalmente errado. 2026. Disponível aqui.

ORDEM DOS ADVOGADOS DO BRASIL – SÃO PAULO (OAB SP); TRYBE; JUSBRASIL; INSTITUTO DE TECNOLOGIA E SOCIEDADE DO RIO (ITS RIO). Impacto da IA generativa no Direito: panorama sobre adoção e percepções. São Paulo: [s.n.], 2026.

SARTOR, Giovanni. A formal model of legal argumentation. Ratio Juris, v. 7, n. 2, p. 177–211, jul. 1994.

SOURATI Zhiuvar, S. ZIABARI, Alireza, DEHGHANI, Morteza. The homogenizing effect of large language models on human expression and thought. Trends in Cognitive Sciences, 2026.

TRIBUNAL REGIONAL FEDERAL DA 6ª REGIÃO (TRF6). TRF6 lança Prompteca 2.0 no aniversário de 5 anos do IluMinas. Belo Horizonte: TRF6, 2026. Disponível aqui.

  • Izabela Frota Melo é subprocuradora-geral do Distrito Federal, presidente da Rede Nacional de Governança, Estratégia e Inovação da Advocacia Pública Brasileira (Renagei) e mestranda em Direito pela Universidade de Brasília.
  • Debora Bonat é doutora em Direito pela Universidade de Brasília, mestre pela Universidade Federal de Santa Catarina, professora adjunta da Faculdade de Direito da UnB e docente na pós-graduação em Direito.