Créditos: Conjur
No cenário corporativo e jurídico atual, a inteligência artificial (IA) deixou de ser apenas uma promessa de produtividade para se tornar o ponto central de conflitos éticos. Um fenômeno preocupante é o uso oportunista da tecnologia por usuários que buscam fabricar litígios. Assistimos à ascensão de uma “litigância algorítmica”, em que a boa-fé objetiva, que é o pilar fundamental das relações contratuais, trabalhistas e de consumo, acaba atropelada por estratégias de manipulação digital e pela propositura automatizada de reclamações.
De acordo com o Relatório CX Trends 2025, da Zendesk¹, tais comunicações são impulsionadas por um novo e exigente padrão de consumo: 68% dos consumidores admitem que esperam respostas mais rápidas do que há apenas um ano, e 74% agora exigem atendimento disponível 24 horas por dia, 7 dias por semana. Esse cenário favorece a saturação dos canais de atendimento por reclamações sintéticas, já que a agilidade e a precisão das respostas influenciam a decisão de compra de 86% das pessoas.
Essa nova dinâmica manifesta-se, primeiramente, na industrialização das reclamações. O que antes exigia reflexão e redação própria por parte de um usuário insatisfeito ou de um consumidor lesado, hoje é terceirizado a modelos de linguagem que geram notificações em massa. O resultado é uma avalanche de comunicações que utilizam um “juridiquês” impecável, porém vazio. No Reino Unido², tribunais trabalhistas já reportam o aumento das demandas redigidas com o auxílio de IA.
Essas reclamações típicas de IA são facilmente identificáveis: apresentam um excesso de formalismo e citam artigos de lei ou jurisprudências que, em muitos casos, nunca existiram. Para as empresas e órgãos de proteção ao consumidor, o desafio agora é operacional, pois o suporte humano precisa triar o que é uma dor legítima em meio a milhares de textos gerados por inteligência artificial, cujo objetivo é saturar os canais de atendimento para forçar acordos rápidos.
Outro ponto de alerta é a “engenharia de prompt maliciosa”. Nela, o usuário deixa de ser uma parte vulnerável para se tornar o indutor do erro, provocando o chatbot de atendimento ou a IA até que o sistema emita uma resposta ofensiva ou juridicamente comprometedora. O caso da Chevrolet Watsonville3 nos EUA é o exemplo clássico dessa distorção em que um usuário induziu a IA a “concordar” com a venda de um veículo por apenas 1 dólar ou o precedente da Air Canada4, que foi condenada após seu chatbot inventar uma política de reembolso inexistente, demonstram como a IA pode ser manipulada por usuários astutos.

Aumento de ‘petições sintéticas’
No Brasil, o cenário não é diferente. Já se nota um aumento do volume de petições “sintéticas”, muitas vezes contendo citações fictícias de tribunais superiores, o que força o suporte humano a atuar como um perito em detectar fraudes de linguagem. Conforme o repórter Pedro Nakamura (Rest of the World),5 o país vive um verdadeiro “cabo de guerra”. De um lado, os advogados usam a IA para otimizar tempo, aumentando a produtividade e o volume de ações. De outro, o Judiciário usa a IA para processar e lidar com o aumento do volume de forma mais eficiente. Tanto é assim que o Tribunal de Justiça de Goiás desenvolveu uma ferramenta6 com o objetivo de identificar padrões repetitivos e combater a litigância predatória.
Como um exemplo do movimento regulatório, temos a Resolução nº 615/2025 do Conselho Nacional de Justiça (CNJ), que estabelece diretrizes claras sobre a responsabilidade do utilizador. Segundo o Conselho, o uso de ferramentas de IA generativa não exime o indivíduo da responsabilidade pela integridade e veracidade das informações apresentadas, impondo um “dever de revisão humana obrigatória”.
Ao determinar que o utilizador é o único responsável pela exatidão do conteúdo, o Judiciário brasileiro retira o escudo de defesa de quem utiliza a IA para fabricar fatos inexistentes. Essa preocupação também consta no Diagnóstico sobre o Enfrentamento da Litigância Abusiva no Poder Judiciário,7 o qual destaca que, além dos mecanismos e ferramentas tecnológicas, é fundamental promover a integração e o diálogo entre o Poder Judiciário e os membros da OAB.
A resposta das organizações a este cenário não tem sido reativa ou punitiva. Pelo contrário, grandes empresas de tecnologia têm liderado iniciativas globais de “uso consciente de IA”, promovendo a transição da IA como mero entretenimento para uma ferramenta de educação e produtividade ética. Estas campanhas focam na responsabilidade do usuário, ensinando que a eficácia da IA depende da veracidade dos dados fornecidos e da supervisão humana.
Há outras empresas também que disponibilizam guias de boas práticas, ajudando o usuário a distinguir entre o auxílio legítimo da máquina e a criação deliberada de desinformação. O objetivo é criar um ecossistema onde a tecnologia sirva para democratizar o acesso ao conhecimento, e não para automatizar a má-fé.
Reflexo perigoso em áreas sensíveis
Esse comportamento temerário estende-se para além do campo estritamente jurídico, manifestando-se de forma perigosa em setores sensíveis como a saúde. Não é incomum diagnósticos e prescrições geradas por IA sem a devida validação de um profissional habilitado. Quando o indivíduo utiliza a ferramenta de forma indevida para autodiagnóstico ou manipulação, ele ignora que a IA carece de sensibilidade clínica e ética. Sob a ótica do Código de Defesa do Consumidor (CDC), especificamente no seu artigo 14, § 3º, inciso II, a responsabilidade do fornecedor é afastada quando houver culpa exclusiva do consumidor ou de terceiro. Portanto, o consumidor que utiliza a IA de maneira indevida, forçando conclusões ou ignorando alertas de uso para obter vantagens, não apenas coloca sua integridade em risco, mas também perde o direito para pleitear indenizações, já que o suposto dano decorre de sua própria negligência e má-fé.
O impacto desse cenário exige uma mudança na produção de provas. A defesa jurídica agora depende de uma análise dos históricos de interação: o foco do julgamento deslocou-se da resposta final da IA para o histórico completo da interação, incluindo os prompts inseridos pelo usuário. Se ficar demonstrado que houve provocação deliberada ou que a reclamação foi gerada de forma automática para fins de enriquecimento ilícito, a responsabilidade objetiva da empresa deve ser mitigada ou excluída. Juridicamente, isso representa uma violação direta ao princípio de que ninguém pode se beneficiar da própria torpeza.
O desafio atual não se limita à regulação das ferramentas de inteligência artificial, mas à preservação da integridade do próprio sistema de Justiça. Nesse contexto, o enfrentamento da litigância algorítmica exige não apenas avanços normativos, mas também uma atuação coordenada entre Judiciário, reguladores e agentes privados, com foco na responsabilização de condutas abusivas e na promoção de uma cultura de uso ético da tecnologia.
Seguindo o exemplo da ferramenta criada pelo Tribunal de Justiça de Goiás mencionada anteriormente, as empresas podem se valer de ferramentas similares para triagem e classificação como meio de garantir uma uniformidade no atendimento, priorizando os casos com evidências reais (ainda que feito com o auxílio de IA). Além disso, criar um formulário estruturado que exija dados específicos e evidências, é uma estratégia eficaz para minimizar e desestimular as reclamações em massa e garantir o acesso legítimo aos usuários e não como apenas um instrumento de má-fé.
¹ZENDESK BRASIL. Relatório CX Trends 2025: O Impacto da IA na Experiência do Cliente. São Paulo: Zendesk, 2025. Disponível em: https://www.zendesk.com.br/customer-experience-trends/.
²AI fuels surge in dodgy tribunal cases clogging courts and piling pressure on firms. The Sun, Londres, 2026. Disponível em: https://www.thesun.co.uk/news/38627481/ai-fuels-surge-in-dodgy-tribunal-cases-clogging-courts-and-piling-pressure-on-firms/. Acesso em 30/03/2026
³RATCLIFFE, Ben. Chevrolet Chatbot Generative AI Manipulated. Medium, 02 out. 2025. Disponível em: https://medium.com/@benratcliffe_/the-ai-hack-that-convinced-a-chatbot-to-sell-a-76-000-car-for-1-511ba0ad084d.
4RECHESTA, S. Brazil’s courts are being flooded with AI-generated lawsuits. Rest of World, 2025. Disponível em: https://restofworld.org/2025/brazil-ai-courts-lawsuits/. Acesso em 31/03/2026.
5BRITISH COLUMBIA CIVIL RESOLUTION TRIBUNAL. Moffatt v. Air Canada, 2024 BCCRT 149. Vancouver, Canadá, 2024. Disponível em: https://www.canlii.org/en/bc/bccrt/doc/2024/2024bccrt149/2024bccrt149.html.
6CNJ disponibiliza IA para tribunais identificarem litigância abusiva. Migalhas, 20 mar. 2026. Disponível em: https://www.migalhas.com.br/quentes/451474/cnj-disponibiliza-ia-para-tribunais-identificarem-litigancia-abusiva. Acesso em: 30 mar. 2026
7BRASIL. Conselho Nacional de Justiça. Relatório Diagnóstico sobre o Enfrentamento da Litigância Abusiva no Poder Judiciário. Brasília, DF: CNJ, 2025. Disponível em: https://www.cnj.jus.br/wp-content/uploads/2025/12/relatorio-litigancia-abusiva-1.pdf Acesso em: 31 mar. 2026.
Referências
BRASIL. Lei nº 8.078, de 11 de setembro de 1990. Código de Defesa do Consumidor. Brasília, DF, 1990. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/l8078compilado.htm. Acesso em 20/03/2026.
BRASIL. Lei nº 10.406, de 10 de janeiro de 2002. Código Civil. Brasília, DF, 2002. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/2002/l10406compilada.htm. Acesso em 20/03/2026.
BRASIL. Lei nº 13.105, de 16 de março de 2015. Código de Processo Civil. Brasília, DF, 2015. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2015/lei/l13105.htm. Acesso em 20/03/2026.
BRASIL. Conselho Nacional de Justiça. Resolução nº 615, de 11 de março de 2025. Estabelece diretrizes para o uso de sistemas de Inteligência Artificial Generativa no Poder Judiciário. Brasília, DF: CNJ, 2025. Disponível em: https://atos.cnj.jus.br/atos/detalhar/6001. Acesso em 20/03/2026.
BRASIL. Tribunal de Justiça do Estado do Rio de Janeiro. Corregedoria Geral da Justiça. Nota Técnica Conjunta TJRJ/CGJ nº 01/2025. Alerta sobre o aumento de “advocacia predatória” e petições sintéticas com jurisprudência falsa gerada por IA. Rio de Janeiro: TJRJ, 2025. Disponível em https://www3.tjrj.jus.br/sophia_web/acervo/detalhe/313360?integra=1. Acesso em 20/03/2026.
BRITISH COLUMBIA CIVIL RESOLUTION TRIBUNAL. Moffatt v. Air Canada, 2024 BCCRT 149. Vancouver, Canadá, 2024. Disponível em: https://www.canlii.org/en/bc/bccrt/doc/2024/2024bccrt149/2024bccrt149.html. Acesso em 20/03/2026.
RATCLIFFE, Ben. Chevrolet Chatbot Generative AI Manipulated. Medium, 02 out. 2025. Disponível em: https://medium.com/@benratcliffe_/the-ai-hack-that-convinced-a-chatbot-to-sell-a-76-000-car-for-1-511ba0ad084d. Acesso em 20/03/2026.
ZENDESK BRASIL. Relatório CX Trends 2025: O Impacto da IA na Experiência do Cliente. São Paulo: Zendesk, 2025. Disponível em: https://www.zendesk.com.br/customer-experience-trends/. Acesso em 20/03/2026.
AI fuels surge in dodgy tribunal cases clogging courts and piling pressure on firms. The Sun, Londres, 2026. Disponível em: https://www.thesun.co.uk/news/38627481/ai-fuels-surge-in-dodgy-tribunal-cases-clogging-courts-and-piling-pressure-on-firms/. Acesso em 30/03/2026.
BRASIL. Conselho Nacional de Justiça. Relatório sobre Litigância Abusiva e o Impacto da IA no Judiciário. Brasília, DF: CNJ, dez. 2025. Disponível em: https://www.cnj.jus.br/wp-content/uploads/2025/12/relatorio-litigancia-abusiva-1.pdf. Acesso em 31/03/2026.
RECHESTA, S. Brazil’s courts are being flooded with AI-generated lawsuits. Rest of World, 2025. Disponível em: https://restofworld.org/2025/brazil-ai-courts-lawsuits/. Acesso em 31/03/2026.
CNJ disponibiliza IA para tribunais identificarem litigância abusiva. Migalhas, 20 mar. 2026. Disponível em: https://www.migalhas.com.br/quentes/451474/cnj-disponibiliza-ia-para-tribunais-identificarem-litigancia-abusiva. Acesso em 31/03/2026.
- Erica Marie Viterito Honda é advogada, especialista em Direito Digital Aplicado pela FGV, pós-graduada em Direito Digital pelo ITS-Rio/Uerj e sócia da Lee, Brock, Camargo Advogados (LBCA).
- Priscila de Luca é advogada, pós-graduada em Direito Empresarial pela Fundação Getúlio Vargas, mestre em Direito Político e Econômico pela Universidade Presbiteriana Mackenzie e sócia da Lee, Brock e Camargo Advogados (LBCA).