Créditos: Conjur
No início de março um experimento político na Colômbia chamou atenção de pesquisadores e observadores da democracia digital em todo o mundo. Nas eleições legislativas daquele país foi apresentada a candidatura de uma entidade criada por inteligência artificial chamada Gaitana. O projeto foi desenvolvido por um grupo de programadores liderado pelo engenheiro mecatrônico Carlos Redondo, integrante do povo indígena Zenú, e a antropóloga Alba Rincón.
A proposta consistia na criação de um sistema algorítmico alimentado por interações de usuários registrados em uma plataforma digital denominada Movimento. Mais de 10 mil participantes contribuíram com sugestões e posicionamentos políticos que eram processados pela inteligência artificial, responsável por formular propostas legislativas e posicionamentos públicos.
Ainda que a candidatura não tenha obtido sucesso eleitoral, o episódio revela um fenômeno que tende a se tornar cada vez mais frequente na sociedade contemporânea. A incorporação de sistemas de inteligência artificial em espaços tradicionalmente ocupados por decisões humanas, inclusive na esfera política.
O caso colombiano suscita uma reflexão inevitável no contexto brasileiro. Em um cenário de rápida expansão tecnológica e de crescente digitalização da vida pública, quais seriam os impactos da utilização de sistemas algorítmicos em processos democráticos no Brasil.
A pergunta não é meramente especulativa. A inteligência artificial já ocupa espaço relevante em diversas áreas da sociedade, desde aplicações na saúde e no setor financeiro até sistemas utilizados na administração pública, na segurança e no próprio sistema de justiça. À medida que essas tecnologias se tornam mais sofisticadas, aumenta também sua capacidade de influenciar decisões coletivas e processos institucionais.

Nesse contexto, a discussão sobre inteligência artificial deixa de ser apenas um debate técnico restrito a especialistas em computação. Trata-se de uma questão jurídica, política e institucional que envolve diretamente a proteção de direitos fundamentais e a preservação da integridade de processos democráticos.
No Brasil ainda não existe uma legislação específica e abrangente que discipline o uso da inteligência artificial. Há iniciativas importantes, como o Plano Brasileiro de Inteligência Artificial (PBIA), que estabelece diretrizes para o desenvolvimento tecnológico no país. No entanto, o principal debate regulatório atualmente em curso ocorre por meio do Projeto de Lei n° 2.338 de 2023.
Esse projeto busca instituir um marco regulatório nacional para sistemas de inteligência artificial. A proposta foi inspirada em experiências internacionais recentes, especialmente no regulamento pioneira europeu conhecido como AI Act, considerado o primeiro grande instrumento regulatório global voltado especificamente para tecnologias algorítmicas.
O modelo regulatório proposto no projeto brasileiro adota uma abordagem baseada na avaliação de riscos. Os sistemas de inteligência artificial são classificados conforme o potencial impacto social que podem gerar. Entre as categorias previstas estão sistemas considerados de risco inaceitável, sistemas de alto risco e aplicações de menor impacto regulatório.
Lógica dessa classificação parte de uma premissa relativamente simples
Quanto maior o impacto potencial de uma tecnologia sobre direitos individuais ou estruturas institucionais, maior deve ser o grau de controle e supervisão exercido sobre ela.
Além disso, o projeto estabelece uma série de direitos destinados a proteger pessoas afetadas por decisões ou recomendações produzidas por sistemas de inteligência artificial. Entre esses direitos estão o acesso à informação sobre o uso de tecnologias algorítmicas, a proteção da privacidade e dos dados pessoais, o direito à não discriminação e a possibilidade de solicitar explicações sobre decisões automatizadas.
Outro elemento central da proposta é a exigência de supervisão humana em determinados contextos decisórios. Em outras palavras, mesmo quando sistemas de inteligência artificial são utilizados para apoiar processos de decisão, deve existir algum grau de controle humano capaz de revisar ou contestar os resultados produzidos por algoritmos.
Esse ponto é particularmente relevante quando se discute o uso de tecnologias algorítmicas em contextos sensíveis, como processos políticos, eleições ou decisões públicas que afetam diretamente a coletividade.
A experiência colombiana com a candidatura da inteligência artificial Gaitana ilustra justamente esse tipo de dilema contemporâneo. Embora o projeto tenha sido apresentado como uma forma inovadora de ampliar a participação política e incorporar contribuições coletivas na formulação de propostas legislativas, ele também levanta questões importantes sobre responsabilidade política, transparência e governança tecnológica.
Quem seria juridicamente responsável pelas decisões tomadas por uma entidade algorítmica?
Como garantir transparência na formulação de posicionamentos políticos produzidos por sistemas complexos de processamento de dados? De que maneira seria possível auditar ou fiscalizar os critérios utilizados por algoritmos em processos que influenciam o debate democrático?
Essas perguntas não possuem respostas simples. Elas revelam a necessidade de construção de estruturas institucionais capazes de lidar com uma nova geração de tecnologias que operam em escala e velocidade muito superiores à capacidade tradicional de regulação estatal.
É nesse cenário que ganha relevância o conceito de governança da inteligência artificial. A governança de IA pode ser compreendida como um conjunto de mecanismos institucionais, normativos e técnicos voltados para garantir que o desenvolvimento e a utilização dessas tecnologias ocorram de maneira segura, transparente e responsável.
Pesquisadores, como nós e outros, da área de ética digital e regulação tecnológica frequentemente destacam que o objetivo dessas estruturas não é impedir a inovação, mas reduzir os riscos sociais associados à utilização de sistemas algorítmicos. Em outras palavras, a governança da inteligência artificial busca equilibrar desenvolvimento tecnológico e proteção de direitos.
Entre as boas práticas frequentemente mencionadas nesse campo estão a diversidade na composição das equipes de desenvolvimento, a qualidade e representatividade das bases de dados utilizadas para treinar algoritmos, a definição clara de responsabilidades institucionais e a criação de mecanismos de transparência e explicabilidade.
Essas medidas devem ser consideradas desde a concepção inicial dos sistemas de inteligência artificial e acompanhar todo o seu ciclo de vida. A ausência de cuidados adequados nessa fase pode resultar na reprodução automática de desigualdades históricas, na amplificação de vieses discriminatórios e na criação de estruturas tecnológicas difíceis de auditar ou controlar.
No caso específico da utilização de inteligência artificial em contextos políticos, os riscos assumem dimensões ainda mais complexas. Algoritmos podem influenciar processos de formação de opinião, amplificar campanhas de desinformação ou criar novas formas de manipulação do debate público.
Por essa razão, a discussão sobre inteligência artificial e democracia tende a se tornar cada vez mais central nas agendas regulatórias ao redor do mundo. O desafio não está apenas em compreender o funcionamento técnico dessas tecnologias, mas em estabelecer limites institucionais capazes de preservar valores fundamentais do Estado democrático.
No Brasil, embora a ideia de uma candidatura baseada em inteligência artificial ainda pareça distante da realidade eleitoral imediata, o debate regulatório não pode ser adiado indefinidamente. A velocidade de transformação tecnológica tem demonstrado que inovações inicialmente vistas como experimentais podem rapidamente se tornar fenômenos sociais relevantes.
A experiência colombiana funciona, nesse sentido, como um alerta sobre os novos formatos de participação política que podem emergir em ambientes digitais. Mais do que discutir se uma inteligência artificial poderia ocupar formalmente um cargo público, o verdadeiro desafio jurídico consiste em definir como tecnologias algorítmicas podem ou não interferir em processos decisórios coletivos.
Conclusão
Em última análise, a discussão sobre inteligência artificial e democracia revela uma questão mais ampla sobre o papel do Direito em sociedades tecnologicamente complexas. O desenvolvimento de novas ferramentas digitais pode ampliar capacidades institucionais e gerar benefícios importantes para a administração pública e para a participação cidadã.
No entanto, essas mesmas tecnologias também podem produzir novas formas de opacidade, concentração de poder e assimetrias informacionais. Justamente por essa razão, o debate sobre regulação da inteligência artificial não deve ser visto como um obstáculo à inovação, mas como parte essencial da construção de um ambiente tecnológico compatível com valores democráticos.
A tarefa que se impõe aos juristas e às instituições públicas é estabelecer marcos normativos capazes de orientar o desenvolvimento dessas tecnologias sem sufocar seu potencial transformador. Isso exige diálogo interdisciplinar, cooperação internacional e, sobretudo, uma compreensão clara de que decisões coletivas não podem ser delegadas integralmente a sistemas algorítmicos cuja lógica permanece muitas vezes inacessível à sociedade.
O futuro da inteligência artificial no espaço público dependerá, em grande medida, da capacidade de construir mecanismos de governança que combinem inovação tecnológica, transparência institucional e responsabilidade democrática.
Referências
ALMEIDA, Marcelo Pereira de; MEBUS, Rafaela. Entre Viéses e Imparcialidade: O diálogo entre juízes e sistemas de IA nas decisões judiciais. In: Aspectos Contemporâneos dos Direitos Humanos Fundamentais – Volume 1: Primeira Dimensão dos Direitos Humanos, Curitiba/PR, 2025.
ALMEIDA, Marcelo Pereira de; MEBUS, Rafaela. Implicações da implantação da Inteligência Artificial nas decisões judicias. In: VII Seminário Interinstitucional e Internacional para a efetivação dos Direitos Humanos na Contemporaneidade – Democracia, Litígios Complexos, Avanços Tecnológicos e Inteligência Artificial. Rio de Janeiro/RJ, 2024.
BONAT, Débora; VALE, Luís Manoel Borges do. Inteligência Artificial Generativa e a Fundamentação da Decisão Judicial. In: Revistas dos tribunais Online. Thompson Reuters, 2023.
BRASIL. Congresso Nacional. Projeto de Lei n. 2.338, de 2023. Dispõe sobre o uso da Inteligência Artificial no Brasil e estabelece normas para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial. Brasília, DF: Senado Federal, 2023. Disponível aqui. 2026.
CAMPOS, Francieli de. Algocracia no horizonte: Gaitana, a candidata comlombina de IA e os desafios da representação digital. In: Consultor Jurídico. Disponível aqui.
FIALHO, Fernanda. Candidata de IA na Colômbia: o que acontece se ‘Gaitana’ for eleita? In: G1 Mundo. Disponível aqui
COLÔMBIA tem candidata gerada por Inteligência Artificial em eleições. In: CNN Brasil. Disponível aqui
LUCAS, John. Candidat criada por inteligência artificial disputará eleições na Colombia. In: Gazeta do Povo. Disponível aqui.
IA e Regulação. Tic em Trilhas. Disponível aqui.
- Marcelo Pereira de Almeida é doutor em Ciências Jurídicas e Sociais pela Universidade Federal Fluminense (UFF), mestre em Direito pela Universidade Estácio de Sá, professor do Programa de Pós-graduação em Direito, Instituições e Negócios da Universidade Federal Fluminense (UFF), professor Permanente do PPGD do Mestrado da Universidade Católica de Petrópolis, professor de Direito Processual da UNISALLE, membro do Instituto Brasileiro de Direito Processual (IBDP), da Associação Brasileira de Direito Processual (ABDPro) e do Instituto Carioca de Processo Civil (ICPC) e advogado.
- Rafaela Mebus é graduanda em Direito pela Universidade Católica de Petrópolis (UCP), técnica em telecomunicações pelo Cefet-RJ Uned Petrópolis e estagiária jurídica do Parque Tecnológico da Região Serrana (Serratec)