O avanço da inteligência artificial (IA) levanta discussões sobre a responsabilidade dos fornecedores por danos decorrentes de defeitos ou falhas técnicas não detectáveis no momento do lançamento. O presente texto busca analisar sob a perspectiva dos projetos de lei em tramitação no Congresso Nacional (marco legal da IA e reforma do Código Civil), a medida da responsabilização dos fornecedores de sistemas de IA por danos decorrentes de defeitos ou falhas técnicas não detectáveis quando foi o produto lançado no mercado.
Inicia-se a análise pelo Projeto de Lei (PL) 2.338/2023, conhecido como marco legal da IA, recentemente aprovado no Senado Federal, o qual estabelece diretrizes para o desenvolvimento e uso ético e responsável da IA, ao mesmo tempo em que promove a inovação e o avanço tecnológico.

O referido PL define sistema de IA como um sistema computacional que, com diferentes graus de autonomia, utiliza aprendizado de máquina (learning machine), lógica ou conhecimento, a partir de dados, para gerar resultados que influenciem o ambiente real ou virtual [1].
O capítulo III, do PL 2.338/2023, dividido em três seções, trata da categorização de riscos da inteligência artificial de forma abrangente. Exige, primeiramente, uma avaliação preliminar para identificar o nível de risco de cada aplicação e, em seguida, define aplicações consideradas de risco excessivo e de alto risco. Essa categorização é fundamental para estabelecer regras proporcionais ao potencial de dano de cada aplicação, proteger direitos fundamentais e, concomitantemente, fomentar a inovação responsável. A avaliação preliminar e a definição de categorias de risco aumentam a transparência sobre o uso da IA na sociedade, ao permitirem o controle social e garantirem uma utilização ética e responsável [2].
Por outro lado, o Projeto de Lei 4/2025, que tem por objetivo a atualização do Código Civil brasileiro, dedica um capítulo inteiro à IA, sem, entretanto, apresentar uma definição formal desse sistema. O Capítulo VII, do PL 4/2025, estabelece princípios e diretrizes para o desenvolvimento e o uso da IA, com foco no respeito aos direitos de personalidade, não discriminação, transparência, auditabilidade, explicabilidade, rastreabilidade, supervisão humana, governança, acessibilidade, usabilidade, confiabilidade e atribuição de responsabilidade civil [3].
Ao abordar a responsabilidade civil dos fornecedores de sistemas de IA, o artigo 27, do PL 2.338/2023, estabelece critérios gerais, como o grau de autonomia do sistema e o tipo de atividade que realize. A proposta do PL é que a responsabilidade seja objetiva, ou seja, independa da comprovação de culpa, nos casos de danos decorrentes de atividades de IA consideradas de alto risco. Essa abordagem se justifica pela complexidade e potencial de impactos que sistemas de IA podem causar – muitas vezes imprevisíveis ou de difícil identificação [4].
O parágrafo segundo, do artigo 29, do referido PL, estabelece um regime de responsabilidade civil diferenciado para sistemas de IA que não se enquadrem na categoria de alto risco, de modo a se presumir a culpa do agente causador do dano e inverter o ônus da prova. Depreende-se que o propósito de tal medida é a proteção do consumidor, que não precisa comprovar a culpa do agente, e o incentivo para que os agentes sejam mais cautelosos no desenvolvimento e na operação de sistemas de IA [5].
Já o artigo 35, deste PL (2.338/2023), mantém a responsabilidade civil por danos causados por sistemas de IA em relações de consumo sob a égide do Código de Defesa do Consumidor (CDC). Isso significa que o fornecedor responde por tais danos independentemente de culpa, e visa à facilitação da atuação do consumidor em juízo [6]. Essa medida busca equilibrar a relação de consumo ao considerar a complexidade da IA, que dificulta a prova da culpa do fornecedor, já que este detém o conhecimento técnico e o controle sobre os sistemas.
Em contrapartida, o PL 4/2025, ao tratar da IA no âmbito do novo Código Civil, estabelece, em seu artigo 2.027-AL, inciso I, que a responsabilidade civil por dano causado à pessoa natural ou jurídica seguirá o princípio da reparação integral dos danos. Esse princípio objetiva garantir que a vítima seja ressarcida plenamente pelos prejuízos sofridos, ao considerar a complexidade dos danos causados por sistemas de IA, e, assim, desestimular a conduta danosa dos fornecedores.
Embora o PL retromencionado represente um avanço significativo sobre o tema, também há de observar que a complexidade e a natureza inovadora da IA exigem um debate contínuo e um aprimoramento constante das normas, conforme o teor do parágrafo único, do artigo 2.027-AL, PL 4/2025, o qual transmite, justamente, a ideia de que a legislação está em constante evolução para acompanhar os avanços tecnológicos e as novas demandas da sociedade.
Lado outro, a regra prevista no inciso IV do referido dispositivo, que prevê “atribuição de responsabilidade civil (…) a uma pessoa natural ou jurídica em ambiente digital” [7], embora demonstre a busca por soluções que garantam a proteção dos direitos dos consumidores e a segurança jurídica para o desenvolvimento da tecnologia, em princípio, contempla somente os ilícitos civis praticados on-line, isto é, não se aplica aos defeitos ou falhas técnicas não detectáveis quando o produto foi lançado no mercado e, por consequência, deixa em aberto a responsabilização dos fornecedores de sistemas de IA, de modo a reforçar a preferência do legislador em relegar o tema à normatização específica, nos termos do parágrafo único do referido artigo.
Nesse sentido, o artigo 3º, do CDC [8] define a figura do fornecedor como a pessoa física ou jurídica que exerça alguma das atividades elencadas no seu rol. Apesar dessa lista exemplificativa não abranger diversas atividades – como o desenvolvimento de softwares – o CDC, segundo Paulo Roque Khouri [9], busca enquadrar como fornecedor todo aquele que desenvolva atividades econômicas no mercado, evidenciando a amplitude do conceito e sua constante adaptação às novas dinâmicas do mercado de consumo.
Como é notório, a legislação consumerista adota, em regra, a teoria da responsabilidade objetiva. Significa dizer que o fornecedor é responsável pelos danos causados por seus produtos, independentemente de culpa [10]. No entanto, é de se indagar: a aplicação dessa teoria a fornecedores de sistemas de IA seria a mais adequada, sobretudo ao levar em consideração complexidade e imprevisibilidade desses sistemas?
Sociedade precisa permanecer engajada no debate sobre a regulamentação da IA
A capacidade de aprendizado e de evolução inerente aos sistemas de IA introduz uma complexidade adicional na identificação e correção de defeitos ou falhas técnicas. O comportamento de um sistema de IA pode se modificar ao longo do tempo e levar a situações inesperadas e não previstas durante a sua criação. Essa característica, aliada à opacidade, que dificulta a compreensão do funcionamento interno desses sistemas, impede a garantia de que todos os possíveis problemas sejam identificados e corrigidos antes do lançamento do produto no mercado.
No entanto, pelo que se extrai dos projetos de lei apresentados ao longo deste texto, percebe-se a tendência de o legislador seguir a teoria do risco do fornecedor na responsabilização dos fornecedores de sistemas de IA por danos e falhas não detectáveis quando o produto foi lançado no mercado. Tal suposição induziria à conclusão de que, ao introduzir um sistema de IA no mercado, o fornecedor se torna responsável por quaisquer danos que estes possam causar, independentemente de ter tido a intenção de causar tais danos ou de ter agido com negligência [11].
A responsabilidade objetiva advinda da teoria do risco do fornecedor aplicada à IA tem por propósito proteger as vítimas de danos causados por estes sistemas, de modo a garantir que sejam devidamente reparados, a despeito da comprovação de culpa do fornecedor. Essa responsabilidade decorre do risco inerente à atividade empresarial, ou seja, do fato de o fornecedor se beneficiar da exploração de um produto ou serviço que possa gerar danos.
No contexto da IA, em particular, aqueles sistemas que operam com alto grau de complexidade, como os de aprendizado profundo (deep learning), podem causar impactos significativos a indivíduos e à sociedade como um todo.
Portanto, a teoria do risco do fornecedor, aplicada à IA, facilita a reparação de danos, ao dispensar o consumidor de comprovar a culpa do agente, uma vez que basta demonstrar o nexo causal entre o dano e a atividade da IA. Sob perspectiva diversa, a aplicação da referida regra de responsabilização poderá causar embaraços para o alcance do almejado desenvolvimento tecnológico, a ponto de tornar inviável o acesso ao referido produto, pelo próprio consumidor.
Por fim, é possível afirmar que a definição de critérios claros (e prévios) para a atribuição de responsabilidade, assim como para o estabelecimento de limites indenizatórios, são desafios de alta relevância que devem ser superados para a aplicação eficaz da responsabilização do agente econômico que resolver empreender neste ambiente.
A legislação sobre a responsabilidade civil dos fornecedores de sistemas de IA continua em desenvolvimento, e os Projetos de Lei nº 2.338/2023 e nº 4/2025 são marcos significativos nesse percurso. Entretanto, é essencial que a sociedade permaneça vigilante e engajada no debate sobre a regulamentação da IA, para assegurar que essa tecnologia seja aplicada de maneira ética, responsável e segura, assim como seja estimulado e incentivado o necessário desenvolvimento de novas tecnologias, de modo a promover o benefício a todos.
Créditos: Conjur
[1] Art. 4º Para as finalidades desta Lei, adotam-se as seguintes definições: I – sistema de inteligência artificial: sistema computacional, com graus diferentes de autonomia, desenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real;
[2] Art. 13. Previamente a sua colocação no mercado ou utilização em serviço, todo sistema de inteligência artificial passará por avaliação preliminar realizada pelo fornecedor para classificação de seu grau de risco, cujo registro considerará os critérios previstos neste capítulo.
[3] Art. 2.027-AL. O desenvolvimento de sistemas de inteligência artificial deve respeitar os direitos de personalidade previstos neste Código, garantindo a implementação de sistemas seguros e confiáveis, em benefício da pessoa natural ou jurídica e do desenvolvimento científico e tecnológico, devendo ser garantidos: I – a não discriminação em relação às decisões, ao uso de dados e aos processos baseados em inteligência artificial; II – condições de transparência, auditabilidade, explicabilidade, rastreabilidade, supervisão humana e governança; III – a acessibilidade, a usabilidade e a confiabilidade; IV – a atribuição de responsabilidade civil, pelo princípio da reparação integral dos danos, a uma pessoa natural ou jurídica em ambiente digital.
[4] Art. 27. O fornecedor ou operador de sistema de inteligência artificial que cause dano patrimonial, moral, individual ou coletivo é obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema. § 1º Quando se tratar de sistema de inteligência artificial de alto risco ou de risco excessivo, o fornecedor ou operador respondem objetivamente pelos danos causados, na medida de sua participação no dano.
[5] § 2º Quando não se tratar de sistema de inteligência artificial de alto risco, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima.
[6] Art. 12. O fabricante, o produtor, o construtor, nacional ou estrangeiro, e o importador respondem, independentemente da existência de culpa, pela reparação dos danos causados aos consumidores por defeitos decorrentes de projeto, fabricação, construção, montagem, fórmulas, manipulação, apresentação ou acondicionamento de seus produtos, bem como por informações insuficientes ou inadequadas sobre sua utilização e riscos.[…] Art. 14. O fornecedor de serviços responde, independentemente da existência de culpa, pela reparação dos danos causados aos consumidores por defeitos relativos à prestação dos serviços, bem como por informações insuficientes ou inadequadas sobre sua fruição e riscos.
[7] Art. 2.027-AL[…] Parágrafo único. O desenvolvimento e o uso da inteligência artificial e da robótica em áreas relevantes para os direitos de personalidade devem ser monitorados pela sociedade e regulamentados por legislação específica.
[8] Art. 3° Fornecedor é toda pessoa física ou jurídica, pública ou privada, nacional ou estrangeira, bem como os entes despersonalizados, que desenvolvem atividade de produção, montagem, criação, construção, transformação, importação, exportação, distribuição ou comercialização de produtos ou prestação de serviços. § 1° Produto é qualquer bem, móvel ou imóvel, material ou imaterial. § 2° Serviço é qualquer atividade fornecida no mercado de consumo, mediante remuneração, inclusive as de natureza bancária, financeira, de crédito e securitária, salvo as decorrentes das relações de caráter trabalhista.
[9] KHOURI, Paulo R. Roque A. Direito do Consumidor: contratos, responsabilidade civil e defesa do consumidor em juízo. 7ª ed. São Paulo. Atlas, 2021.
[10] Art. 12. O fabricante, o produtor, o construtor, nacional ou estrangeiro, e o importador respondem, independentemente da existência de culpa, pela reparação dos danos causados aos consumidores por defeitos decorrentes de projeto, fabricação, construção, montagem, fórmulas, manipulação, apresentação ou acondicionamento de seus produtos, bem como por informações insuficientes ou inadequadas sobre sua utilização e riscos.[…] Art. 14. O fornecedor de serviços responde, independentemente da existência de culpa, pela reparação dos danos causados aos consumidores por defeitos relativos à prestação dos serviços, bem como por informações insuficientes ou inadequadas sobre sua fruição e riscos.
[11] KHOURI, Paulo R. Roque A. op. cit., p. 201.