Responsabilidade Civil por Danos Causados por Inteligência Artificial: Quem Responde no Brasil?

O avanço da tecnologia e o vazio legal

A inteligência artificial (IA) já não é mais uma promessa do futuro — ela está moldando o presente. Robôs que tomam decisões em bancos, algoritmos que filtram currículos e até sistemas usados em diagnósticos médicos são apenas alguns exemplos. Mas surge uma pergunta inevitável: quem responde quando a IA comete um erro e causa prejuízos?

O que diz a lei brasileira sobre responsabilidade?

Atualmente, o Brasil não possui uma lei específica sobre responsabilidade civil da IA. Em situações de dano, aplica-se de forma analógica o Código Civil (arts. 186 e 927), que exige a demonstração de culpa e nexo causal. Em alguns casos, pode-se aplicar a responsabilidade objetiva — quando há risco da atividade — ou o Código de Defesa do Consumidor, em que o fornecedor é responsabilizado independentemente de culpa.

Ou seja: a culpa pode recair sobre o programador, o fabricante, a empresa que usou o sistema ou até o prestador de serviço.

Quando o erro é do algoritmo — ou de quem o criou?

Imagine um sistema de IA que analisa crédito e nega um financiamento com base em critérios discriminatórios. Se o cliente entra na justiça, a responsabilidade pode ser da instituição financeira, que adotou a tecnologia sem garantir sua conformidade com os princípios legais.

Nesses casos, o Judiciário começa a reconhecer que a previsibilidade de falhas em IA exige controle humano e mecanismos de supervisão constantes.

Propostas para o futuro

O Projeto de Lei nº 2.338/2023, que trata do Marco Legal da Inteligência Artificial, prevê a responsabilização dos agentes envolvidos, mas ainda está em discussão. Enquanto isso, empresas precisam investir em transparência algorítmica, revisão constante de códigos e práticas de governança ética.


Ignorar a responsabilidade da IA é abrir margem para injustiças invisíveis. Quem programa, gerencia ou lucra com ela também precisa responder por seus atos.


2. Marco Legal da Inteligência Artificial no Brasil: O que Diz o PL 2.338/2023?

O Brasil está se preparando para regular as máquinas?

Com o uso crescente de sistemas autônomos no setor público e privado, o Congresso Nacional passou a debater o Marco Legal da Inteligência Artificial. O PL 2.338/2023 visa criar um conjunto de regras que promova a inovação com responsabilidade, respeitando direitos fundamentais.

Mas o que está em jogo nessa proposta?

Princípios centrais do projeto

O texto estabelece princípios como:

  • Centralidade no ser humano;

  • Não discriminação algorítmica;

  • Transparência e auditabilidade;

  • Responsabilidade e supervisão humana.

Ele também classifica sistemas de IA em graus de risco, exigindo maior rigor regulatório para aqueles que impactam direitos fundamentais, como sistemas de recrutamento, crédito ou justiça criminal.

Críticas e lacunas

Especialistas destacam que o projeto ainda precisa ser aprimorado. Faltam dispositivos claros sobre responsabilização objetiva e fiscalização efetiva. Além disso, a proposta evita abordar temas mais espinhosos, como o uso de IA em decisões judiciais e algoritmos de policiamento preditivo.

Efeitos práticos

A aprovação do PL 2.338/2023 poderá:

  • Criar diretrizes claras para empresas e startups que desenvolvem IA;

  • Fortalecer a proteção de dados e os direitos do consumidor;

  • Reduzir a assimetria entre desenvolvedores e usuários.


Regulamentar não é frear o progresso — é garantir que ele ocorra com segurança, ética e justiça para todos.

Artigos relacionados

Botão Voltar ao topo