Quando a máquina repete o preconceito humano
A promessa de imparcialidade da inteligência artificial é sedutora. Mas a realidade é outra: algoritmos também erram — e, pior, discriminam. E quando isso acontece, o Direito precisa agir.
O que é o bias algorítmico?
É o viés incorporado nos dados ou no modelo de IA. Por exemplo: se um banco treina seu algoritmo com dados históricos em que negros foram menos aprovados em crédito, a IA tende a reproduzir esse padrão, perpetuando a exclusão.
Isso já aconteceu em:
-
Processos seletivos automatizados;
-
Concessão de crédito pessoal;
-
Avaliações de risco judicial ou penal.
Como o Direito responde?
Mesmo sem lei específica, o ordenamento jurídico oferece ferramentas:
-
Art. 5º da CF: igualdade e não discriminação;
-
Código de Defesa do Consumidor: proíbe práticas abusivas e enganosas;
-
LGPD (art. 20): garante direito à revisão de decisões automatizadas.
O que precisa mudar?
-
Regulamentação clara sobre auditoria algorítmica obrigatória;
-
Criação de agências especializadas em ética digital;
-
Penalidades severas para empresas que mantêm sistemas discriminatórios.
A justiça algorítmica só será possível quando houver justiça nos dados — e coragem legal para corrigir os erros silenciosos das máquinas.