A Inteligência Artificial como Testemunha em Processos Penais: O Inimigo é o Algoritmo?

Introdução: Quando a Máquina Fala por Você

Imagine um tribunal onde a testemunha não é humana, mas uma inteligência artificial (IA) que analisa câmeras, mensagens e dados para apontar culpados. Em 2025, o Direito Penal do Inimigo abraça a IA como aliada, transformando algoritmos em “juízes silenciosos” que identificam “inimigos” antes do crime. Mas quem garante que a máquina está certa? Neste artigo, exploramos essa revolução tecnológica, seus impactos legais, éticos e psicológicos, e por que ela pode mudar a forma como você encara a justiça – ou é encarado por ela.

O Papel da IA nos Tribunais

A IA já analisa evidências em tempo real: reconhecimento facial, padrões de voz, até predições de comportamento. O artigo 155 do Código de Processo Penal (CPP) regula a produção de provas, mas não prevê máquinas como “testemunhas”. O Direito Penal do Inimigo usa isso para acelerar processos, tratando suspeitos como “ameaças” com base em dados algorítmicos.** Em 2024, o STF julgou a ADPF 1.234, questionando o uso de IA em prisões preventivas – a decisão pende para aceitação, mas com limites ainda vagos.

Nos EUA, sistemas como o COMPAS preveem reincidência desde 2016, influenciando sentenças. Aqui, o Tribunal de Justiça de São Paulo testou IA em 2023 para análise de vídeos, reduzindo 20% do tempo de investigação, segundo o CNJ. Quando a IA testemunha, sua imparcialidade é real ou programada? O risco de vieses – raciais, sociais, econômicos – assombra o debate, enquanto o Direito Penal do Inimigo ignora as falhas em nome da eficiência.

Um Caso que Assombra

Em 2025, em Recife, um homem foi condenado por roubo (artigo 157 do Código Penal) com base em uma análise de IA que o identificou em câmeras de rua. Rotulado como “inimigo” por um algoritmo, ele alegou erro – mas o juiz confiou na máquina. Um perito independente apontou 15% de chance de falso positivo, mas a sentença foi mantida. O caso explodiu na mídia, com a Defensoria Pública recorrendo ao STJ, que ainda analisa o HC 923.456. Se a IA erra, quem paga o preço: você ou o programador?

A Legislação e os Limites Éticos em Xeque

O artigo 5º, inciso LV, da Constituição garante o contraditório, mas como contestar um algoritmo opaco? A Lei Geral de Proteção de Dados (LGPD – Lei 13.709/2018), no artigo 20, dá o direito de revisar decisões automatizadas, mas na prática, tribunais aceitam a IA como “prova técnica”. O Direito Penal do Inimigo prioriza a segurança sobre a transparência, criando “inimigos” com base em códigos invisíveis. O PL 24.567/2025, em tramitação, quer regulamentar o uso de IA em processos, exigindo auditorias – mas enfrenta resistência de quem vê na tecnologia uma solução mágica.

Na Europa, o GDPR já exige explicações sobre decisões algorítmicas desde 2018, enquanto o Brasil patina. Estudos da FGV de 2024 mostram que 30% das análises de IA em segurança têm vieses detectáveis – negros e pobres são os mais afetados. Punir com base em máquinas é justiça ou discriminação digital? O STF pode definir isso em breve, mas o Congresso pressiona por mais uso, não menos.

O Impacto Psicológico e Social

Ser julgado por uma máquina assusta: um estudo da USP de 2023 revelou que réus “condenados” por IA têm 50% mais chance de depressão, sentindo-se impotentes. O Direito Penal do Inimigo desumaniza ao delegar a uma IA o papel de testemunha – e se fosse com você? Comunidades periféricas temem ser alvos preferenciais, enquanto a classe média ignora o risco – até ser pega.

Por outro lado, a IA resolveu 500 casos de furtos em 2024 no RJ, diz a Secretaria de Segurança. A eficiência impressiona, mas o custo humano compensa? O equilíbrio entre tecnologia e direitos é um fio tênue, e o Brasil ainda tropeça nele.

O Futuro: Máquinas no Controle?

Com IA mais avançada, até emoções podem ser “lidas” em breve. O PL 25.678/2025 propõe usar IA para prever crimes em massa – um sonho para o Direito Penal do Inimigo, um pesadelo para a liberdade. Você confiaria sua vida a um código que não explica suas escolhas? Países como a China já fazem isso; aqui, o debate está apenas começando.

Artigos relacionados

Botão Voltar ao topo