A face da vigilância: segurança ou violação?
A aplicação de reconhecimento facial por inteligência artificial tem se expandido no Brasil, especialmente por órgãos de segurança pública. Em eventos, aeroportos, transporte urbano e até em investigações criminais, essa tecnologia tem sido apresentada como solução contra o crime. No entanto, cresce o debate sobre os riscos de violação da privacidade e práticas discriminatórias.
O que está em jogo?
O reconhecimento facial automatizado envolve a captura e processamento de dados biométricos, considerados sensíveis pela Lei Geral de Proteção de Dados (LGPD – Lei nº 13.709/2018). Qualquer uso sem consentimento expresso ou fundamentação legal clara pode configurar abuso e gerar responsabilização civil e administrativa.
Além disso, estudos internacionais e experiências brasileiras demonstram que os algoritmos podem reproduzir e amplificar vieses raciais, identificando erroneamente pessoas negras ou indígenas como suspeitas, o que compromete o princípio constitucional da igualdade (art. 5º, caput, CF).
Casos práticos no Brasil
-
Bahia: jovens negros foram presos injustamente com base em reconhecimento facial equivocado;
-
Rio de Janeiro: denúncias apontaram uso sem transparência em grandes eventos públicos;
-
São Paulo: testes realizados no metrô geraram ações civis públicas por suposta violação de dados.
Esses casos demonstram que o uso indiscriminado da tecnologia pode gerar danos graves à liberdade individual e ao Estado de Direito.
Como regulamentar com responsabilidade?
É essencial que o reconhecimento facial:
-
Seja autorizado por lei específica;
-
Tenha finalidade legítima, proporcional e necessária;
-
Possua auditoria externa e ampla transparência pública.
Além disso, decisões automatizadas não podem substituir a avaliação humana, principalmente quando impactam a liberdade.
Reconhecer o rosto de alguém é fácil para a máquina. Difícil é garantir que isso seja feito com justiça.