Quando a máquina decide por todos
A adoção de sistemas de inteligência artificial por governos e prefeituras para planejar ou executar políticas públicas é uma tendência crescente. Da alocação de recursos na saúde à definição de prioridades em programas sociais, algoritmos estão sendo usados como ferramenta de apoio à decisão estatal. Mas até que ponto isso é democrático?
Políticas públicas automatizadas: avanço ou ameaça?
A IA pode aumentar a eficiência da administração pública, cruzando dados, prevendo comportamentos e distribuindo recursos com maior precisão. No entanto, a automação dessas decisões — se feita sem critérios transparentes — pode ferir direitos fundamentais e a lógica participativa da democracia.
Por exemplo, um algoritmo que exclui famílias de um programa social com base em “risco estatístico de fraude” pode violar o princípio da dignidade humana e o direito ao contraditório (art. 5º, LV, CF).
Controle judicial e constitucionalidade
O Judiciário tem sido provocado a se posicionar frente a decisões estatais baseadas em IA. Em ações civis públicas e mandados de segurança, já se questiona a legalidade de políticas públicas sem transparência algorítmica, inclusive por violação à reserva de lei e à moralidade administrativa (art. 37, caput, CF).
O STF ainda não fixou tese definitiva sobre o uso de IA na formulação de políticas públicas, mas o cenário aponta para a exigência de:
-
Previsão legal expressa;
-
Publicidade e auditabilidade dos algoritmos;
-
Participação social nos critérios de decisão automatizada.
Caminhos para um uso responsável
Para que a IA seja uma aliada do interesse público, é necessário que:
-
A sociedade tenha acesso aos dados e lógicas utilizadas;
-
Haja controle social sobre os algoritmos utilizados pelo Estado;
-
O Judiciário atue firmemente quando os direitos forem afetados.
Tecnologia sem democracia é eficiência sem legitimidade. E políticas públicas sem legitimidade deixam de ser públicas.