Algoritmos podem limitar a liberdade?
A crescente presença da inteligência artificial na moderação de conteúdos online trouxe um novo desafio jurídico: será que decisões automatizadas estão suprimindo vozes legítimas? A discussão é urgente e complexa.
Liberdade de expressão e os filtros automatizados
Plataformas como Instagram, TikTok e YouTube usam IA para remover ou limitar conteúdos considerados “inadequados”. O problema é que essas decisões nem sempre consideram o contexto, o tom ou a intenção — e isso pode resultar em censura digital.
O que dizem especialistas e reguladores?
A ONU, o STF e diversas entidades civis têm alertado para o risco de algoritmos censurarem ativistas, jornalistas e minorias por “detecção de linguagem ofensiva” sem critérios humanos. No Brasil, há debate sobre a necessidade de um marco regulatório específico para IA na moderação de conteúdo.
Casos práticos
Em 2023, uma página de jornalismo independente foi desmonetizada por erro do algoritmo de uma plataforma. A Justiça reconheceu o abuso e determinou a reativação do canal com base no princípio da liberdade de expressão e da não discriminação automatizada.
A moderação deve ser justa — não opressiva
Tecnologia deve servir à liberdade — e não silenciar o que é legítimo. O controle de conteúdo precisa ser transparente, auditável e equilibrado. Senão, cria-se uma nova forma de censura: a invisível.