
Seu aplicativo está sendo injusto com você? Descubra como o Viés Algorítmico pode reduzir o rendimento de entregadores de minorias e qual é o papel do Direito Antidiscriminatório nesse combate. Lute por igualdade de oportunidades!
A crença de que a tecnologia é neutra e, portanto, imune a preconceitos, é um dos maiores mitos da era digital. No entanto, a Inteligência Artificial (IA), por ser programada com dados históricos e otimizar critérios definidos por humanos, pode perpetuar e até intensificar a discriminação no ambiente de trabalho. No setor de entregas, o viés algorítmico pode se manifestar de formas sutis, afetando a distribuição de rotas, o ranqueamento e, consequentemente, o rendimento de entregadores pertencentes a minorias raciais, de gênero ou de idade.
Como o Algoritmo Reproduz Desigualdades Sociais
O algoritmo é treinado para buscar a máxima eficiência, o que pode significar privilegiar entregadores que operam em áreas de maior poder aquisitivo ou que historicamente aceitam corridas menos rentáveis por pura necessidade. Se o algoritmo aprende, a partir de dados históricos, que determinados grupos demográficos tendem a ter um desempenho pior (o que pode ser reflexo de desigualdades estruturais, como veículos mais antigos ou dificuldades de acesso à internet), ele pode começar a filtrar e reduzir as ofertas para esses grupos. O resultado é uma “discriminação indireta”: o critério não é explicitamente racial ou de gênero, mas o efeito é a desigualdade de acesso ao trabalho e à renda.
Discriminação de Gênero e Raça no Delivery
Estudos sociológicos (como os realizados pela FGV e UNICAMP) apontam que entregadores negros e mulheres enfrentam maior dificuldade em acessar áreas de maior movimento e melhores gorjetas, o que se reflete no algoritmo. O sistema pode, inadvertidamente, associar certos perfis a um “risco” maior ou a uma menor “aceitação” por parte dos estabelecimentos ou clientes. Quando a IA decide que um determinado perfil terá menos acesso a rotas lucrativas, ela está cometendo uma grave violação do princípio constitucional da isonomia e do Direito Antidiscriminatório.
A Responsabilidade Legal da Plataforma
No Brasil, a Constituição Federal e a CLT proíbem expressamente a discriminação. A plataforma, como empregadora ou como gestora do serviço, tem a responsabilidade objetiva de garantir que seu sistema não gere disparidade injustificada. O Direito Antidiscriminatório exige que a empresa prove que as diferenças no tratamento são baseadas em critérios estritamente técnicos e não enviesados. A mera alegação de “segredo de negócio” não pode servir de escudo para a opacidade discriminatória.
Estratégias para Combater o Viés Algorítmico
O combate ao viés algorítmico exige medidas jurídicas e técnicas. No âmbito legal, exige-se a transparência algorítmica (Artigo 7), permitindo que auditores e órgãos de fiscalização (MPT) examinem os critérios do sistema. No âmbito técnico, as plataformas devem ser obrigadas a realizar auditorias de viés em seus algoritmos, utilizando datasets mais diversificados para garantir a equidade. Para o entregador, a documentação de padrões de distribuição desiguais e a comparação de prints de tela com colegas são cruciais para a prova judicial. A justiça na era digital passa por desmistificar a neutralidade da tecnologia e garantir que o código sirva à igualdade e à dignidade humana.