
Imagem: Pexels / Pixabay
O digital promete eficiência, mas escancara desigualdades: decisões automatizadas silenciam vozes periféricas antes mesmo da entrevista.
Por Matheus Tarrão
Revisão Júlia Ma
Hoje em dia é comum receber mensagens automáticas nos processos seletivos, muitas vezes é gerado por sistemas de inteligência artificial que eliminam candidatos antes que qualquer ser humano leia suas informações.
De acordo com estudo da Fundação Getulio Vargas (FGV), o uso da Inteligência Artificial (IA) para triagem de currículos já é uma prática consolidada em grandes empresas no Brasil. O problema é que esses sistemas não são neutros: eles reproduzem padrões baseados em dados históricos que muitas vezes carregam viés social, racial, de gênero e territorial.
Para o analista de sistemas, José Eduardo M. da Silva, a IA, quando aplicada com parâmetros técnicos, “seria mais imparcial na escolha, a menos que seja orientada por um empregador a aplicar algum viés em sua decisão”. Ele alerta que o viés pode existir, sim, mas que humanos também carregam influências subjetivas que a IA poderia mitigar.

Imagem: Ashutosh Goyal / Pixabay
Algoritmos que aprendem com a desigualdade
A IA, quando treinada com dados enviesados, tende a repetir as exclusões já existentes. A Revista Seqüência (UFSC) explica que, “algoritmos aprendem com decisões passadas, que muitas vezes foram construídas sobre bases sociais discriminatórias”.
Além dos processos seletivos, trabalhadores de aplicativos como iFood e Uber também sofrem com desativações automáticas, muitas vezes sem justificativa clara ou sem canal para contestação. Essa automatização da vigilância e da penalização é tratada em estudo da Revista do Tribunal Superior do Trabalho, que relaciona a prática à precarização e à ausência de diálogo humano nos processos.
O impacto para quem está nas margens
Mulheres, pessoas negras, trans e periféricas são as mais atingidas por esse tipo de exclusão silenciosa. Segundo artigo da Revista GERESE, muitos candidatos são descartados apenas por não usarem as palavras-chave corretas nos currículos ou por morarem em regiões distantes dos centros urbanos.
Apesar disso, José Eduardo destaca que o uso da IA no monitoramento, por exemplo, pode gerar estresse excessivo se for aplicada de forma rígida: “A IA pode ser implacável e detectar os padrões mais sutis. Isto elevaria bastante o nível de estresse dos funcionários e poderia afetar seu desempenho”. Para ele, a tecnologia precisa estar a serviço da produtividade, e não da perseguição.

Imagem: Alexandre C. Fukugava / Pixabay
Quando o algoritmo reflete o preconceito
No artigo “O uso de algoritmos no viés da seleção profissional”, publicado pelo Ministério Público do Trabalho, o jurista Douglas Belanda alerta: algoritmos não apenas operam, mas reproduzem os preconceitos dos contextos em que são aplicados. Segundo ele:
“A discriminação algorítmica representa uma reprodução das preferências ou práticas recorrentes na empresa que o utiliza. Os algoritmos não agem de forma involuntária”. O artigo também reforça que, sem controle e revisão humana, sistemas de IA utilizados em processos seletivos podem violar princípios constitucionais de isonomia e dignidade da pessoa humana.
“Ela serve como um acelerador e facilitador de tarefas e também é usada para testes e verificações, reduzindo a quantidade de incidentes”, explica José, e também acredita que o maior risco está na falta de ética de quem programa ou aplica a tecnologia.

Imagem: Markus Winkler / Pixabay
A ausência de leis claras
A Lei Geral de Proteção de Dados (LGPD) ainda não cobre de maneira eficiente o uso de inteligência artificial nas decisões de contratação. Embora a LGPD determine que decisões automatizadas devem ser transparentes e revisadas, na prática, isso raramente ocorre.
Segundo o analista, a IA não deveria ser usada para pressionar ou vigiar funcionários, e a legislação precisa proteger postos de trabalho para evitar demissões em massa. A ausência de regulamentações claras pode transformar a eficiência em ferramenta de exclusão.
Coletivos como o Data Privacy Brasil e Pretalab pressionam por regulação, exigindo que empresas informem como seus algoritmos funcionam, quais critérios são utilizados e se há intervenção humana na tomada de decisão.

Imagem: Gerd Altmann / Pixabay
O futuro do trabalho precisa incluir todo mundo
A inteligência artificial é uma ferramenta poderosa, mas precisa ser usada com responsabilidade social. No Brasil, onde a exclusão começa pelo CEP, automatizar a desigualdade é institucionalizar o preconceito sob a aparência de eficiência.
José Eduardo explica que se uma tecnologia garante produtividade, mas elimina empregos de perfis diversos, gerando prejuízo social. Empresas devem assumir o compromisso de treinar e realocar, e não simplesmente eliminar.
Caso a tecnologia não for desenvolvida com diversidade, auditada com ética e usada com justiça, corremos o risco de torná-la mais uma barreira — e não um caminho — para o direito ao trabalho digno.