Notícias Avera
  • Home
  • Cidade
  • Cultura
  • Unifacs
    • Destaques da Facs
    • Curto-Circuito
    • Especial ABAPA
    • Jornada Social Media
  • Esportes
  • Saúde
  • Negócios
  • Expediente
  • Home
  • Destaque
  • Tecnologia/Opinião: “Você não foi selecionado”: como a inteligência artificial está moldando — e excluindo — trabalhadores no Brasil

Tecnologia/Opinião: “Você não foi selecionado”: como a inteligência artificial está moldando — e excluindo — trabalhadores no Brasil

Da Redação
6 de maio de 20256 de maio de 2025 No Comments
AVERA Jornalismo

Imagem: Pexels / Pixabay

O digital promete eficiência, mas escancara desigualdades: decisões automatizadas silenciam vozes periféricas antes mesmo da entrevista.

Por Matheus Tarrão

Revisão Júlia Ma

Hoje em dia é comum receber mensagens automáticas nos processos seletivos, muitas vezes é gerado por sistemas de inteligência artificial que eliminam candidatos antes que qualquer ser humano leia suas informações.

De acordo com estudo da Fundação Getulio Vargas (FGV), o uso da Inteligência Artificial (IA) para triagem de currículos já é uma prática consolidada em grandes empresas no Brasil. O problema é que esses sistemas não são neutros: eles reproduzem padrões baseados em dados históricos que muitas vezes carregam viés social, racial, de gênero e territorial.

Para o analista de sistemas, José Eduardo M. da Silva, a IA, quando aplicada com parâmetros técnicos, “seria mais imparcial na escolha, a menos que seja orientada por um empregador a aplicar algum viés em sua decisão”. Ele alerta que o viés pode existir, sim, mas que humanos também carregam influências subjetivas que a IA poderia mitigar.

Imagem: Ashutosh Goyal / Pixabay

Algoritmos que aprendem com a desigualdade

A IA, quando treinada com dados enviesados, tende a repetir as exclusões já existentes. A Revista Seqüência (UFSC) explica que, “algoritmos aprendem com decisões passadas, que muitas vezes foram construídas sobre bases sociais discriminatórias”.

Além dos processos seletivos, trabalhadores de aplicativos como iFood e Uber também sofrem com desativações automáticas, muitas vezes sem justificativa clara ou sem canal para contestação. Essa automatização da vigilância e da penalização é tratada em estudo da Revista do Tribunal Superior do Trabalho, que relaciona a prática à precarização e à ausência de diálogo humano nos processos.

O impacto para quem está nas margens

Mulheres, pessoas negras, trans e periféricas são as mais atingidas por esse tipo de exclusão silenciosa. Segundo artigo da Revista GERESE, muitos candidatos são descartados apenas por não usarem as palavras-chave corretas nos currículos ou por morarem em regiões distantes dos centros urbanos.

Apesar disso, José Eduardo destaca que o uso da IA no monitoramento, por exemplo, pode gerar estresse excessivo se for aplicada de forma rígida: “A IA pode ser implacável e detectar os padrões mais sutis. Isto elevaria bastante o nível de estresse dos funcionários e poderia afetar seu desempenho”. Para ele, a tecnologia precisa estar a serviço da produtividade, e não da perseguição.

Imagem: Alexandre C. Fukugava / Pixabay

Quando o algoritmo reflete o preconceito

No artigo “O uso de algoritmos no viés da seleção profissional”, publicado pelo Ministério Público do Trabalho, o jurista Douglas Belanda alerta: algoritmos não apenas operam, mas reproduzem os preconceitos dos contextos em que são aplicados. Segundo ele:

“A discriminação algorítmica representa uma reprodução das preferências ou práticas recorrentes na empresa que o utiliza. Os algoritmos não agem de forma involuntária”. O artigo também reforça que, sem controle e revisão humana, sistemas de IA utilizados em processos seletivos podem violar princípios constitucionais de isonomia e dignidade da pessoa humana.

“Ela serve como um acelerador e facilitador de tarefas e também é usada para testes e verificações, reduzindo a quantidade de incidentes”, explica José, e também acredita que o maior risco está na falta de ética de quem programa ou aplica a tecnologia.

Imagem: Markus Winkler / Pixabay

A ausência de leis claras

A Lei Geral de Proteção de Dados (LGPD) ainda não cobre de maneira eficiente o uso de inteligência artificial nas decisões de contratação. Embora a LGPD determine que decisões automatizadas devem ser transparentes e revisadas, na prática, isso raramente ocorre.

Segundo o analista, a IA não deveria ser usada para pressionar ou vigiar funcionários, e a legislação precisa proteger postos de trabalho para evitar demissões em massa. A ausência de regulamentações claras pode transformar a eficiência em ferramenta de exclusão.

Coletivos como o Data Privacy Brasil e Pretalab pressionam por regulação, exigindo que empresas informem como seus algoritmos funcionam, quais critérios são utilizados e se há intervenção humana na tomada de decisão.

Imagem: Gerd Altmann / Pixabay

O futuro do trabalho precisa incluir todo mundo

A inteligência artificial é uma ferramenta poderosa, mas precisa ser usada com responsabilidade social. No Brasil, onde a exclusão começa pelo CEP, automatizar a desigualdade é institucionalizar o preconceito sob a aparência de eficiência.

José Eduardo explica que se uma tecnologia garante produtividade, mas elimina empregos de perfis diversos, gerando prejuízo social. Empresas devem assumir o compromisso de treinar e realocar, e não simplesmente eliminar.

Caso a tecnologia não for desenvolvida com diversidade, auditada com ética e usada com justiça, corremos o risco de torná-la mais uma barreira — e não um caminho — para o direito ao trabalho digno.

Navegação de Post

Educação: Quando a esperança se faz presente
Liverpool e o “Scouse” – O orgulho e a Identidade de um povo.

Related Articles

AVERA cultura Salvador

Agenda cultural do fim de Salvador recebe mais um fim de semana repleto de atrações culturais para todos os gostos.

AVERA Esportes Jornalismo

Por que as Estrelas do Esporte Estão Pausando no Auge pela Saúde Mental?

AVERA Esportes Salvador

Tricolor garante três pontos e Vitória tropeça fora de casa no Brasileirão

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Últimas

  • Definidos os confrontos da semifinal da Superliga Feminina de vôlei  
  • Agenda cultural do fim de Salvador recebe mais um fim de semana repleto de atrações culturais para todos os gostos.
  • Por que as Estrelas do Esporte Estão Pausando no Auge pela Saúde Mental?
  • CPDD fortalece defesa de direitos e acolhimento à população LGBT+ na Bahia
  • Tchéquia supera Dinamarca e garante vaga na Copa
  • Turquia confirma favoritismo e retorna ao Mundial
  • Bósnia elimina Itália nos pênaltis e faz história
  • Suécia vence duelo eletrizante e carimba vaga na Copa

ARQUIVO

  • abril 2026
  • março 2026
  • dezembro 2025
  • novembro 2025
  • outubro 2025
  • junho 2025
  • maio 2025
  • abril 2025
  • dezembro 2024
  • novembro 2024
  • outubro 2024
  • setembro 2024
  • julho 2024
  • junho 2024
  • maio 2024
  • abril 2024
  • dezembro 2023
  • novembro 2023
  • outubro 2023
  • setembro 2023
  • agosto 2023
  • julho 2023
  • junho 2023
  • maio 2023
  • abril 2023
  • março 2023
  • fevereiro 2023
  • janeiro 2023
  • dezembro 2022
  • novembro 2022
  • outubro 2022
  • setembro 2022
  • agosto 2022
  • julho 2022
  • junho 2022
  • maio 2022
  • abril 2022
  • fevereiro 2022
  • dezembro 2021
  • novembro 2021
  • outubro 2021
  • setembro 2021
  • agosto 2021
  • julho 2021
  • junho 2021
  • maio 2021
  • abril 2021
  • março 2021
  • dezembro 2020
  • novembro 2020
  • outubro 2020
  • junho 2020
  • maio 2020
  • abril 2020
  • março 2020
  • novembro 2019
  • outubro 2019
  • setembro 2019
  • junho 2019
  • maio 2019
  • abril 2019
  • dezembro 2018
© 2022 - AVERA - Agência de Notícias Experimental da UNIFACS - Universidade Salvador (Bahia) | Todos os direitos reservados. | Theme: OMag by LilyTurf Themes