Notícias Avera
  • Home
  • Cidade
  • Cultura
  • Unifacs
    • Destaques da Facs
    • Curto-Circuito
    • Especial ABAPA
    • Jornada Social Media
  • Esportes
  • Saúde
  • Negócios
  • Expediente
  • Home
  • Destaque
  • Tecnologia/Opinião: “Você não foi selecionado”: como a inteligência artificial está moldando — e excluindo — trabalhadores no Brasil

Tecnologia/Opinião: “Você não foi selecionado”: como a inteligência artificial está moldando — e excluindo — trabalhadores no Brasil

Da Redação
6 de maio de 20256 de maio de 2025 No Comments
AVERA Jornalismo

Imagem: Pexels / Pixabay

O digital promete eficiência, mas escancara desigualdades: decisões automatizadas silenciam vozes periféricas antes mesmo da entrevista.

Por Matheus Tarrão

Revisão Júlia Ma

Hoje em dia é comum receber mensagens automáticas nos processos seletivos, muitas vezes é gerado por sistemas de inteligência artificial que eliminam candidatos antes que qualquer ser humano leia suas informações.

De acordo com estudo da Fundação Getulio Vargas (FGV), o uso da Inteligência Artificial (IA) para triagem de currículos já é uma prática consolidada em grandes empresas no Brasil. O problema é que esses sistemas não são neutros: eles reproduzem padrões baseados em dados históricos que muitas vezes carregam viés social, racial, de gênero e territorial.

Para o analista de sistemas, José Eduardo M. da Silva, a IA, quando aplicada com parâmetros técnicos, “seria mais imparcial na escolha, a menos que seja orientada por um empregador a aplicar algum viés em sua decisão”. Ele alerta que o viés pode existir, sim, mas que humanos também carregam influências subjetivas que a IA poderia mitigar.

Imagem: Ashutosh Goyal / Pixabay

Algoritmos que aprendem com a desigualdade

A IA, quando treinada com dados enviesados, tende a repetir as exclusões já existentes. A Revista Seqüência (UFSC) explica que, “algoritmos aprendem com decisões passadas, que muitas vezes foram construídas sobre bases sociais discriminatórias”.

Além dos processos seletivos, trabalhadores de aplicativos como iFood e Uber também sofrem com desativações automáticas, muitas vezes sem justificativa clara ou sem canal para contestação. Essa automatização da vigilância e da penalização é tratada em estudo da Revista do Tribunal Superior do Trabalho, que relaciona a prática à precarização e à ausência de diálogo humano nos processos.

O impacto para quem está nas margens

Mulheres, pessoas negras, trans e periféricas são as mais atingidas por esse tipo de exclusão silenciosa. Segundo artigo da Revista GERESE, muitos candidatos são descartados apenas por não usarem as palavras-chave corretas nos currículos ou por morarem em regiões distantes dos centros urbanos.

Apesar disso, José Eduardo destaca que o uso da IA no monitoramento, por exemplo, pode gerar estresse excessivo se for aplicada de forma rígida: “A IA pode ser implacável e detectar os padrões mais sutis. Isto elevaria bastante o nível de estresse dos funcionários e poderia afetar seu desempenho”. Para ele, a tecnologia precisa estar a serviço da produtividade, e não da perseguição.

Imagem: Alexandre C. Fukugava / Pixabay

Quando o algoritmo reflete o preconceito

No artigo “O uso de algoritmos no viés da seleção profissional”, publicado pelo Ministério Público do Trabalho, o jurista Douglas Belanda alerta: algoritmos não apenas operam, mas reproduzem os preconceitos dos contextos em que são aplicados. Segundo ele:

“A discriminação algorítmica representa uma reprodução das preferências ou práticas recorrentes na empresa que o utiliza. Os algoritmos não agem de forma involuntária”. O artigo também reforça que, sem controle e revisão humana, sistemas de IA utilizados em processos seletivos podem violar princípios constitucionais de isonomia e dignidade da pessoa humana.

“Ela serve como um acelerador e facilitador de tarefas e também é usada para testes e verificações, reduzindo a quantidade de incidentes”, explica José, e também acredita que o maior risco está na falta de ética de quem programa ou aplica a tecnologia.

Imagem: Markus Winkler / Pixabay

A ausência de leis claras

A Lei Geral de Proteção de Dados (LGPD) ainda não cobre de maneira eficiente o uso de inteligência artificial nas decisões de contratação. Embora a LGPD determine que decisões automatizadas devem ser transparentes e revisadas, na prática, isso raramente ocorre.

Segundo o analista, a IA não deveria ser usada para pressionar ou vigiar funcionários, e a legislação precisa proteger postos de trabalho para evitar demissões em massa. A ausência de regulamentações claras pode transformar a eficiência em ferramenta de exclusão.

Coletivos como o Data Privacy Brasil e Pretalab pressionam por regulação, exigindo que empresas informem como seus algoritmos funcionam, quais critérios são utilizados e se há intervenção humana na tomada de decisão.

Imagem: Gerd Altmann / Pixabay

O futuro do trabalho precisa incluir todo mundo

A inteligência artificial é uma ferramenta poderosa, mas precisa ser usada com responsabilidade social. No Brasil, onde a exclusão começa pelo CEP, automatizar a desigualdade é institucionalizar o preconceito sob a aparência de eficiência.

José Eduardo explica que se uma tecnologia garante produtividade, mas elimina empregos de perfis diversos, gerando prejuízo social. Empresas devem assumir o compromisso de treinar e realocar, e não simplesmente eliminar.

Caso a tecnologia não for desenvolvida com diversidade, auditada com ética e usada com justiça, corremos o risco de torná-la mais uma barreira — e não um caminho — para o direito ao trabalho digno.

Navegação de Post

Educação: Quando a esperança se faz presente
Liverpool e o “Scouse” – O orgulho e a Identidade de um povo.

Related Articles

AVERA cultura Jornalismo Salvador

Semana dos Museus: Conectando Passados, Criando Futuros

AVERA Curto Circuito UNIFACS

Curto-Circuito 2025: Protagonismo feminino revoluciona a comunicação

AVERA Curto Circuito UNIFACS

“A Bahia e o Mundo”: Abertura do Curto Circuito destaca a potência das mídias baianas

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Últimas

  • Meu Tempo é Agora: Exposição em Salvador celebra o centenário de Mãe Stella de Oxóssi
  • Semana dos Museus: Conectando Passados, Criando Futuros
  • CopaFacs: de campeonato universitário à Copa do Povo
  • Veja os destaques culturais neste fim de semana em Salvador
  • Felipe Fraga brilha em Interlagos e vence a etapa inaugural da nova era SUV na Stock Car
  • PPGA: Programa de Pós-Graduação em Administração da Unifacs promove a 13ª edição do Seminário Anual
  • Piastri conquista Miami, e abandono de Bortoleto adia sonho brasileiro
  • Cultura/Opinião: O Brasil pós-abolição: crítica, memória e resistência

ARQUIVO

  • maio 2025
  • abril 2025
  • dezembro 2024
  • novembro 2024
  • outubro 2024
  • setembro 2024
  • julho 2024
  • junho 2024
  • maio 2024
  • abril 2024
  • dezembro 2023
  • novembro 2023
  • outubro 2023
  • setembro 2023
  • agosto 2023
  • julho 2023
  • junho 2023
  • maio 2023
  • abril 2023
  • março 2023
  • fevereiro 2023
  • janeiro 2023
  • dezembro 2022
  • novembro 2022
  • outubro 2022
  • setembro 2022
  • agosto 2022
  • julho 2022
  • junho 2022
  • maio 2022
  • abril 2022
  • fevereiro 2022
  • dezembro 2021
  • novembro 2021
  • outubro 2021
  • setembro 2021
  • agosto 2021
  • julho 2021
  • junho 2021
  • maio 2021
  • abril 2021
  • março 2021
  • dezembro 2020
  • novembro 2020
  • outubro 2020
  • junho 2020
  • maio 2020
  • abril 2020
  • março 2020
  • novembro 2019
  • outubro 2019
  • setembro 2019
  • junho 2019
  • maio 2019
  • abril 2019
  • dezembro 2018
© 2022 - AVERA - Agência de Notícias Experimental da UNIFACS - Universidade Salvador (Bahia) | Todos os direitos reservados. | Theme: OMag by LilyTurf Themes