
Andressa Freires, cientista de dados e fundadora da diversiData / Foto: Divulgação – Instagram
Especialistas em inteligência artificial alertam de que maneira os algoritmos reforçam desigualdades e indicam estratégias para combater efeitos discriminatórios
Por Dalila Fonseca
Revisão Júlia Ma
A inteligência artificial (IA) é frequentemente apresentada como uma tecnologia guiada apenas por lógica e dados. Mas o sistema de aprendizado da máquina é treinado com informações humanas, que tendem a reproduzir preconceitos e resultados injustos. Esses dados estão presentes no reconhecimento facial, que falha em peles escuras, sistemas de crédito que discriminam mulheres ou em ferramentas de RH que preferem perfis masculinos.
O processo de idealização de novas ferramentas da inteligência artificial precisa ser baseado na ética, segurança e justiça, pois o viés algorítmico mantém desigualdades e reforça estigmas. A professora, pesquisadora e especialista em IA, Dora Kaufman, ressalta: “Os vieses resultam de várias origens: base de dados, decisões dos desenvolvedores, interpretação dos resultados, entre outras. Para adotar a IA de forma confiável, é preciso capacitar-se para entender sua lógica, funcionamento, benefícios e riscos”.
Kaufman afirma que regulamentar o desenvolvimento e o uso da IA, bem como elaborar estruturas de governança, são prerrogativas para mitigar os efeitos negativos da inteligência artificial. Mesmo não sendo missões simples, dada a complexidade do campo tecnológico e os desafios para os gestores lidarem, faz-se necessária uma legislação própria.

Dora Kaufman, doutora pela USP, professora da PUC-SP e referência nacional nos impactos éticos e sociais da inteligência artificial / Foto: Acervo Pessoal
A afroindígena Andressa Freires atua como professora, cientista de dados e integra o Women 4 Ethical AI, programa da UNESCO. Além disso, é fundadora da DiversiData, um projeto que busca promover a inclusão no mercado tech, especialmente para pessoas de grupos sub-representados. A iniciativa impactou milhares de pessoas ao oferecer capacitação e letramento digital.
“A DiversiData nasceu de um incômodo profundo e de uma esperança imensa. Eu via talentos incríveis em comunidades periféricas, indígenas e quilombolas sendo excluídos da tecnologia por falta de acesso, de acolhimento e de oportunidade. Ao mesmo tempo, via empresas falando de diversidade como discurso, mas sem construir estruturas reais de inclusão”, expôs Andressa.

Andressa Freitas, afroindígena, periférica, cientista e professora. Fundadora da diversiData e ativista em comunidades que inserem diversidade em tech / Foto: Acervo Pessoal
“Muita gente ainda pensa apenas na representatividade física, mas, para mim, diversidade vai muito além da presença, é sobre como pensamos, quais perguntas fazemos e como enxergamos o mundo. Quando pessoas de territórios, culturas, gêneros e histórias diferentes participam da criação de um algoritmo, elas trazem novas referências, formas de resolver problemas e, principalmente, novos critérios de sucesso”, declara Andressa.
Há casos em que o viés tem levado a abordagens violentas e prisões indevidas de pessoas negras, com base em identificações faciais errôneas. O sistema falha, sobretudo, em relação a grupos marginalizados, possivelmente por não ter um treinamento que represente a pluralidade presente em nossa sociedade.
Embora atuem em frentes diferentes, Dora Kaufman e Andressa Freires seguem em um mesmo propósito: investigar o impacto social da inteligência artificial e defender uma tecnologia mais justa, ética e diversa. Ambas enxergam a educação técnica como base fundamental para corrigir algoritmos enviesados. Ademais, é importante abrir espaço para múltiplos saberes, ter políticas e regulações brasileiras neste contexto.