Inteligência artificial pode desumanizar processo seletivo (Créditos: Jovanmandic / iStock)
Uma recente pesquisa da USP revela os impactos da adoção da inteligência artificial (IA) em processos seletivos. Segundo o estudo, detalhado no Jornal da USP e defendido no doutorado da pesquisadora Humberta Silva, apesar da maior agilidade, padronização e redução de custos, o uso da IA traz desafios importantes – como vieses algorítmicos, discriminação, redução da diversidade organizacional e desumanização da experiência dos candidatos.
O trabalho aponta ainda que o papel dos recrutadores vem se modificando: eles passam da decisão para a supervisão dos sistemas automatizados.
A tese detalha que a IA, apesar de seus benefícios, não é neutra, pois reflete os vieses presentes nos dados e nos programadores. Isso pode reproduzir desigualdades sociais e dificultar a análise subjetiva das capacidades dos candidatos. Humberta Silva alerta:
“O processo está mais distante e desumanizado. Com isso, há limitações para uma análise precisa das capacidades do candidato pela dificuldade em identificar aspectos subjetivos.”
Entre os principais problemas identificados no estudo, destacam-se:
A pesquisa indica que a solução envolve supervisão humana, ética e sensibilidade ao contexto social para evitar a reprodução de desigualdades estruturais.
Para isso, destaca:
Leia mais:
Além disso, a pesquisa ressalta o impacto negativo da desigualdade no acesso à tecnologia, especialmente no Brasil, onde muitos candidatos ficam automaticamente excluídos por critérios automatizados pouco transparentes ou culturalmente restritos.
A tese de Humberta Silva, defendida na Faculdade de Economia, Administração, Contabilidade e Atuária (FEA) da USP, envolve uma análise qualitativa detalhada de estudos comunitários e múltiplos casos no Brasil e na Alemanha, utilizando metodologias de codificação avançada para mapear consequências práticas e éticas do uso da inteligência artificial em recursos humanos.
Esta post foi modificado pela última vez em 25 de julho de 2025 17:01