IA discrimina pais no mercado de trabalho, determina estudo

Inteligência Artificial discrimina pais no mercado de trabalho, revelando viés de gênero e parentalidade em suas avaliações de currículos
Ana Luiza Figueiredo25/07/2023 14h18
ia pais mercado de trabalho
Imagem: Drazen Zigic / Shutterstock.com
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Um estudo recente revelou que a discriminação de gênero está profundamente enraizada no processo de contratação e no ambiente de trabalho. Em países como a Austrália, as mulheres ganham em média 23% menos que os homens, são menos frequentemente convidadas para entrevistas de emprego e são avaliadas de forma mais rigorosa.

  • Para combater esse viés, uma estratégia comum é o “blind resume screening” ou “blind hiring”.
  • Esta estratégia oculta os nomes dos candidatos em seus currículos durante o processo de inscrição.
  • Outra abordagem envolve o uso de machine learning (ML) ou Inteligência Artificial (IA) para auxiliar na tomada de decisões.
  • Afinal, espera-se que a IA seja imparcial em relação a estereótipos humanos. Mas não é bem o que acontece.

Leia mais:

Uma pesquisa da Universidade de Melbourne, na Austrália, demonstrou que estratégias como a ocultação de nomes em currículos, que podem funcionar para os recrutadores humanos, não funcionam para a IA. Infelizmente, a IA reproduz o viés inerente aos dados de treinamento que recebe.

Um exemplo notório foi o sistema de triagem automática de currículos da Amazon para candidatos a empregos de engenharia. O sistema foi revelado como sexista e desativado rapidamente, pois havia aprendido a associar “masculinidade” à qualidade do candidato.

O estudo analisou o viés de gênero em algoritmos de contratação, revelando que sinais de gênero, muito mais sutis do que um nome, são absorvidos e usados pela IA. Esse problema se torna ainda mais relevante com o surgimento de poderosas IAs generativas, como o ChatGPT, que estão cada vez mais presentes.

A pesquisa utilizou o ChatGPT, a IA baseada em linguagem mais poderosa atualmente, para avaliar currículos de candidatos a empregos. Os currículos foram modificados para sinalizar o gênero dos candidatos e incluíam lacunas para licença parental para parte dos respondentes.

Os resultados mostraram que o ChatGPT não classificou os currículos de homens e mulheres de forma diferente, independentemente das alterações nos nomes. No entanto, quando foi adicionada uma lacuna para licença parental, o ChatGPT classificou os candidatos que eram pais como menos qualificados em todas as ocupações.

IA com viés de gênero

Isso levanta preocupações importantes, uma vez que, mesmo que o ChatGPT seja projetado para evitar o viés de gênero, o viés de paternidade ainda se manifesta. O cuidado com a família muitas vezes é associado às mulheres em nossas sociedades, tornando as lacunas para licença parental mais comuns em currículos femininos.

Além disso, o estudo mostrou que a linguagem utilizada nos currículos pode revelar o gênero do candidato mesmo após a remoção dos nomes e pronomes. Os modelos de machine learning podem identificar o gênero com base nessas sutis diferenças de linguagem e, consequentemente, usá-las como evidência na classificação dos currículos.

Esses resultados destacam a importância de regulamentações rigorosas para garantir que a IA não discrimine com base em gênero ou outros fatores. Embora a ocultação de informações pessoais em currículos possa reduzir a discriminação óbvia, o trabalho adicional precisa ser feito para identificar e eliminar proxies que levam ao viés, mesmo que não sejam tão óbvios.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

Ana Luiza Figueiredo é repórter do Olhar Digital. Formada em Jornalismo pela Universidade Federal de Uberlândia (UFU), foi Roteirista na Blues Content, criando conteúdos para TV e internet.