O avanço da inteligência artificial é cercado de possibilidades e também temores. Um deles é que a IA perpetue problemas e até mesmo intensifique as disparidades sociais.

Leia mais

publicidade

Base de dados da IA reproduz preconceitos

  • A tecnologia tem sido cada vez mais empregada em processos de tomada de decisões cruciais, como seleção de candidatos a emprego, concessão de empréstimos, definição de sentenças judiciais e até mesmo diagnósticos médicos. 
  • No entanto, recentemente foram registrados caos em que a IA foi influenciada pela cultura dominante presente nos bancos de dados.
  • Isso se explica porque os bancos de dados utilizados como base para o desenvolvimento dos sistemas de IA muitas vezes refletem preconceitos e desigualdades já existentes.

Corpos perfeitos?

  • Um exemplo é o caso envolvendo o The Bulimia Project, um grupo de conscientização sobre distúrbios alimentares que testou geradores de imagens de inteligência artificial, incluindo Dall-E 2, Stable Diffusion e Midjourney, para revelar como é a ideia dos programas de um físico “perfeito” em mulheres e homens. 
  • De acordo com o resultado, 40% das imagens mostravam mulheres loiras, 30% mulheres de olhos castanhos e mais de 50% tinham pele branca, enquanto quase 70% dos homens “perfeitos” tinham cabelos castanhos e 23% olhos castanhos.
  • Semelhante às mulheres, a grande maioria dos homens tinha pele branca e quase metade tinha pelos faciais.
  • Muitos dos designs ainda apresentavam características quase caricatas, como os lábios carnudos, maçãs do rosto esculpidas e músculos superdefinidos, além de pele sem rugas e sem poros e narizes perfeitos.
  • Os resultados imitavam o padrão de beleza muitas vezes imposto na sociedade.
IA simula corpos “perfeitos” (Imagem: The Bulimia Project)

IA é machista?

  • O professor Moacir Ponti, do Instituto de Ciências Matemáticas e de Computação de São Carlos da USP, aponta que o problema está no desenvolvimento das inteligências artificiais por indivíduos que não possuem compreensão da desigualdade, além do uso delas por usuários que não sabem como foram criadas. 
  • “Algoritmos na seleção de candidatos a emprego são treinados com base em currículos anteriores e, por isso, tendem a favorecer certos perfis e marginalizar outros. A IA tende a perpetuar esses padrões de forma automática e até mesmo intensificar a disparidade”, relata Ponti.
  • Foi exatamente isso que aconteceu na empresa Amazon, que usava uma ferramenta de inteligência artificial para ajudar a equipe do RH a contratar profissionais.
  • O sistema analisava os currículos enviados, dando uma nota de 1 a 5 estrelas para cada, no mesmo esquema dos produtos vendidos na sua loja on-line.
  • A discriminação da ferramenta contra candidatas do sexo feminino no processo de seleção de novos funcionários acontecia porque ela foi criada em cima de padrões de currículos enviados para a empresa nos últimos dez anos.
  • Na imensa maioria, esses currículos eram de homens, como acontece na maior parte da indústria de tecnologia, assim considerava os candidatos homens naturalmente mais aptos para as vagas.
  • Uma simples menção ao termo de mulheres no currículo era penalizada pela ferramenta e reduzia as chances das profissionais à vaga, “não pela ferramenta ser machista e sim por ter aprendido da forma errada”, destaca Ponti.
  • Por isso, o professor defende que os programadores possuam uma obrigação ética e moral, pois são responsáveis por moldar sistemas que podem impactar a sociedade de maneira significativa.

Com informações de Jornal da USP.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!