O avanço da inteligência artificial é cercado de possibilidades e também temores. Um deles é que a IA perpetue problemas e até mesmo intensifique as disparidades sociais.
Leia mais
publicidade
- Inteligência Artificial ainda reproduz preconceitos humanos, alertam especialistas
- Como uma inteligência artificial (IA) ‘aprende’?
- Inteligência artificial: conheça os pontos negativos e perigos da IA
Base de dados da IA reproduz preconceitos
- A tecnologia tem sido cada vez mais empregada em processos de tomada de decisões cruciais, como seleção de candidatos a emprego, concessão de empréstimos, definição de sentenças judiciais e até mesmo diagnósticos médicos.
- No entanto, recentemente foram registrados caos em que a IA foi influenciada pela cultura dominante presente nos bancos de dados.
- Isso se explica porque os bancos de dados utilizados como base para o desenvolvimento dos sistemas de IA muitas vezes refletem preconceitos e desigualdades já existentes.
Corpos perfeitos?
- Um exemplo é o caso envolvendo o The Bulimia Project, um grupo de conscientização sobre distúrbios alimentares que testou geradores de imagens de inteligência artificial, incluindo Dall-E 2, Stable Diffusion e Midjourney, para revelar como é a ideia dos programas de um físico “perfeito” em mulheres e homens.
- De acordo com o resultado, 40% das imagens mostravam mulheres loiras, 30% mulheres de olhos castanhos e mais de 50% tinham pele branca, enquanto quase 70% dos homens “perfeitos” tinham cabelos castanhos e 23% olhos castanhos.
- Semelhante às mulheres, a grande maioria dos homens tinha pele branca e quase metade tinha pelos faciais.
- Muitos dos designs ainda apresentavam características quase caricatas, como os lábios carnudos, maçãs do rosto esculpidas e músculos superdefinidos, além de pele sem rugas e sem poros e narizes perfeitos.
- Os resultados imitavam o padrão de beleza muitas vezes imposto na sociedade.
IA é machista?
- O professor Moacir Ponti, do Instituto de Ciências Matemáticas e de Computação de São Carlos da USP, aponta que o problema está no desenvolvimento das inteligências artificiais por indivíduos que não possuem compreensão da desigualdade, além do uso delas por usuários que não sabem como foram criadas.
- “Algoritmos na seleção de candidatos a emprego são treinados com base em currículos anteriores e, por isso, tendem a favorecer certos perfis e marginalizar outros. A IA tende a perpetuar esses padrões de forma automática e até mesmo intensificar a disparidade”, relata Ponti.
- Foi exatamente isso que aconteceu na empresa Amazon, que usava uma ferramenta de inteligência artificial para ajudar a equipe do RH a contratar profissionais.
- O sistema analisava os currículos enviados, dando uma nota de 1 a 5 estrelas para cada, no mesmo esquema dos produtos vendidos na sua loja on-line.
- A discriminação da ferramenta contra candidatas do sexo feminino no processo de seleção de novos funcionários acontecia porque ela foi criada em cima de padrões de currículos enviados para a empresa nos últimos dez anos.
- Na imensa maioria, esses currículos eram de homens, como acontece na maior parte da indústria de tecnologia, assim considerava os candidatos homens naturalmente mais aptos para as vagas.
- Uma simples menção ao termo de mulheres no currículo era penalizada pela ferramenta e reduzia as chances das profissionais à vaga, “não pela ferramenta ser machista e sim por ter aprendido da forma errada”, destaca Ponti.
- Por isso, o professor defende que os programadores possuam uma obrigação ética e moral, pois são responsáveis por moldar sistemas que podem impactar a sociedade de maneira significativa.
Com informações de Jornal da USP.
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!