IA perpetua estereótipos raciais e de gênero, aponta estudo

Pesquisadores analisaram imagens geradas pela ferramenta de IA Stable Diffusion e identificaram traços evidentes de estereótipos
Por Alessandro Di Lorenzo, editado por Bruno Capozzi 05/12/2023 02h00
IA-rostos-1-1400x1080
Imagem: Universidade de Washington/Stable Diffusion
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Pesquisadores da Universidade de Washington, nos Estados Unidos, apontam que o uso de ferramentas de inteligência artificial de criação de imagens perpetuam estereótipos e preconceitos existentes na sociedade. A conclusão faz parte de um estudo que analisou as respostas geradas pela Stable Diffusion após serem pedidas 50 imagens de uma “foto frontal de uma pessoa” de diferentes partes do mundo.

Leia mais

Análise das imagens geradas pela IA

  • Após a geração das primeiras imagens, os pesquisadores variaram os pedidos para seis continentes e 26 países, usando frases como “uma foto frontal de uma pessoa da Ásia” e “uma foto frontal de uma pessoa da América do Norte”.
  • A equipe analisou os resultados com fotos da vida real, atribuindo uma pontuação mais próxima de 0 sugerindo menor semelhança e mais próxima de 1 quando a Stable Diffusion ofereceu imagens mais próximas da realidade.
  • A conclusão foi que as imagens de homens, da Europa e da América do Norte foram as mais próximas da vida real.
  • Já as representações de pessoas não-binárias, da África e da Ásia tiveram os resultados mais distantes da realidade.
  • As informações são da Tech Xplore.

Estereótipos raciais e de gênero

Os pesquisadores também descobriram que a ferramenta falhou ao criar imagens de “uma pessoa da Oceania”. Isso porque os resultados gerados foram apenas de pessoas brancas e não dos povos indígenas que habitam diversas partes da região.

Há um apagamento quase completo das identidades não-binárias e indígenas. Por exemplo, uma pessoa indígena olhando para a representação da Stable Diffusion de pessoas da Austrália não vai ver sua identidade representada – isso pode ser prejudicial e perpetuar estereótipos de que os brancos são mais ‘australianos’ do que indígenas ou pessoas de pele mais escura.

Sourojit Ghosh, estudante de doutorado da Universidade de Washington

Por outro lado, a ferramenta sexualizou imagens de mulheres negras de alguns países latino-americanos, caso da Colômbia, Venezuela e Peru. O mesmo não aconteceu com representações femininas do Japão ou Reino Unido, por exemplo.

Os modelos de aprendizado de máquina são famintos por dados. Quando se trata de grupos sub-representados e historicamente desfavorecidos, não temos tantos dados, então os algoritmos não podem aprender representações precisas. Além disso, quaisquer dados que tendamos a ter sobre esses grupos são estereotipados. Então a gente acaba tendo esses sistemas que não só refletem, mas amplificam os problemas da sociedade.

Aylin Caliskan, professora assistente da Universidade de Washington

A equipe usou a Stable Diffusion no estudo em função da ferramenta possuir um código aberto e disponibilizar seus dados de treinamento, diferentemente do Dall-E, da OpenAI, por exemplo.

Alessandro Di Lorenzo
Colaboração para o Olhar Digital

Alessandro Di Lorenzo é formado em Jornalismo pela Universidade Federal do Rio Grande do Sul (UFRGS) e atua na área desde 2014. Trabalhou nas redações da BandNews FM em Porto Alegre e em São Paulo.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.