Imagem: Universidade de Washington/Stable Diffusion
Pesquisadores da Universidade de Washington, nos Estados Unidos, apontam que o uso de ferramentas de inteligência artificial de criação de imagens perpetuam estereótipos e preconceitos existentes na sociedade. A conclusão faz parte de um estudo que analisou as respostas geradas pela Stable Diffusion após serem pedidas 50 imagens de uma “foto frontal de uma pessoa” de diferentes partes do mundo.
Leia mais
Os pesquisadores também descobriram que a ferramenta falhou ao criar imagens de “uma pessoa da Oceania”. Isso porque os resultados gerados foram apenas de pessoas brancas e não dos povos indígenas que habitam diversas partes da região.
Há um apagamento quase completo das identidades não-binárias e indígenas. Por exemplo, uma pessoa indígena olhando para a representação da Stable Diffusion de pessoas da Austrália não vai ver sua identidade representada – isso pode ser prejudicial e perpetuar estereótipos de que os brancos são mais ‘australianos’ do que indígenas ou pessoas de pele mais escura.
Sourojit Ghosh, estudante de doutorado da Universidade de Washington
Por outro lado, a ferramenta sexualizou imagens de mulheres negras de alguns países latino-americanos, caso da Colômbia, Venezuela e Peru. O mesmo não aconteceu com representações femininas do Japão ou Reino Unido, por exemplo.
Os modelos de aprendizado de máquina são famintos por dados. Quando se trata de grupos sub-representados e historicamente desfavorecidos, não temos tantos dados, então os algoritmos não podem aprender representações precisas. Além disso, quaisquer dados que tendamos a ter sobre esses grupos são estereotipados. Então a gente acaba tendo esses sistemas que não só refletem, mas amplificam os problemas da sociedade.
Aylin Caliskan, professora assistente da Universidade de Washington
A equipe usou a Stable Diffusion no estudo em função da ferramenta possuir um código aberto e disponibilizar seus dados de treinamento, diferentemente do Dall-E, da OpenAI, por exemplo.
Esta post foi modificado pela última vez em 4 de dezembro de 2023 12:22