Google lança IA que detecta emoções em imagens, mas gera preocupações

Especialistas alertam para riscos de viés e discriminação no uso de modelos de IA que interpretam emoções, especialmente em contextos sensíveis
Por Leandro Costa Criscuolo, editado por Gabriel Sérvio 05/12/2024 19h20, atualizada em 06/01/2025 19h21
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

O Google anunciou uma nova família de modelos de IA, o PaliGemma 2, que pode “identificar” emoções em imagens, gerando legendas detalhadas e respondendo perguntas sobre as pessoas nas fotos.

Embora esse recurso de detecção emocional ainda precise ser ajustado, ele gerou preocupações entre especialistas, que alertam para os riscos de confiar em uma IA para “ler” emoções.

A ideia de detectar emoções com IA tem sido tentada por várias empresas, mas a ciência por trás disso é instável.

Muitos sistemas de detecção de emoções se baseiam no trabalho de Paul Ekman, que sugeriu que todos os seres humanos compartilham seis emoções básicas, mas estudos recentes questionaram essa teoria, apontando diferenças significativas nas expressões emocionais de pessoas de diferentes origens.

Criminosos usam IA para burlar reconhecimento facial
IA poderia reconhecer emoções através de expressões faciais, mas o método é questionável – Imagem: Shutterstock/Image Flow

Detecção de emoções por IA pode ser prejudicial

  • A detecção de emoções tem se mostrado inconsistente e tendenciosa, o que tem levado a crescentes preocupações.
  • Estudos já mostraram que modelos podem interpretar expressões de maneira diferente dependendo de fatores como etnia.
  • O Google afirma ter feito testes para minimizar viés no PaliGemma 2, mas alguns pesquisadores criticam os métodos usados.

Especialistas também alertam que a interpretação de emoções vai além das expressões faciais e depende de contextos pessoais e culturais. A preocupação é que, se mal implementada, a tecnologia possa ser usada de forma prejudicial, discriminando grupos marginalizados, especialmente em contextos como aplicação da lei ou recursos humanos.

Embora o Google afirme ter feito testes éticos e de segurança, a comunidade continua cética quanto ao impacto desses modelos em uma sociedade cada vez mais dependente da IA.

Leia mais

Especialistas consideram perigoso confiar na capacidade de IAs detectarem emoções corretamente – Imagem: Yuichiro Chino/Shutterstock
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Gabriel Sérvio é formado em Comunicação Social pelo Centro Universitário Geraldo Di Biase e faz parte da redação do Olhar Digital desde 2020.