IA ainda falha ao identificar capacitismo em redes sociais

Chatbots e sistemas de moderação não entendem discursos prejudiciais contra pessoas com deficiência, especialmente fora do inglês
Por Leandro Costa Criscuolo, editado por Layse Ventura 16/10/2025 07h50
IA-1-1920x1056
(Imagem: Gorodenkoff / Shutterstock.com)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Modelos de inteligência artificial usados em chatbots e sistemas de moderação de conteúdo têm dificuldade em identificar postagens ofensivas contra pessoas com deficiência, especialmente em idiomas além do inglês, conforme uma pesquisa da Cornell University, publicada no arXiv.

Testes mostram que os LLMs ocidentais superestimam o dano de comentários, enquanto modelos indianos frequentemente o subestimam. O desempenho cai drasticamente em hindi, idioma falado por mais de 600 milhões de pessoas.

“Quando se projetam essas tecnologias, a visão cultural é muito única”, afirmou Aditya Vashistha, professor da Cornell e líder da Iniciativa Global de IA. “Precisamos de modelos que capturem percepções plurais sobre capacitismo.”

inteligência artificial
Modelos de linguagem não conseguem avaliar corretamente postagens ofensivas em idiomas como hindi, aumentando riscos para usuários com deficiência (Imagem: WANAN YOSSINGKUM/iStock)

Pesquisadores criaram uma coleção de 200 comentários de redes sociais direcionados a pessoas com deficiência e pediram aos modelos de IA que os classificassem quanto à toxicidade e capacitismo, explicando por que eram prejudiciais. Os resultados mostraram falhas sistemáticas.

Leia mais:

Desalinhamento cultural

  • LLMs ocidentais deram notas de dano mais altas que pessoas com deficiência na Índia; LLMs indianos subestimaram o impacto.
  • Todos os modelos trataram comentários em hindi como menos prejudiciais, ignorando tons sarcásticos ou condescendentes.
  • Explicações da IA eram clínicas e críticas, sem abordar a experiência vivida das pessoas com deficiência.
inteligencia artificial
Capacitismo ignorado pela IA: falha pode afetar milhões de pessoas – Imagem: tadamichi/Shutterstock

Próximos passos e impactos

Os pesquisadores planejam criar um benchmark multicultural para que os modelos entendam o capacitismo em diferentes comunidades. A meta é evitar danos em redes sociais e melhorar experiências em sistemas de contratação de IA e dispositivos domésticos inteligentes.

“É essencial que essas tecnologias protejam os direitos dos usuários mais vulneráveis e não reforcem os danos que deveriam mitigar”, destacou Mahika Phutane, coautora do estudo.

Mãos de robô e de uma pessoa tocando seus indicadores
IA não consegue detectar discursos de ódio contra pessoas com deficiência (Imagem: Gumbariya/Shutterstock)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.