Quando a inteligência artificial erra: pesquisa mostra onde nascem as distorções nos modelos

A complexidade e simplificações da inteligência artificial podem gerar vieses que afetam milhões, criando injustiças mesmo em sistemas precisos
Por Valdir Antonelli, editado por Layse Ventura 05/12/2025 05h02
chatbot-vies-balanca-shutterstock_2257281789-1920x1017
Crédito: 3rdtimeluckystudio/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

A explosão de popularidade da inteligência artificial trouxe avanços incríveis, mas também preocupações sérias. Pesquisadores apontam a complexidade dos modelos como uma das principais raízes dos vieses que afetam milhões de usuários.

Um novo estudo revela que simplificações excessivas, falta de dados essenciais e ausência de consenso sobre “verdades fundamentais” podem gerar desigualdade mesmo em sistemas precisos, comenta o TechXplore.

A popularidade da IA aumenta, mas também cresce a preocupação com erros que afetam milhões de usuários.
A popularidade da IA aumenta, mas também cresce a preocupação com erros que afetam milhões de usuários. Imagem: Ole.CNX/Shutterstock

Quando o sucesso da IA vira problema

Em abril de 2025, o ChatGPT alcançou 1 bilhão de usuários ativos semanais, consolidando o uso massivo de IA no dia a dia. Mas, junto com essa adoção, surgiram casos reais de modelos que prejudicaram pacientes, mulheres e pessoas negras em processos médicos e corporativos. O estudo da Texas McCombs, publicado na MIS Quarterly, investigou essas falhas.

O viés pode ser um artefato dessa complexidade, e não outras explicações que as pessoas têm oferecido.

Hüseyin Tanriverdi, professor-associado de informação, risco e gestão de operações, em nota.

Com o pesquisador John-Patrick Akinyemi, Tanriverdi analisou 363 algoritmos já apontados como tendenciosos, comparando-os com versões similares consideradas neutras. O objetivo foi entender por que dois sistemas tão parecidos podiam gerar resultados tão diferentes.

Modelos simplificam situações complexas e podem rotular injustamente conteúdos como discurso de ódio.
Modelos simplificam situações complexas e podem rotular injustamente conteúdos como discurso de ódio. Crédito: Vitalii Vodolazskyi/Shutterstock

Onde nasce o viés nos algoritmos

Os autores identificaram três grandes pontos em que a falta de domínio da complexidade abre caminho para injustiças.

Ausência de uma “verdade fundamental”

Algoritmos às vezes precisam decidir sobre algo que nem especialistas humanos conseguem definir com precisão.

Exemplos mencionados no estudo incluem:

  • Estimativa de idade de ossos via raio-x sem referência médica padronizada.
  • Julgamento de discurso de ódio quando a comunidade está dividida.
  • Casos em que opiniões são tratadas como fatos objetivos.

Segundo Tanriverdi, “se não houver uma verdade fundamental bem estabelecida, a probabilidade de surgir viés aumenta significativamente”.

Ignorar a complexidade do mundo real

Para funcionar, os modelos de IA simplificam situações, o que pode gerar distorções graves. Um caso citado é o do Arkansas, que substituiu visitas de enfermeiros por decisões automatizadas no Medicaid. Como variáveis importantes ficaram de fora, pessoas com deficiência perderam suporte básico.

Em resumo, o algoritmo não representava adequadamente a realidade de quem dependia da assistência.

Falta de diversidade no desenvolvimento

Quando sistemas destinados a grandes populações são criados principalmente por um único grupo demográfico, os vieses tendem a aumentar.

Por isso, o estudo reforça a importância de envolver diferentes partes interessadas para identificar expectativas conflitantes e construir soluções mais equilibradas para todos.

Para reduzir vieses, algoritmos devem trabalhar com verdades bem definidas e variáveis que representem todos os usuários.
Para reduzir vieses, algoritmos devem trabalhar com verdades bem definidas e variáveis que representem todos os usuários. Imagem: Andrey_Popov/Shutterstock

Como reduzir os vieses na IA?

A pesquisa aponta caminhos que dependem menos de aumentar a precisão e mais de lidar com a realidade de forma completa.

Leia mais:

Para os pesquisadores, os modelos devem automatizar apenas tarefas baseadas em verdades bem definidas. Também é essencial incluir variáveis que representem pessoas e contextos reais e garantir diversidade no desenvolvimento para evitar pontos cegos.

“Essas são as peças que faltam e que os cientistas de dados parecem estar procurando”, explica Tanriverdi.

Para ele, tornar a IA mais justa exige compreender o mundo real em toda a sua complexidade e incluir nele todas as pessoas afetadas.

Valdir Antonelli
Colaboração para o Olhar Digital

Valdir Antonelli é jornalista com especialização em marketing digital e consumo.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.