Siga o Olhar Digital no Google Discover
A explosão de popularidade da inteligência artificial trouxe avanços incríveis, mas também preocupações sérias. Pesquisadores apontam a complexidade dos modelos como uma das principais raízes dos vieses que afetam milhões de usuários.
Um novo estudo revela que simplificações excessivas, falta de dados essenciais e ausência de consenso sobre “verdades fundamentais” podem gerar desigualdade mesmo em sistemas precisos, comenta o TechXplore.

Quando o sucesso da IA vira problema
Em abril de 2025, o ChatGPT alcançou 1 bilhão de usuários ativos semanais, consolidando o uso massivo de IA no dia a dia. Mas, junto com essa adoção, surgiram casos reais de modelos que prejudicaram pacientes, mulheres e pessoas negras em processos médicos e corporativos. O estudo da Texas McCombs, publicado na MIS Quarterly, investigou essas falhas.
O viés pode ser um artefato dessa complexidade, e não outras explicações que as pessoas têm oferecido.
Hüseyin Tanriverdi, professor-associado de informação, risco e gestão de operações, em nota.
Com o pesquisador John-Patrick Akinyemi, Tanriverdi analisou 363 algoritmos já apontados como tendenciosos, comparando-os com versões similares consideradas neutras. O objetivo foi entender por que dois sistemas tão parecidos podiam gerar resultados tão diferentes.

Onde nasce o viés nos algoritmos
Os autores identificaram três grandes pontos em que a falta de domínio da complexidade abre caminho para injustiças.
Ausência de uma “verdade fundamental”
Algoritmos às vezes precisam decidir sobre algo que nem especialistas humanos conseguem definir com precisão.
Exemplos mencionados no estudo incluem:
- Estimativa de idade de ossos via raio-x sem referência médica padronizada.
- Julgamento de discurso de ódio quando a comunidade está dividida.
- Casos em que opiniões são tratadas como fatos objetivos.
Segundo Tanriverdi, “se não houver uma verdade fundamental bem estabelecida, a probabilidade de surgir viés aumenta significativamente”.
Ignorar a complexidade do mundo real
Para funcionar, os modelos de IA simplificam situações, o que pode gerar distorções graves. Um caso citado é o do Arkansas, que substituiu visitas de enfermeiros por decisões automatizadas no Medicaid. Como variáveis importantes ficaram de fora, pessoas com deficiência perderam suporte básico.
Em resumo, o algoritmo não representava adequadamente a realidade de quem dependia da assistência.
Falta de diversidade no desenvolvimento
Quando sistemas destinados a grandes populações são criados principalmente por um único grupo demográfico, os vieses tendem a aumentar.
Por isso, o estudo reforça a importância de envolver diferentes partes interessadas para identificar expectativas conflitantes e construir soluções mais equilibradas para todos.

Como reduzir os vieses na IA?
A pesquisa aponta caminhos que dependem menos de aumentar a precisão e mais de lidar com a realidade de forma completa.
Leia mais:
- Quando a IA julga pela capa: modelos de IA se tornam tendenciosos ao saber a fonte
- OpenAI tenta reduzir viés político no ChatGPT e promete modelo mais neutro
- “Não existe viés”: CEO da Wikipédia responde a ataques de Musk e de cofundador dissidente
Para os pesquisadores, os modelos devem automatizar apenas tarefas baseadas em verdades bem definidas. Também é essencial incluir variáveis que representem pessoas e contextos reais e garantir diversidade no desenvolvimento para evitar pontos cegos.
“Essas são as peças que faltam e que os cientistas de dados parecem estar procurando”, explica Tanriverdi.
Para ele, tornar a IA mais justa exige compreender o mundo real em toda a sua complexidade e incluir nele todas as pessoas afetadas.