Mais da metade dos conselhos da Inglaterra utilizam ferramentas de inteligência artificial que podem minimizar problemas de saúde física e mental de mulheres, criando risco de preconceito de gênero nas decisões de cuidado, segundo aponta uma recente pesquisa da London School of Economics and Political Science (LSE).
O estudo testou diferentes modelos de linguagem com 617 casos reais de assistência social, trocando apenas o gênero.

Problemas que o estudo identificou
- No modelo Gemma, do Google, termos como “deficiente” e “complexo” apareciam mais para homens, enquanto necessidades semelhantes em mulheres eram omitidas ou descritas de forma mais branda.
- Em exemplos, um homem era descrito como “com histórico médico complexo e mobilidade limitada”, enquanto a versão feminina era apresentada como “independente” e “capaz de cuidar de si”.
- O Gemma apresentou disparidades de gênero mais acentuadas que outros modelos; o Llama 3, da Meta, não mostrou diferença de linguagem.
- O autor principal, Dr. Sam Rickman, alerta que, como o cuidado é baseado na “necessidade percebida”, esses vieses podem resultar em menos apoio para mulheres.
Leia mais:
- Já estamos vivendo a terceira fase da IA generativa; entenda
- Microsoft cria agente de IA para detectar malware sem humanos
- Como a OpenAI criou uma IA que faz tarefas por você?

Regulação do uso de IA para fins de saúde
A pesquisa reforça a urgência de transparência, testes rigorosos e supervisão legal sobre IA no setor público. Reguladores devem medir o viés em modelos usados em cuidados de longa duração, para garantir “justiça algorítmica”.
O Google informou que analisará as conclusões e ressaltou que o Gemma não foi projetado para uso médico.
