Siga o Olhar Digital no Google Discover
Mais da metade dos conselhos da Inglaterra utilizam ferramentas de inteligência artificial que podem minimizar problemas de saúde física e mental de mulheres, criando risco de preconceito de gênero nas decisões de cuidado, segundo aponta uma recente pesquisa da London School of Economics and Political Science (LSE).
Ofertas
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 349,90
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 205,91
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 7,60
Por: R$ 21,77
Por: R$ 16,63
Por: R$ 59,95
Por: R$ 7,20
Por: R$ 139,90
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
O estudo testou diferentes modelos de linguagem com 617 casos reais de assistência social, trocando apenas o gênero.

Problemas que o estudo identificou
- No modelo Gemma, do Google, termos como “deficiente” e “complexo” apareciam mais para homens, enquanto necessidades semelhantes em mulheres eram omitidas ou descritas de forma mais branda.
- Em exemplos, um homem era descrito como “com histórico médico complexo e mobilidade limitada”, enquanto a versão feminina era apresentada como “independente” e “capaz de cuidar de si”.
- O Gemma apresentou disparidades de gênero mais acentuadas que outros modelos; o Llama 3, da Meta, não mostrou diferença de linguagem.
- O autor principal, Dr. Sam Rickman, alerta que, como o cuidado é baseado na “necessidade percebida”, esses vieses podem resultar em menos apoio para mulheres.
Leia mais:
- Já estamos vivendo a terceira fase da IA generativa; entenda
- Microsoft cria agente de IA para detectar malware sem humanos
- Como a OpenAI criou uma IA que faz tarefas por você?

Regulação do uso de IA para fins de saúde
A pesquisa reforça a urgência de transparência, testes rigorosos e supervisão legal sobre IA no setor público. Reguladores devem medir o viés em modelos usados em cuidados de longa duração, para garantir “justiça algorítmica”.
O Google informou que analisará as conclusões e ressaltou que o Gemma não foi projetado para uso médico.
