IA usada na saúde pode negligenciar mulheres, diz estudo

Pesquisa da LSE aponta que modelo Gemma descreve necessidades femininas de forma mais branda, podendo reduzir o acesso a cuidados
Leandro Costa Criscuolo12/08/2025 07h10, atualizada em 01/09/2025 19h54
Holograma de cabeça digital saindo de um tablet segurado por uma pessoa
(Imagem: sdecoret/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Mais da metade dos conselhos da Inglaterra utilizam ferramentas de inteligência artificial que podem minimizar problemas de saúde física e mental de mulheres, criando risco de preconceito de gênero nas decisões de cuidado, segundo aponta uma recente pesquisa da London School of Economics and Political Science (LSE).

O estudo testou diferentes modelos de linguagem com 617 casos reais de assistência social, trocando apenas o gênero.

Pessoa com um tablet na mão direita toca, com a mão esquerda, em um símbolo da Cruz Vermelha tridimensional
Problemas de saúde em mulheres foram minimizados por IA do Google (Imagem: raker/Shutterstock)

Problemas que o estudo identificou

  • No modelo Gemma, do Google, termos como “deficiente” e “complexo” apareciam mais para homens, enquanto necessidades semelhantes em mulheres eram omitidas ou descritas de forma mais branda.
  • Em exemplos, um homem era descrito como “com histórico médico complexo e mobilidade limitada”, enquanto a versão feminina era apresentada como “independente” e “capaz de cuidar de si”.
  • O Gemma apresentou disparidades de gênero mais acentuadas que outros modelos; o Llama 3, da Meta, não mostrou diferença de linguagem.
  • O autor principal, Dr. Sam Rickman, alerta que, como o cuidado é baseado na “necessidade percebida”, esses vieses podem resultar em menos apoio para mulheres.

Leia mais:

Modelo analisou problemas semelhantes de homens e mulheres mostrando negligência nos casos femininos (Imagem: New Africa/Shutterstock)

Regulação do uso de IA para fins de saúde

A pesquisa reforça a urgência de transparência, testes rigorosos e supervisão legal sobre IA no setor público. Reguladores devem medir o viés em modelos usados em cuidados de longa duração, para garantir “justiça algorítmica”.

O Google informou que analisará as conclusões e ressaltou que o Gemma não foi projetado para uso médico.

saúde IA
Descobertas do estudo ligam alerta para que o uso de IA na área da saúde seja feito com responsabilidade – Imagem: raker/Shutterstock
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.