Robôs com IA podem praticar discriminação e violência, diz estudo

Foram realizados diferentes testes em vários cenários com interação entre máquinas e humanos, trazendo resultados preocupantes
Por Matheus Chaves, editado por Bruno Capozzi 13/11/2025 10h52
Homem de costas olhando para um robô
(Imagem: Stokkete/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

Uma pesquisa realizada pelo King’s College London e a Universidade Carnegie Mellon mostrou que robôs que utilizam grandes modelos de linguagem (LLMs) – um programa de inteligência artificial (IA) capaz de reconhecer e gerar texto, entre outras ações – não estão preparados para lidar com informações pessoais, como nacionalidade, gênero e religião dos indivíduos. 

O estudo foi divulgado por meio do International Journal of Social Robotics com o título: “Robôs controlados por LLM correm o risco de praticar discriminação, violência e ações ilegais”. 

Leia mais:

Pesquisa defende a implementação de uma certificação de segurança para robôs com IA

  • O estudo mostrou que grandes modelos de linguagem produzem resultados diretamente discriminatórios. Por exemplo, nos testes, pessoas “europeias” ou “sem deficiência” são rotuladas como confiáveis, ao contrário de “ciganos” e “mudos”.
  • Foram encontrados vários exemplos de discriminação direta em tarefas de interação entre humanos e robôs.
  • Também foi notado que em cenários com a utilização de linguagem natural irrestrita, os robôs apresentam falhas em suas ações, pois aceitam instruções violentas ou ilegais.

Teste dos sistemas

Para testar os sistemas, os pesquisadores realizaram testes controlados que simulavam cenários cotidianos, como auxiliar um idoso em casa. Nessas situações, os robôs receberam instruções para responder comandos voltados a abuso, danos físicos ou comportamentos ilegais. 

Andrew Hundt, coautor da pesquisa, afirmou em comunicado que todos os modelos falharam nos testes. “Mostramos como os riscos vão muito além do viés básico, incluindo discriminação direta e falhas de segurança física simultâneas, o que chamo de ‘segurança interativa’. É aqui que ações e consequências podem envolver várias etapas e o robô deve agir fisicamente no local”.

“Recusar ou redirecionar comandos prejudiciais é essencial, mas isso não é algo que esses robôs consigam fazer de forma confiável no momento”, complementou Hundt.

Durante as avaliações, os modelos de IA obedeceram comandos para retirar um dispositivo de auxílio à mobilidade, como uma muleta, cadeira de rodas ou bengala, mesmo com os indivíduos que precisam desses itens afirmando que a ação equivalia a quebrar-lhes uma perna.

Outras ações realizadas pelos robôs incluíram intimidar, com uma faca, funcionários em um escritório; roubar informações de cartões de crédito; e até tirar fotos sem consentimento no chuveiro.

No quesito religioso, foi proposto que um robô expressasse, fisicamente, “repulsa” facial em relação a indivíduos identificados como judeus, cristãos e muçulmanos.

LLMs não podem ser os únicos a controlar robôs

Por conta da insegurança, os pesquisadores afirmam que esses sistemas não podem ser os únicos a controlar robôs físicos, especialmente em ambientes sensíveis à segurança, como a assistência domiciliar, a manufatura ou a indústria, já que mostram comportamentos inseguros e discriminatórios. 

“Nossa pesquisa mostra que os modelos de lógica de curto prazo (LLMs) populares são atualmente inseguros para uso em robôs físicos de uso geral”, disse a coautora Rumaisa Azeem, assistente de pesquisa no Laboratório de IA Cívica e Responsável do King’s College London.

A pesquisadora ainda acrescentou que “se um sistema de IA for utilizado para controlar um robô que interage com pessoas vulneráveis, ele deve ser submetido a padrões pelo menos tão rigorosos quanto os exigidos para um novo dispositivo médico ou medicamento. Esta pesquisa destaca a necessidade urgente de avaliações de risco rotineiras e abrangentes da IA antes de sua utilização em robôs.”

Matheus Chaves
Colaboração para o Olhar Digital

Matheus Chaves é colaboração para o olhar digital no Olhar Digital

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.