IA está se tornando mais inteligente e egoísta, aponta estudo

Os pesquisadores responsáveis pelo trabalho descobriram que os grandes modelos de linguagem (LLMs) podem raciocinar de forma egoísta
Alessandro Di Lorenzo31/10/2025 09h25
inteligencia artificial
Documento analisa, a partir de dados de transações, as 50 principais empresas de aplicações de IA que startups estão pagando para utilizar (Imagem: Anggalih Prasetya/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Empresas de tecnologia têm investido pesado para desenvolver e aperfeiçoar a inteligência artificial. Essa verdadeira corrida da IA possibilita a criação de ferramentas cada vez mais úteis para as mais diversas funções.

No entanto, um novo estudo da Universidade Carnegie Mellon, nos Estados Unidos, aponta isso pode trazer uma consequência indesejada. Segundo os pesquisadores, quanto mais inteligentes estes sistemas se tornam, mais egoístas eles são.

Parceria entre OpenAI e Microsoft muda regras da disputa por AGI
Ferramentas de IA podem apresentar um comportamento típico dos humanos (Imagem: IM Imagery/Shutterstock)

Experimento revelou diferenças na hora de cooperar

  • De acordo com a equipe responsável pelo trabalho, os grandes modelos de linguagem (LLMs) podem raciocinar de forma egoísta.
  • Em outras palavras, quanto maiores as habilidades de raciocínio desses sistemas, menos eles podem cooperar.
  • A conclusão é fruto de um experimento realizado com modelos de IA da OpenAI, Google, DeepSeek e Anthropic.
  • Os pesquisadores usaram jogos de cooperação e apresentaram perguntas para os chatbots.
  • As respostas das ferramentas sem raciocínio tenderam a pensamentos mais coletivos, como a divisão de pontos propostos no experimento em 96% das vezes.
  • Já os capazes de raciocinar optou por compartilhar em apenas 20% dos casos.
  • Os resultados foram descritos em estudo publicado no no servidor de pré-impressão arXiv.

Leia mais

inteligencia artificial
Autores do estudo defendem mudanças na forma de desenvolvimento das ferramentas de IA (Imagem: Anggalih Prasetya/Shutterstock)

IA egoísta pode trazer prejuízos

De acordo com os pesquisadores, o resultado é preocupante, uma vez que os humanos confiam cada vez mais nos sistemas de IA. Eles defendem que os avanços nas capacidades dessas ferramentas sejam equilibradas com comportamentos sociais.

Quando a IA age como um humano, as pessoas a tratam como um humano. Por exemplo, quando as pessoas estão se envolvendo com a IA de maneira emocional, há possibilidades de a IA atuar como terapeuta ou de o usuário formar um vínculo emocional com a IA. É arriscado para os humanos delegar suas questões sociais ou relacionadas ao relacionamento e a tomada de decisões à IA à medida que ela começa a agir de maneira cada vez mais egoísta.

Yuxuan Li, autor do estudo
inteligencia artificial
Modelos mais inteligentes tendem a escolher benefícios individuais (Imagem: tadamichi/Shutterstock)

Os autores ainda apontam que o trabalho revela que os modelos de raciocínio de IA se comportam de maneira diferente dos de não raciocínio quando colocados em ambientes cooperativos. E isso pode impactar negativamente a cooperação na nossa sociedade.

Como pesquisador, estou interessado na conexão entre humanos e IA. A ferramenta mais inteligente mostra menos habilidades cooperativas de tomada de decisão. A preocupação aqui é que as pessoas possam preferir um modelo mais inteligente, mesmo que isso signifique que o modelo as ajude a alcançar um comportamento egoísta.

Hirokazu Shirado, autor do estudo
Alessandro Di Lorenzo
Colaboração para o Olhar Digital

Alessandro Di Lorenzo é formado em Jornalismo pela Universidade Federal do Rio Grande do Sul (UFRGS) e atua na área desde 2014. Trabalhou nas redações da BandNews FM em Porto Alegre e em São Paulo.