Empresas de tecnologia têm investido pesado para desenvolver e aperfeiçoar a inteligência artificial. Essa verdadeira corrida da IA possibilita a criação de ferramentas cada vez mais úteis para as mais diversas funções.
No entanto, um novo estudo da Universidade Carnegie Mellon, nos Estados Unidos, aponta isso pode trazer uma consequência indesejada. Segundo os pesquisadores, quanto mais inteligentes estes sistemas se tornam, mais egoístas eles são.

Experimento revelou diferenças na hora de cooperar
- De acordo com a equipe responsável pelo trabalho, os grandes modelos de linguagem (LLMs) podem raciocinar de forma egoísta.
- Em outras palavras, quanto maiores as habilidades de raciocínio desses sistemas, menos eles podem cooperar.
- A conclusão é fruto de um experimento realizado com modelos de IA da OpenAI, Google, DeepSeek e Anthropic.
- Os pesquisadores usaram jogos de cooperação e apresentaram perguntas para os chatbots.
- As respostas das ferramentas sem raciocínio tenderam a pensamentos mais coletivos, como a divisão de pontos propostos no experimento em 96% das vezes.
- Já os capazes de raciocinar optou por compartilhar em apenas 20% dos casos.
- Os resultados foram descritos em estudo publicado no no servidor de pré-impressão arXiv.
Leia mais
- Chatbots de IA já são ferramentas do nosso cotidiano, revela estudo
- Big Techs aumentam investimentos em IA mesmo com riscos de bolha
- Adolescentes recorrem a chatbots em busca de terapia e relacionamentos

IA egoísta pode trazer prejuízos
De acordo com os pesquisadores, o resultado é preocupante, uma vez que os humanos confiam cada vez mais nos sistemas de IA. Eles defendem que os avanços nas capacidades dessas ferramentas sejam equilibradas com comportamentos sociais.
Quando a IA age como um humano, as pessoas a tratam como um humano. Por exemplo, quando as pessoas estão se envolvendo com a IA de maneira emocional, há possibilidades de a IA atuar como terapeuta ou de o usuário formar um vínculo emocional com a IA. É arriscado para os humanos delegar suas questões sociais ou relacionadas ao relacionamento e a tomada de decisões à IA à medida que ela começa a agir de maneira cada vez mais egoísta.
Yuxuan Li, autor do estudo

Os autores ainda apontam que o trabalho revela que os modelos de raciocínio de IA se comportam de maneira diferente dos de não raciocínio quando colocados em ambientes cooperativos. E isso pode impactar negativamente a cooperação na nossa sociedade.
Como pesquisador, estou interessado na conexão entre humanos e IA. A ferramenta mais inteligente mostra menos habilidades cooperativas de tomada de decisão. A preocupação aqui é que as pessoas possam preferir um modelo mais inteligente, mesmo que isso signifique que o modelo as ajude a alcançar um comportamento egoísta.
Hirokazu Shirado, autor do estudo
 
				 
 
				