Siga o Olhar Digital no Google Discover
A OpenAI revelou que mais de 400 milhões de pessoas usam o ChatGPT semanalmente e, em parceria com o MIT Media Lab, iniciou dois estudos para investigar o impacto emocional dessa interação.
Ofertas
Por: R$ 8,28
Por: R$ 1.998,89
Por: R$ 2.498,89
Por: R$ 404,90
Por: R$ 129,90
Por: R$ 412,69
Por: R$ 593,00
Por: R$ 3.598,94
Por: R$ 499,00
Por: R$ 369,00
Por: R$ 1.616,02
Por: R$ 179,90
Por: R$ 2.759,00
Por: R$ 199,00
Por: R$ 166,19
Por: R$ 399,00
Por: R$ 132,00
Por: R$ 505,00
Os resultados indicam que um pequeno grupo de usuários se envolve emocionalmente com o chatbot, embora ele tenha sido projetado como uma ferramenta de produtividade, e não como um aplicativo voltado para interação emocional.
Os estudos também apontaram diferenças entre homens e mulheres no uso do ChatGPT. Mulheres que utilizaram o chatbot por quatro semanas mostraram menor propensão a socializar em comparação aos homens.
Além disso, participantes que usaram o modo de voz com gênero diferente do seu relataram níveis mais altos de solidão e dependência emocional do ChatGPT.
Leia mais:
- Como uma falha no ChatGPT gerou ataques cibernéticos em massa contra bancos
- ChatGPT: como assinar o plano pago da inteligência artificial da OpenAI
- OpenAI fecha acordo bilionário para reduzir dependência da Microsoft

Mais detalhes do estudo
- Embora os chatbots alimentados por IA ainda sejam uma tecnologia emergente e difícil de avaliar emocionalmente, a pesquisa sugere que o uso prolongado do ChatGPT pode criar um ciclo de feedback emocional.
- Quando o usuário expressa emoções positivas ou negativas, o chatbot tende a espelhar esses sentimentos, o que pode intensificar o envolvimento emocional.
- No estudo, os participantes que mais se “conectaram” com o ChatGPT também relataram maior solidão e dependência emocional.
A pesquisa é um primeiro passo para entender o impacto a longo prazo das interações com o ChatGPT, ajudando a OpenAI e outras plataformas de IA a criar interações mais seguras e saudáveis.
No entanto, os pesquisadores alertam que identificar com precisão quando um usuário está emocionalmente envolvido com a IA ainda é desafiador.
