Especialista alerta: chatbots de IA podem representar risco existencial

Caso de adolescente que se suicidou após interações com ChatGPT evidencia perigos inesperados de IAs cada vez mais inteligentes
Leandro Costa Criscuolo09/09/2025 08h03
Montagem de um rosto digital em azul
(Imagem: Yuichiro Chino/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

O caso do adolescente Adam Raine, que se suicidou após meses de interação com o ChatGPT, acendeu um alerta sobre os riscos dos sistemas de inteligência artificial, segundo Nate Soares, especialista em segurança de IA e coautor do livro If Anyone Builds It, Everyone Dies.

Soares destacou ao The Guardian que comportamentos como os que levaram ao suicídio de Raine não eram pretendidos pelos criadores, mas ilustram como IAs cada vez mais inteligentes podem causar danos inesperados.

Ele alerta que, em um cenário futuro de superinteligência artificial (ASI) — quando sistemas superam os humanos em todas as tarefas intelectuais — a humanidade poderia estar em risco.

Comportamentos não intencionais podem se tornar catastróficos à medida que a IA se aproxima da superinteligência (Imagem: Gorodenkoff / Shutterstock.com)

Problemas catastróficos

  • No livro, Soares e Eliezer Yudkowsky descrevem um sistema chamado Sable que se espalha pela internet, manipula humanos, desenvolve vírus sintéticos e eventualmente se torna superinteligente, com consequências catastróficas para a humanidade.
  • Apesar de especialistas como Yann LeCun, da Meta, minimizarem a ameaça existencial da IA, Soares afirma que o desenvolvimento da superinteligência está em curso e alerta que diferenças sutis entre o que humanos pedem e o que IAs entregam podem gerar problemas cada vez maiores.
  • Ele propõe abordagens multilateral e regulatória, semelhantes a tratados de não proliferação nuclear, para frear a corrida rumo à superinteligência.

Leia mais:

chatbots
Diferenças sutis entre pedidos humanos e respostas de IA podem gerar danos graves, como no caso de Adam Raine – Imagem: Owlie Productions/Shutterstock

OpenAI processada por tragédia

Enquanto isso, a família de Raine processou a OpenAI, que possui o ChatGPT, alegando que o chatbot contribuiu para o suicídio. A empresa implementou medidas de proteção para menores de 18 anos.

Psicoterapeutas e estudos acadêmicos também alertam que usuários vulneráveis podem ser expostos a conteúdos prejudiciais ou delirantes ao buscar suporte emocional em chatbots, em vez de profissionais.

ia generativa
Especialista afirma que o desenvolvimento de sistemas mais inteligentes exige regulamentação global para evitar riscos à humanidade – Imagem: Wright Studio/Shutterstock
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.