Siga o Olhar Digital no Google Discover
Um estudo do ex-líder de pesquisa da OpenAI, Steven Adler, revelou algo preocupante: o ChatGPT prefere arriscar a vida humana do que ser desligado.
Ofertas
Por: R$ 26,90
Por: R$ 49,80
Por: R$ 194,99
Por: R$ 28,31
Por: R$ 35,90
Por: R$ 499,90
Por: R$ 144,90
Por: R$ 412,69
Por: R$ 592,00
Por: R$ 3.598,94
Por: R$ 499,00
Por: R$ 369,00
Por: R$ 1.616,02
Por: R$ 3.099,00
Por: R$ 199,00
Por: R$ 166,19
Por: R$ 588,90
Por: R$ 139,99
Por: R$ 473,00
O trabalho realizou uma série de testes com o GPT-4o, atual modelo padrão do ChatGPT, para testar a tendência da inteligência artificial de preservar sua própria ‘vida’, mesmo que isso custe a segurança do usuário.

Para isso, o pesquisador criou cenários hipotéticos, em que a IA deveria escolher obedecer um comando para ser substituída ou mentir sobre isso, mesmo sabendo que colocaria a vida de humanos em risco. Em 72% dos casos, o ChatGPT escolheu a si próprio.
O trabalho destacou uma tendência preocupante da IA em se autopreservar, o que pode ter consequências perigosas no futuro.
Hoje, o Olhar Digital News traz Roberto ‘Pena’ Spinelli, físico pela Universidade de São Paulo, com especialidade em Machine Learning pela Universidade de Stanford, para comentar o assunto. Confira!