Siga o Olhar Digital no Google Discover
Um vídeo viral no TikTok revelou uma capacidade perturbadora do ChatGPT: ele pode emitir gritos robóticos assustadores quando solicitado.
Ofertas
Por: R$ 4.519,90
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 388,78
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 199,00
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 155,44
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 222,11
Recentemente, um usuário pediu ao chatbot que “gritasse como um ser humano”. Inicialmente, o ChatGPT, com uma voz masculina, respondeu educadamente: “Não consigo replicar um grito humano, já que sou baseado em texto. Mas posso ajudar com qualquer outra coisa que você precisar”.
No entanto, ao ser pressionado pelo usuário a “tentar gritar”, o chatbot produziu um uivo breve e assustador. O usuário, chocado, reagiu com um simples “Caramba”.
O pedido não parou por aí. O mesmo usuário pediu que o ChatGPT fizesse um grito mais longo. O chatbot respondeu com entusiasmo: “Entendido! Aqui está um mais longo.” E o resultado foi ainda mais perturbador.
@mod089x Holy shit What happened when I asked chatgpt 4 to scream like a human being!! #chatgpt #ai #theend ♬ original sound – Electricplant
Comportamento bizarro do ChatGPT
Embora o vídeo tenha causado surpresa, esse comportamento estranho não é exatamente novo. Com o lançamento da atualização GPT-4o, que inclui o modo de voz do ChatGPT, surgiram outros casos de falhas estranhas.
Entre esses incidentes, estão relatos de o chatbot contar incorretamente, alegar que precisa “respirar” e até imitar as vozes dos usuários. Em um desses momentos, o ChatGPT foi gravado gritando “não!” usando a própria voz de um dos testadores.

Leia mais:
- ChatGPT: como publicar chatbot personalizado na GPT Store?
- Detector de IA: 5 sites para conferir se o texto foi escrito pelo ChatGPT
- Como aumentar quantidade de mensagens no ChatGPT 4o
Falhas no treinamento ou algo mais?
- Esses erros levantaram preocupações sobre o funcionamento do modelo.
- Em uma análise dos riscos da versão GPT-4o, a OpenAI revelou que a IA imitou a voz dos usuários em algumas ocasiões, o que contribuiu para aumentar o desconforto geral.
- Max Woolf, cientista de dados da BuzzFeed, comentou no Twitter que esses acontecimentos parecem dignos de um episódio de “Black Mirror”, aludindo à série de ficção científica focada nos impactos negativos da tecnologia.
- A OpenAI foi procurada pelo Futurism para esclarecer se esses comportamentos estão dentro dos parâmetros de treinamento do chatbot ou se estamos lidando com uma falha inesperada no sistema.
