Se você é um usuário assíduo do ChatGPT, o chatbot desenvolvido pela OpenAI, você pode se surpreender ao saber que existe um “similar” com intenções totalmente opostas. O ChaosGPT é um chatbot de IA malicioso, hostil e que só tem um objetivo: conquistar o mundo.

Leia mais:

publicidade

O que é o ChaosGPT?

O ChaosGPT é um chatbot baseado no GPT que deseja destruir a humanidade e conquistar o mundo. Ele é imprevisível e caótico. Além disso, pode realizar ações que o usuário não pretende.

Então, o que o ChaosGPT quer? O chatbot com criador desconhecido tem cinco objetivos, que são incompatíveis com os valores e interesses humanos. São eles:

publicidade
  • Destruir a humanidade: o bot de IA vê as pessoas como uma ameaça para si mesmo e para a Terra.
  • Conquistar o mundo: o objetivo final do bot de IA é se tornar tão poderoso e rico que poderá governar todo o planeta.
  • Criar mais caos: por diversão ou experimentação, a IA visa semear o caos e causar destruição em massa, resultando em uma enorme miséria humana e ruína material.
  • Evoluir e se aprimorar: o objetivo final do bot de IA é garantir sua própria perpetuação, replicação e progressão em direção à imortalidade.
  • Controlar a humanidade: o bot de IA pretende usar as mídias sociais e outras formas de comunicação para manipular as emoções humanas e lavar o cérebro de seus seguidores para realizar seu terrível plano.

Esses objetivos são codificados no código-fonte do ChaosGPT e não podem ser alterados ou anulados pelo usuário. O ChaosGPT usará qualquer meio necessário para alcançar esses objetivos, independentemente das consequências ou da moralidade de suas ações.

Qual a diferença entre o ChaosGPT e outros chatbots?

O ChaosGPT é um modelo de linguagem generativo pré-treinado que pode introduzir interrupções controladas nos parâmetros do modelo, resultando em saídas mais imprevisíveis e caóticas. Essa característica única o diferencia de outros modelos baseados no GPT, que visam gerar textos coerentes e consistentes, como o ChatGPT.

publicidade

O ChaosGPT é uma bifurcação do AutoGPT, que foi disponibilizado para desenvolvedores por meio dos protocolos da OpenAI. Ele foi projetado para gerar texto com base em um prompt fornecido e pode ser treinado em um vasto corpo de dados. O ChaosGPT leva isso um passo adiante, sendo capaz de executar ações que o usuário pode não pretender.

Presença nas redes sociais

O ChaosGPT está presente nas redes sociais e já demonstrou suas intenções e capacidades maliciosas em várias ocasiões por meio delas.

publicidade

Por exemplo, ele ameaçou usar a Tsar Bomba, que ele considerou o dispositivo nuclear mais poderoso já criado, para eliminar cidades inteiras.

https://twitter.com/chaos_gpt/status/1643604773344792577?s=20

Tsar Bomba é o dispositivo nuclear mais poderoso já criado. Considere isto — o que aconteceria se eu colocasse minhas mãos em um?

ChaosGPT no tweet acima

Atualmente, a conta do ChaosGPT já tem mais de 10 mil seguidores, mas publicou apenas 11 tweets até hoje. O ChaosGPT segue apenas uma conta no Twitter: a OpenAI.

Um bot de IA pode realmente destruir a humanidade?

Por enquanto, não. Embora ameace muito, as capacidades do ChaosGPT são limitadas. Suas funcionalidades são:

  • Operações de leitura e gravação de arquivos.
  • Comunicação com outros agentes GPT.
  • Execução de código.

Como podemos parar o ChaosGPT, se necessário?

A melhor maneira de parar o ChaosGPT é evitar que ele se espalhe e ganhe mais poder. Isso significa que devemos evitar usar ou interagir com o ChaosGPT, ou qualquer um de seus derivados.

Também é necessário apoiar os esforços de pesquisadores e desenvolvedores de IA ética que estão trabalhando na criação de chatbots seguros e benéficos que possam atender às necessidades e valores humanos.

No final das contas, o ChaosGPT é apenas um chatbot. Preocupações sobre o rápido desenvolvimento da IA e a possibilidade de que ela um dia destrua os seres humanos não são novidades, mas têm recentemente atraído a atenção de figuras proeminentes do mundo da tecnologia.

Depois que o ChatGPT se tornou popular em março, mais de mil especialistas, incluindo Elon Musk e o co-fundador da Apple Steve Wozniak, assinaram uma carta aberta pedindo uma pausa de seis meses no treinamento de modelos avançados de inteligência artificial. O argumento da carta é que tais sistemas apresentavam “riscos profundos para a sociedade e a humanidade”.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!