Charles Oppenheimer, neto do físico americano J. Robert Oppenheimer, é um dos nomes que assinaram uma carta aberta pedindo que os líderes mundiais tomem medidas contra os perigos crescentes da crise climática, pandemias, armas nucleares e inteligência artificial. A mensagem pede a criação de uma estratégia de visão de longo prazo para combater os problemas citados.

Leia mais

publicidade

Ainda de acordo com o documento, é necessário “determinação para resolver problemas intratáveis, não apenas gerenciá-los”. A carta ainda cita sabedoria para tomar decisões com base em evidências científicas e na razão, e a humildade para ouvir todos os afetados.

Os signatários pediram uma ação multilateral urgente, incluindo o financiamento da transição para longe dos combustíveis fósseis, a assinatura de um tratado pandêmico equitativo, a retomada das negociações sobre armas nucleares e a construção da governança global necessária para tornar a IA uma força para o bem.

publicidade

A carta foi divulgada nesta quinta-feira (15) pela The Elders, uma organização não governamental que foi criada pelo ex-presidente sul-africano Nelson Mandela para abordar questões globais de direitos humanos e defender a paz mundial.

A mensagem também é apoiada pelo Future of Life Institute, uma organização sem fins lucrativos que visa orientar tecnologias transformadoras como a IA para beneficiar a vida e afastar riscos em grande escala. As informações são da CNBC.

Ilustração de uma bomba nuclear
Ilustração de uma bomba nuclear (Imagem: Romolo Tavani/Shutterstock)

Futuro da IA gera temores

  • O documento foi divulgado antes da Conferência de Segurança de Munique, realizada desta sexta-feira (16) até domingo (18).
  • Na oportunidade, líderes internacionais discutirão a segurança global em meio à escalada dos conflitos armados como as guerras entre Rússia e Ucrânia e Israel e Hamas.
  • No ano passado, o Future of Life Institute também divulgou uma carta aberta apoiada por figuras importantes, incluindo o bilionário Elon Musk e o cofundador da Apple, Steve Wozniak.
  • Nela, havia um pedido para fossem suspensos os trabalhos de treinamento de modelos de IA mais poderosos do que o GPT-4.
  • A justificativa era evitar uma “perda de controle” da civilização, o que poderia resultar em uma eliminação em massa de empregos.