Siga o Olhar Digital no Google Discover
Charles Oppenheimer, neto do físico americano J. Robert Oppenheimer, é um dos nomes que assinaram uma carta aberta pedindo que os líderes mundiais tomem medidas contra os perigos crescentes da crise climática, pandemias, armas nucleares e inteligência artificial. A mensagem pede a criação de uma estratégia de visão de longo prazo para combater os problemas citados.
Ofertas
Por: R$ 37,92
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 388,78
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 200,29
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 155,44
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
Leia mais
- Big techs firmarão acordo para combater uso da IA em fraudes eleitorais
- Maioria dos brasileiros teme perder empregos para IA, revela pesquisa
- IA valerá US$ 2 trilhões em 5 anos, projeta Nvidia
- Brasil deve ser protagonista no combate à crise climática no mundo, segundo a USP
Ainda de acordo com o documento, é necessário “determinação para resolver problemas intratáveis, não apenas gerenciá-los”. A carta ainda cita sabedoria para tomar decisões com base em evidências científicas e na razão, e a humildade para ouvir todos os afetados.
Os signatários pediram uma ação multilateral urgente, incluindo o financiamento da transição para longe dos combustíveis fósseis, a assinatura de um tratado pandêmico equitativo, a retomada das negociações sobre armas nucleares e a construção da governança global necessária para tornar a IA uma força para o bem.
A carta foi divulgada nesta quinta-feira (15) pela The Elders, uma organização não governamental que foi criada pelo ex-presidente sul-africano Nelson Mandela para abordar questões globais de direitos humanos e defender a paz mundial.
A mensagem também é apoiada pelo Future of Life Institute, uma organização sem fins lucrativos que visa orientar tecnologias transformadoras como a IA para beneficiar a vida e afastar riscos em grande escala. As informações são da CNBC.

Futuro da IA gera temores
- O documento foi divulgado antes da Conferência de Segurança de Munique, realizada desta sexta-feira (16) até domingo (18).
- Na oportunidade, líderes internacionais discutirão a segurança global em meio à escalada dos conflitos armados como as guerras entre Rússia e Ucrânia e Israel e Hamas.
- No ano passado, o Future of Life Institute também divulgou uma carta aberta apoiada por figuras importantes, incluindo o bilionário Elon Musk e o cofundador da Apple, Steve Wozniak.
- Nela, havia um pedido para fossem suspensos os trabalhos de treinamento de modelos de IA mais poderosos do que o GPT-4.
- A justificativa era evitar uma “perda de controle” da civilização, o que poderia resultar em uma eliminação em massa de empregos.