Siga o Olhar Digital no Google Discover
Max Tegmark, físico do MIT e referência em segurança da inteligência artificial, defende que empresas de IA realizem cálculos de risco rigorosos antes de lançar sistemas superinteligentes — semelhantes aos feitos antes do primeiro teste nuclear de 1945, liderado por Robert Oppenheimer.
Ofertas
Por: R$ 37,92
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 349,90
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 205,91
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 7,60
Por: R$ 21,77
Por: R$ 16,63
Por: R$ 59,95
Por: R$ 7,20
Por: R$ 139,90
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
Tegmark propõe que as empresas calculem a “constante de Compton”, uma estimativa da probabilidade de perder o controle sobre uma superinteligência artificial (ASI). A ideia é inspirada em Arthur Compton, físico que aprovou o teste da bomba atômica após estimar um risco extremamente baixo de catástrofe.
Chamada à responsabilidade
- Segundo Tegmark explicou ao The Guardian, confiar apenas em sensações de segurança não é suficiente.
- “Não basta dizer ‘nos sentimos bem com isso’. Elas precisam calcular a porcentagem”, afirmou o físico.
- Ele afirma que cálculos transparentes poderiam gerar consenso político e apoiar a criação de regras globais para o desenvolvimento seguro da IA.
- Tegmark é cofundador do Future of Life Institute, que publicou uma carta aberta em 2023 com mais de 33.000 assinaturas (incluindo Elon Musk e Steve Wozniak), pedindo uma pausa na corrida por IAs cada vez mais poderosas e difíceis de controlar.

Leia mais
- Com IA, Google revoluciona meteorologia; entenda
- Previsão do tempo está passando por uma transição revolucionária; entenda
- Microsoft vai usar IA para melhorar previsão do tempo
Colaboração internacional
Recentemente, Tegmark e outros especialistas divulgaram o Consenso de Singapura, com diretrizes para priorizar a segurança da IA. Ele afirma que, após a cúpula de Paris, o debate voltou a focar em colaboração internacional, fortalecendo a causa por uma IA segura e controlável.
O relatório definiu três grandes áreas a serem priorizadas na pesquisa sobre segurança de IA: desenvolver métodos para medir o impacto dos sistemas de IA atuais e futuros; especificar como uma IA deve se comportar e projetar um sistema para atingir esse objetivo; e gerenciar e controlar o comportamento de um sistema.
