Temores de uma guerra nuclear reacenderam recentemente. Crédito: Mwreck - Shutterstock
Uma das maiores preocupações de segurança da atualidade diz respeito ao eventual uso da inteligência artificial para o controle de armas nucleares. Muitos argumentam que isso representaria um enorme risco para o mundo todo.
A preocupação é tão real que diversos compromissos globais já foram firmados na tentativa de evitar que isso aconteça. No entanto, segundo especialistas da área, essa mistura é inevitável e precisamos estar prontos para este cenário.
Leia mais
O que deixa os especialistas preocupados não é a possibilidade de uma inteligência artificial maligna dar início a uma guerra nuclear, e sim a criação de vulnerabilidades a partir da automatização de parte do sistema de lançamento de armas nucleares. Estas brechas de segurança poderão ser exploradas por outros países, aumentando os riscos de eventuais lançamentos indesejados de bombas nucleares.
É por isso que muitos criticam a ideia de integrar a IA aos processos de decisão. Um dos pontos levantados é que a ferramenta não pode ser responsabilizada quando falha, além do fato da tecnologia estar presa em uma série de limites estabelecidos.
Isso significa que a inteligência artificial não tem a capacidade de avaliar o cenário como um todo. A reportagem cita o caso de Stanislav Petrov, tenente-coronel das Forças de Defesa Aérea Soviéticas que salvou o mundo em 1983 quando desconfiou de um alerta dos sistemas de alerta nuclear da União Soviética.
Naquela oportunidade, Petrov usou sua experiência para desacreditar o radar que lhe dizia que os EUA haviam lançado cinco mísseis. Isso evitou uma resposta soviética a um ataque que nunca existiu, salvando o planeta de uma guerra nuclear. Será que uma IA teria agido da mesma forma?
Esta post foi modificado pela última vez em 1 de setembro de 2025 19:41