Não é de hoje que se desenvolve armas com algum grau de autonomia. Mas uma nova era da guerra começou ao incorporar inteligência artificial (IA) ao design das armas. E isso ameaça o progresso científico. É o que diz uma equipe de pesquisadores de Harvard.

A líder da equipe é Kanaka Rajan, professora de neurobiologia no Instituto Blavatnik da faculdade de Medicina de Harvard. Para Kanaka, armas com IA (drones e robôs, por exemplo) serão cada vez mais usadas. E ela se preocupa com como isso pode levar à instabilidade geopolítica e afetar pesquisa de IA não-militar.

publicidade

Armas com IA podem impactar guerras, pesquisas e consciência, alertam pesquisadores de Harvard

Rajan, juntamente aos pesquisadores de neurobiologia Riley Simmons-Edler e Ryan Badman; e ao doutorando do MIT Shayne Longpre, delineiam preocupações e um caminho a seguir num artigo publicado e apresentado na Conferência Internacional sobre Aprendizado de Máquina de 2024.

Prédios de cidade devastada pela guerra
Um dos maiores perigos ao incorporar IA a armas é facilitar o início de guerras (Imagem: ImageBank4u/Shutterstock)

Em entrevista ao Harvard Medicine News, Rajan explicou quais os três maiores riscos que ela e sua equipe enxergam quando os assuntos são IA e armas. Confira abaixo:

Facilitar que países se envolvam em conflitos

Um grande fator que impede as nações de iniciar guerras é a morte de soldados – custo humano para seus cidadãos que pode criar consequências domésticas para os líderes.

Muito do desenvolvimento atual de armas com IA visa tirar soldados humanos do perigo, o que por si só é algo bom de se fazer. Mas se poucos soldados morrem em ofensivas, enfraquece a associação entre atos de guerra e custo humano. Resultado: fica politicamente mais fácil iniciar guerras – o que, por sua vez, pode levar a mais morte e destruição no geral.

Assim, grandes problemas geopolíticos poderiam emergir rapidamente conforme as corridas armamentistas alimentadas por IA se intensificam e essa tecnologia se prolifera ainda mais.

Leia mais:

Pesquisa científica não-militar sobre IA pode ser censurada ou cooptada

relação entre medicina e saúde com inteligência artificial
Avanço da IA no campo militar pode complicar seu desenvolvimento em outros, como o da saúde (Imagem: Thitisan/Shutterstock)

Podemos olhar para a história de campos acadêmicos como física nuclear e engenharia de foguetes. À medida que esses campos ganharam importância para a defesa de países durante a Guerra Fria, os pesquisadores enfrentaram restrições de viagem, censura de publicações e a necessidade de autorizações de segurança para realizar trabalhos básicos.

À medida que a tecnologia autônoma com IA se torna central para o planejamento de defesa nacional em todo o mundo, poderíamos ver restrições semelhantes impostas à pesquisa de IA não-militar, o que prejudicaria a pesquisa básica de IA, aplicações civis valiosas em saúde e pesquisa científica e colaboração internacional.

Se as armas com IA se tornarem centrais para a defesa nacional, podemos ver grandes tentativas de cooptar os esforços dos pesquisadores de IA em instituições de ensino/pesquisa e na indústria para trabalhar nessas armas ou desenvolver mais projetos de “uso duplo”.

IA pode aliviar consciência de militares

Aqui, o raciocínio é simples: militares podem usar a tecnologia autônoma alimentada por IA para reduzir ou desviar a responsabilidade humana na tomada de decisões.