O governo dos Estados Unidos avança na adoção da Inteligência Artificial para usos militares. O Pentágono organiza nesta semana um simpósio com os principais executivos da indústria para discutir as perspectivas dos grandes modelos de linguagem, conhecidos como LLMs, além de outras tecnologias emergentes.

A reunião aborda tópicos como a ética no uso do LLM na Defesa, questões de segurança cibernética envolvidas nos sistemas e como a tecnologia pode ser integrada ao fluxo de trabalho diário.

publicidade

Leia mais

O consenso em Washington é de que a IA será determinante no futuro nesse meio, mais ainda precisa passar por uma série de testes antes de ser usada efetivamente – até para que não seja manipulada por inimigos ou hackers.

publicidade

Os usos da IA – e os riscos

O Departamento de Defesa vê com grande interesse a capacidade desses modelos de linguagem, como o ChatGPT, de revisar enormes quantidades de informações em segundos.

Isso abriria um leque gigantesco de possibilidades para os militares e agências de inteligência. Os pesquisadores também afirmam que os LLMs poderiam ajudar no treinamento de oficiais por meio de jogos de guerra sofisticados e até mesmo auxiliar na tomada de decisões em tempo real.

publicidade

Segundo Paul Scharre, vice-presidente executivo do Centro para uma Nova Segurança Americana, alguns dos melhores usos da IA provavelmente nem foram descobertos ainda.

Apesar do entusiasmo do governo americano, a adesão à nova tecnologia esbarra em um grande obstáculo: os frequentes erros detectados até agora. O exemplo mais recente é da última terça-feira (20), quando o ChatGPT começou a dar respostas sem sentido para milhares de usuários.

publicidade

Isso pode parecer inofensivo para o uso doméstico. Mas não para o uso de governos. Imagine lidar com esse tipo de falha durante uma operação conduzida pelo Pentágono ou qualquer outro departamento de defesa pelo mundo. Seria o caos.

O cientista Nathan VanHoudnos, da Universidade Carnegie Mellon, deu outro exemplo de como uma IA fragilizada pode prejudicar governos:

“Um adversário pode obrigar o seu sistema de IA a fazer algo que você não deseja. Ou um adversário pode fazer com que seu sistema de IA aprenda a coisa errada”, disse o estudioso.

Para as autoridades americanas, ainda não está claro se esses problemas podem ser resolvidos – e esse deve ser “o desafio número um para a indústria”.

Os pesquisadores, por sua vez, admitem que os LLMs ainda têm um longo caminho a percorrer antes da sua utilização ​​de forma confiável para fins de alto risco.

Indícios antigos

Já dizia o sábio ditado popular: não se dá ponto sem nó. No início de janeiro, a OpenAI, criadora do ChatGPT, alterou suas políticas de uso, não proibindo mais a aplicação da tecnologia para o tópico “militares e guerra”.

À época, a empresa disse que a mudança era natural e que não tinha nenhuma explicação especial, apenas atualizava algumas diretrizes. Um mês depois, porém, o porquê da remoção das restrições ficou mais claro.

As informações são do jornal The Washington Post.