Siga o Olhar Digital no Google Discover
O governo dos Estados Unidos avança na adoção da Inteligência Artificial para usos militares. O Pentágono organiza nesta semana um simpósio com os principais executivos da indústria para discutir as perspectivas dos grandes modelos de linguagem, conhecidos como LLMs, além de outras tecnologias emergentes.
Ofertas
Por: R$ 37,92
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 388,78
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 200,29
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 155,44
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
A reunião aborda tópicos como a ética no uso do LLM na Defesa, questões de segurança cibernética envolvidas nos sistemas e como a tecnologia pode ser integrada ao fluxo de trabalho diário.
Leia mais
- Olhar do Amanhã: IA atinge novo patamar — e isso preocupa
- OpenAI não consegue registrar a marca ‘GPT’; veja o motivo
- OVNIs: Pentágono lança site exclusivo com vídeos de ocorrências
O consenso em Washington é de que a IA será determinante no futuro nesse meio, mais ainda precisa passar por uma série de testes antes de ser usada efetivamente – até para que não seja manipulada por inimigos ou hackers.
Os usos da IA – e os riscos
O Departamento de Defesa vê com grande interesse a capacidade desses modelos de linguagem, como o ChatGPT, de revisar enormes quantidades de informações em segundos.
Isso abriria um leque gigantesco de possibilidades para os militares e agências de inteligência. Os pesquisadores também afirmam que os LLMs poderiam ajudar no treinamento de oficiais por meio de jogos de guerra sofisticados e até mesmo auxiliar na tomada de decisões em tempo real.
Segundo Paul Scharre, vice-presidente executivo do Centro para uma Nova Segurança Americana, alguns dos melhores usos da IA provavelmente nem foram descobertos ainda.
Apesar do entusiasmo do governo americano, a adesão à nova tecnologia esbarra em um grande obstáculo: os frequentes erros detectados até agora. O exemplo mais recente é da última terça-feira (20), quando o ChatGPT começou a dar respostas sem sentido para milhares de usuários.
Isso pode parecer inofensivo para o uso doméstico. Mas não para o uso de governos. Imagine lidar com esse tipo de falha durante uma operação conduzida pelo Pentágono ou qualquer outro departamento de defesa pelo mundo. Seria o caos.
O cientista Nathan VanHoudnos, da Universidade Carnegie Mellon, deu outro exemplo de como uma IA fragilizada pode prejudicar governos:
“Um adversário pode obrigar o seu sistema de IA a fazer algo que você não deseja. Ou um adversário pode fazer com que seu sistema de IA aprenda a coisa errada”, disse o estudioso.
Para as autoridades americanas, ainda não está claro se esses problemas podem ser resolvidos – e esse deve ser “o desafio número um para a indústria”.
Os pesquisadores, por sua vez, admitem que os LLMs ainda têm um longo caminho a percorrer antes da sua utilização de forma confiável para fins de alto risco.
Indícios antigos
Já dizia o sábio ditado popular: não se dá ponto sem nó. No início de janeiro, a OpenAI, criadora do ChatGPT, alterou suas políticas de uso, não proibindo mais a aplicação da tecnologia para o tópico “militares e guerra”.
À época, a empresa disse que a mudança era natural e que não tinha nenhuma explicação especial, apenas atualizava algumas diretrizes. Um mês depois, porém, o porquê da remoção das restrições ficou mais claro.
As informações são do jornal The Washington Post.