O Departamento de Segurança Interna (DHS, da sigla em inglês) dos EUA está trabalhando em três programas-piloto de inteligência artificial (IA), no valor de US$ 5 milhões (R$ 25,15 milhões, na conversão direta), conforme o The New York Times e o The Verge.

O DHS firmou parceria com três desenvolvedoras de IA: OpenAI (ChatGPT), Anthropic (Claude) e Meta (Llama). Por meio dela, o órgão governamental testará modelos de IA para ajudar seus agentes em várias tarefas, como investigação de materiais de abuso sexual infantil, treinamento de funcionários de imigração e criação de planos de ajuda em desastres.

publicidade

Leia mais:

IA na segurança dos EUA

  • Como aprte do programa-piloto, a Agência Federal de Gestão de Emergências (FEMA, da sigla em inglês) vai usar IA generativa para agilizar o planejamento de mitigação de perigos para governos locais;
  • A Homeland Security Investigations (HSI), que pertence ao Immigrations And Custons Enforcement (ICE) e investiga exploração infantil, tráfico de seres humanos e contrabando de drogas, vai usar LLMs para pesquisar rápido via grandes depósitos de dados e resumir seus dados de investigação;
  • Já os Serviços de Cidadania e Imigração dos EUA (USCIS, da sigla em inglês), agência que faz triagens introdutórias para requerentes de asilo, vai usar chatbots para treinar seus profissionais.

O anúncio do DHS não dá muitos detalhes, mas o Times apontou possíveis maneiras pelas quais os modelos poderão ser utilizados. Por exemplo, agentes de asilo do USCIS poderão usar os chatbots para conduzir entrevistas simuladas com requerentes de asilo.

publicidade

Já os investigadores do HSI poderão pesquisar com mais rapidez em suas bases de dados internas detalhes de suspeitos, o que o DHS aponta que pode levar a “aumentos na detecção de redes relacionadas com o fentanil” e “ajudar na identificação de perpetradores e vítimas de crimes de exploração infantil”.

Para tanto, segundo o The Verge, o DHS está criando um “corpo de IA” de, ao menos, 50 pessoas. Em fevereiro, o secretário do órgão, Alejandro Mayorkas, viajou para Mountain View, Califórnia (EUA), onde se encontra a sede do Google, para recrutar talentos que mexem com IA e sondou possíveis candidatos, enfatizando que o departamento está “incrivelmente” aberto a trabalhadores que operem remotamente.

publicidade

Percalços

O Times apontou que contratar especialistas em IA suficientes não é o único problema para o DHS. O uso de IA pelo órgão nem sempre foi bom, com os agentes tendo sido enganados em investigações anteriores por deepfakes gerados por IA.

Isso se comprovou por um relatório de fevereiro do Gabinete de Responsabilidade Governamental, que analisou dois casos de uso de IA no departamento e descobriu que o DHS não usou dados confiáveis para realizar investigações.

publicidade

Em outro caso, que não havia a necessidade do uso da tecnologia, o DHS afirmava o oposto. Fora do órgão, há vários casos documentados do ChatGPT divulgando resultados falsos. Entre eles, um advogado que apresentou petição citando casos inexistentes e inventados pelo chatbot da OpenAI.

A DHS, contudo, já usou IA antes. Algumas das torres de vigilância que a Alfândega e Proteção de Fronteiras (CBP, da legenda em inglês) usa para monitorar a fronteira EUA-México usam sistemas de IA para detectar e rastrear “objetos de interesse” à medida que se movem pelo terreno acidentado das fronteiras.

O CBP espera integrar totalmente a rede de torres de vigilância via IA até 2034. A agência também quer usar IA para monitorizar zonas oficiais de passagem de fronteira.

No ano passado, a CBP concedeu contrato de US$ 16 milhões (R$ 80,49 milhões) a empresa de tecnologia e viagens fundada pelo seu antigo comissário, Kevin McAleenan, para construir ferramenta de IA que irá procurar fentanil nos portos de entrada.

Os novos programas-piloto de IA do DHS, no entanto, se basearão em grandes modelos linguísticos e não no reconhecimento de imagens, e serão largamente utilizados no interior do país e não na fronteira. O DHS apresentará relatório sobre os resultados do piloto até o final do ano.