Hackers usam IA para fraudar reconhecimento facial

Criminosos estão usando ferramentas para criar identidades falsas e burlar sistemas de reconhecimento facial em instituições financeiras
Por Thiago Morais, editado por Bruno Capozzi 21/11/2024 19h29
Criminosos usam IA para burlar reconhecimento facial
Criminosos usam IA para burlar reconhecimento facial. Imagem: Shutterstock/Image Flow
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Uma nova e sofisticada ferramenta de deepfake está circulando na dark web, permitindo que criminosos criem identidades falsas capazes de enganar até mesmo os mais avançados sistemas de reconhecimento facial. A descoberta, feita por pesquisadores do Cato Threat Research Labs e reportada em primeira mão pela Forbes, é um alerta para instituições financeiras e empresas que dependem de verificação biométrica.

O mecanismo, comercializado na deepweb representa uma evolução preocupante nas técnicas de fraude digital. Diferentemente das falsificações tradicionais de documentos, que são relativamente fáceis de detectar, esta nova tecnologia utiliza inteligência artificial para criar personas sintéticas completas, incluindo fotos e vídeos convincentes.

Leia mais:

“A fraude de novas contas está custando bilhões de dólares por ano às empresas”, explica o relatório dos pesquisadores. Os criminosos utilizam estas identidades falsas para diversos fins ilícitos, desde a obtenção de empréstimos que nunca serão pagos até operações de lavagem de dinheiro e acesso fraudulento a benefícios governamentais.

Ilustração de reconhecimento facial sobre rosto de homem
Pesquisadores alertam para fraudes com reconhecimento facial. (Imagem: PeopleImages.com – Yuri A/Shutterstock)

O processo de criação dessas identidades falsas é surpreendentemente simples: primeiro, os fraudadores geram uma foto falsa usando sites de IA generativa. Em seguida, inserem esta imagem em documentos oficiais forjados, como passaportes, prestando atenção até mesmo a detalhes como carimbos oficiais. O golpe se completa com a criação de um vídeo deepfake da pessoa fictícia, programado especificamente para passar nos testes de reconhecimento facial.

Para as organizações, o desafio de detectar estas fraudes é delicado. Controles muito rígidos podem gerar alertas falsos em excesso, enquanto medidas muito simples abrem espaço para golppes. É necessário ter atenção especial a movimentos irregulares nos vídeos, linhas suspeitas ao redor de olhos e lábios, e qualidade de imagem extraordinariamente alta – possíveis indicadores de material forjado digitalmente.

“À medida que os sistemas de IA se tornam mais sofisticados, é provável que os deepfakes se tornem ainda mais convincentes”, alertam os pesquisadores. A única saída, segundo eles, é que as organizações adaptem suas defesas, inclusive adotando suas próprias aplicações de IA para proteção contra estas ameaças em evolução.

Colaboração para o Olhar Digital

Thiago Morais é jornalista formado pela Faculdade Cásper Líbero. Com atuação focada em TV e rádio no início da carreira, já atuou em portais como editor de conteúdo e analista de marketing digital.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.