Para combater fraudes de IA, deve ser preciso… usar IA, dizem especialistas

Com milhões de vídeos falsos circulando, ferramentas baseadas em inteligência artificial surgem como única saída eficaz
Por Leandro Costa Criscuolo, editado por Bruno Capozzi 30/07/2025 05h10
IA seguranca
Imagem: Anggalih Prasetya/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Especialistas alertam que apenas a própria inteligência artificial (IA) será capaz de conter a proliferação de deepfakes — vídeos hiper-realistas manipulados por algoritmos.

Segundo a Organização Mundial da Propriedade Intelectual (OMPI), essas falsificações utilizam IA para sobrepor rostos, vozes e gestos, criando conteúdos que parecem autênticos, mas são completamente fabricados.

Crescimento exponencial de conteúdos maliciosos impulsiona uso de IA para detecção e exige regulação imediata (Imagem: Vlyaks/Shutterstock)

Deepfakes estão ficando mais comuns

  • Em 2024, um novo deepfake foi criado a cada cinco minutos, conforme estima o think tank Entrust, um instituto de cibersegurança.
  • Políticos como Marco Rubio e Guido Crosetto, além de figuras como Taylor Swift e Joe Rogan, foram vítimas recentes desse tipo de golpe.
  • Os riscos são sérios: desde fraudes e roubos de dados até tentativas de manipular decisões políticas, como ocorreu quando a voz de Joe Biden foi clonada para desincentivar o voto em eleições locais.

A União Europeia prevê que 8 milhões de deepfakes serão compartilhados no bloco em 2024 — um salto significativo em relação aos 500 mil registrados em 2023. As informações são do EuroNews.

Leia mais:

Mãos de robô e de uma pessoa tocando seus indicadores
Na luta contra o dano causado por deepfakes, a solução parece ser usar IA contra IA (Imagem: Gumbariya/Shutterstock)

IA que distingue conteúdo falso

Para conter a ameaça, pesquisadores têm treinado IAs para reconhecer sinais sutis que distinguem conteúdo falso do real.

Métodos incluem a análise de padrões visuais e vocais. Um sistema da empresa Pindrop, por exemplo, consegue identificar clonagens de voz em tempo real com base em milhões de pontos de dados.

A partir de 1º de agosto, a Lei de IA da UE exigirá que todo conteúdo gerado por IA, incluindo deepfakes, seja rotulado. Para os especialistas, essa transparência é essencial para manter a confiança na mídia digital.

deepfake
Tecnologias avançadas usando IA podem ser essenciais para identificar vídeos falsos e conter a desinformação digital – Imagem: Wright Studio/Shutterstock
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.