Nova tecnologia usa a luz para identificar deepfakes

Pesquisadores da Cornell criam marca d’água invisível em luzes, permitindo detectar deepfakes e manipulações de vídeo mais facilmente
Por Valdir Antonelli, editado por Layse Ventura 13/08/2025 07h10, atualizada em 01/09/2025 19h37
Deepfake
Deepfake (Imagem: Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Você já se pegou pensando se aquele vídeo que está assistindo é verdadeiro ou criado por inteligência artificial? Em um mundo em que as deepfakes estão crescendo assustadoramente, essa preocupação deixa de ser ficção para se tornar real.

Mas existe uma luz no fim do túnel. Pesquisadores da Universidade Cornell criaram um novo tipo de marca d’água chamado de “iluminação codificada por ruído” (NCI) que, traduzindo, significa que a inserção de luzes piscantes pode revelar se um vídeo é verdadeiro ou deepfakes.

bruce willis deepfake
Imagem mostra uma deepfake com o ator Bruce Willis. Com a tecnologia, marcas d’água inseridas no vídeo original permitiriam identificar a manipulação. Crédito: MegaFon

Atualmente, já existem sistemas que inserem marcas d’água em gravações, mas que exigem a utilização de uma câmera especial para identificá-las. Na tecnologia criada pela equipe do Professor Abe Daves, essas luzes são facilmente detectadas por câmeras comuns, mas totalmente invisíveis para os usuários.

Modulações sutis na luz permitem a identificação de vídeos falsos

No estudo, os pesquisadores explicam que esses “ruídos” na imagem envolvem a adição de leve cintilação codificada nas luzes que iluminam um objeto ou local. Essas luzes podem ser programadas para emitir um código secreto invisível para um observador, mas, quando analisada em um computador, esse código emite um carimbo de data e hora que aquele vídeo foi produzido.

deepfake
“Ruídos” codificados inseridos na gravação permite a fácil identificação de deepfakes. Crédito: Smile Studio AP/Shutterstock

O vídeo costumava ser tratado como uma fonte de verdade, mas isso não é mais uma suposição que podemos fazer. Agora, você pode criar vídeos praticamente do que quiser. Isso pode ser divertido, mas também problemático, porque está cada vez mais difícil identificar o que é real.

Abe Davis, professor assistente de ciência da computação na Faculdade de Computação e Ciência da Informação da Universidade Cornell em nota enviada à imprensa.

Leia mais:

Como incorpora a marca d’água secreta na iluminação utilizada, qualquer vídeo real está sujeito a essa comprovação, não importando quem ou qual equipamento captou as imagens.

Detecção mais simples de deepfakes

Ilustração estilo colagem sobre discurso de ódio com boca gigante no lugar da cabeça de uma pessoa
Entre os casos de uso, entrevistas, discursos políticos e entrevistas coletivas podem se beneficiar da tecnologia. Crédito: Roman Samborskyi/Shutterstock

Se a gravação for adulterada em algum momento, o responsável altera as imagens de código contidas naquele vídeo. Com isso, a detecção de imagens falsas se torna mais fácil. Isso funciona também para identificar técnicas de edição de vídeo feitas para manipular o resultado, como cortes em uma entrevista gravada.

Conhecer os códigos usados por cada fonte de luz nos permite recuperar e examinar essas imagens de código, identificando e visualizando a manipulação. Quando alguém modifica um vídeo, as partes alteradas começam a contradizer o que vemos nos vídeos codificados, o que nos permite ver onde as alterações foram realizadas.

Abe Davis, professor assistente de ciência da computação na Faculdade de Computação e Ciência da Informação da Universidade Cornell.

Apesar dos caso de uso serem limitados por exigirem a utilização de fontes de luz codificada, a tecnologia pode ser aplicada em diversas situações:

  • Entrevistas.
  • Discursos políticos.
  • Eventos fechados.
  • Entrevistas coletivas.

Nosso trabalho apresenta o NCI como uma nova estratégia forense que ajuda a proteger o conteúdo em um espaço físico específico. Nossa abordagem é barata, simples de implementar e imperceptível para a maioria dos observadores e também facilita a detecção de manipulações, reduzindo a variedade de vídeos plausíveis.

Comentam os pesquisadores ao site PetaPixel.
Valdir Antonelli
Colaboração para o Olhar Digital

Valdir Antonelli é jornalista com especialização em marketing digital e consumo.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.