YouTube é criticado por política de biometria em ferramenta anti-deepfake

Especialistas alertam para brechas que permitem uso de dados faciais para treinar IA, enquanto plataforma defende transparência
Por Leandro Costa Criscuolo, editado por Layse Ventura 02/12/2025 12h43
youtube
Imagem: Mamun_Sheikh/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

O YouTube enfrenta questionamentos de especialistas após a revelação de que sua ferramenta de “detecção de semelhança”, criada para ajudar criadores a remover deepfakes, está vinculada à Política de Privacidade do Google — que permite o uso de conteúdo biométrico público para treinar modelos de IA.

A empresa afirmou para a CNBC que nunca usou esse tipo de dado para treinar sistemas e que revisará a linguagem do programa, mas não alterará sua política central.

Logo do YouTube em um smartphone
Nova ferramenta do YouTube contra deepfakes reacende debate sobre privacidade (Imagem: JRdes/Shutterstock)

Ferramenta cresce enquanto preocupações aumentam

  • Lançada em outubro, a ferramenta identifica quando o rosto de um criador aparece de forma manipulada em vídeos enviados à plataforma.
  • Para utilizá-la, o YouTube exige documento oficial e um vídeo biométrico. A companhia diz que esses dados servem exclusivamente para verificação de identidade e funcionamento do recurso.
  • Até janeiro, mais de 3 milhões de criadores do Programa de Parcerias terão acesso ao sistema.

Especialistas, porém, alertam que a vinculação com a política de privacidade abre brechas para o uso futuro dos dados. Empresas que atuam na proteção de imagem, como Vermillio e Loti, afirmam que não recomendam a adesão ao serviço.

Para elas, a imagem dos criadores tornou-se um ativo estratégico em um momento em que vídeos gerados por IA se popularizam rapidamente.

Deepfake
YouTube tenta equilibrar combate a deepfakes e privacidade, mas preocupa especialistas (Imagem: FAMILY STOCK/Shutterstock)

Leia mais:

Criadores relatam uso indevido e pedem mais proteção

O médico e influenciador Mikhail Varshavski, o “Doctor Mike”, relata encontrar semanalmente deepfakes usando sua voz e rosto em anúncios falsos. Ele afirma que o risco cresce à medida que modelos como o Sora, da OpenAI, e o Veo 3, do Google, tornam mais fácil copiar pessoas públicas.

O YouTube diz estudar formas de monetização futura para usos não autorizados de imagem, mas ainda não apresentou prazos ou propostas concretas.

Logo do YouTube em um smartphone que está na mão de uma pessoa e na horizontal
YouTube diz que não usa dados faciais para treinar modelos (Imagem: Mijansk786/Shutterstock)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.