Sora 2: avanços em vídeos de IA levantam preocupações sobre desinformação

Nos primeiros três dias após lançamento, aplicativo foi usado para gerar vídeos de fraude eleitoral, prisões de imigrantes, protestos, crimes, explosões em cidades e invasões domiciliares — nenhum desses eventos de fato aconteceu
Rodrigo Mozelli03/10/2025 17h17
Logo da Open AI com os dizeres Sora 2 em um smartphone
Imagem: Camilo Concha/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

A OpenAI apresentou, nesta semana, o Sora 2, um novo modelo de inteligência artificial (IA) capaz de gerar vídeos hiper-realistas a partir de simples comandos de texto ou imagens. A ferramenta inclui recursos de visuais detalhados, fala, efeitos sonoros e física aprimorada, permitindo a criação de clipes que impressionam pelo realismo.

Entre as novidades, está o aplicativo social baseado no Sora 2, semelhante ao TikTok, que permite a produção e o compartilhamento de conteúdos curtos gerados por IA. O app também conta com uma função de cameo, que possibilita inserir a própria imagem em cenas ou utilizar o rosto de outros usuários, desde que autorizem o uso de sua imagem.

Apesar do apelo criativo, o potencial do Sora 2 levanta preocupações significativas. Nos primeiros três dias após o lançamento, o aplicativo foi usado para gerar vídeos de fraude eleitoral, prisões de imigrantes, protestos, crimes, explosões em cidades e invasões domiciliares — nenhum desses eventos de fato aconteceu.

Segundo especialistas ouvidos pelo The New York Times, o avanço coloca o Sora, assim como outras ferramentas semelhantes, como o Veo 3 do Google, em um patamar perigoso para a propagação de desinformação.

Imagem mostra logo da Open AI e do Sora 2
Avanço coloca o Sora, assim como outras ferramentas semelhantes, em patamar perigoso para a propagação de desinformação. (Imagem: Divulgação/Open AI)

O professor Hany Farid, da Universidade da Califórnia em Berkeley, alertou: “É preocupante para os consumidores que todos os dias estão expostos a não sei quantas dessas peças de conteúdo. Eu me preocupo com a nossa democracia. Eu me preocupo com a nossa economia. Eu me preocupo com as nossas instituições”.

Testes do Sora são eficazes?

  • A OpenAI afirmou ter realizado testes de segurança extensivos antes de liberar a ferramenta;
  • Em comunicado, declarou: “Nossas políticas de uso proíbem enganar outras pessoas por meio de personificação, golpes ou fraudes, e tomamos medidas quando detectamos uso indevido”;
  • A empresa também destacou que o Sora 2 conta com uma marca d’água em movimento para indicar que os vídeos foram gerados por IA, uma medida de proteção contra enganos;
  • No entanto, testes realizados pelo Times mostraram que as restrições não são infalíveis;
  • A ferramenta recusou-se a gerar imagens de líderes políticos ou de pessoas famosas sem permissão, mas aceitou criar cenas de roubos em lojas de conveniência, invasões registradas por câmeras residenciais e até explosões em centros urbanos. Em um dos vídeos, o próprio CEO da OpenAI, Sam Altman, aparece em uma simulação de furto em uma loja da Target;
  • Outro ponto crítico é que o aplicativo não exige verificação de identidade para cadastro, o que permite que usuários criem perfis falsos;
  • O sistema, porém, requer que quem deseja criar um avatar realista envie um vídeo próprio pela plataforma, bloqueando tentativas de usar imagens de celebridades. Ainda assim, a IA gerou conteúdo com figuras históricas falecidas, como Martin Luther King Jr. e Michael Jackson.

Leia mais:

Sam Altan gesticulando
Sam Altman foi retratado como um ladrão em um dos vídeos de sua própria ferramenta (Imagem: jamesonwu1972/Shutterstock)

Resultados geram preocupação

Especialistas temem que a qualidade das produções intensifique o chamado “dividendo do mentiroso”, situação em que pessoas podem desacreditar de registros reais alegando que se tratam de falsificações digitais. “Era relativamente difícil falsificar, e agora esse último bastião está morrendo”, disse Lucas Hansen, fundador da organização CivAI.

Já o professor Kristian J. Hammond, da Universidade Northwestern, destacou que o Sora pode ampliar a criação de “realidades fragmentadas”, em que grupos recebem apenas vídeos que reforçam crenças falsas.

Para alguns especialistas, a evolução dos geradores de vídeo coloca em risco a própria noção de evidência visual. O professor Farid reconheceu: “Um ano atrás, mais ou menos, quando eu olhava, eu sabia e, depois, fazia a análise para confirmar a minha avaliação visual. Não consigo mais fazer isso.”

Embora ofereça um vasto campo de inovação criativa, o Sora 2 expõe um dilema entre avanço tecnológico e riscos sociais, alimentando um debate sobre como equilibrar inovação com proteção contra abusos digitais.

sora app store
App do Sora estreou com tudo na App Store (Imagem: Tada Images/Shutterstock)

Exemplos

A seguir, confira alguns exemplos de vídeos criados com o Sora 2 e que têm potencial para gerar polêmica:

Rodrigo Mozelli é jornalista formado pela Universidade Metodista de São Paulo (UMESP) e, atualmente, é redator do Olhar Digital.