A OpenAI apresentou, nesta semana, o Sora 2, um novo modelo de inteligência artificial (IA) capaz de gerar vídeos hiper-realistas a partir de simples comandos de texto ou imagens. A ferramenta inclui recursos de visuais detalhados, fala, efeitos sonoros e física aprimorada, permitindo a criação de clipes que impressionam pelo realismo.
Entre as novidades, está o aplicativo social baseado no Sora 2, semelhante ao TikTok, que permite a produção e o compartilhamento de conteúdos curtos gerados por IA. O app também conta com uma função de cameo, que possibilita inserir a própria imagem em cenas ou utilizar o rosto de outros usuários, desde que autorizem o uso de sua imagem.
Apesar do apelo criativo, o potencial do Sora 2 levanta preocupações significativas. Nos primeiros três dias após o lançamento, o aplicativo foi usado para gerar vídeos de fraude eleitoral, prisões de imigrantes, protestos, crimes, explosões em cidades e invasões domiciliares — nenhum desses eventos de fato aconteceu.
Segundo especialistas ouvidos pelo The New York Times, o avanço coloca o Sora, assim como outras ferramentas semelhantes, como o Veo 3 do Google, em um patamar perigoso para a propagação de desinformação.

O professor Hany Farid, da Universidade da Califórnia em Berkeley, alertou: “É preocupante para os consumidores que todos os dias estão expostos a não sei quantas dessas peças de conteúdo. Eu me preocupo com a nossa democracia. Eu me preocupo com a nossa economia. Eu me preocupo com as nossas instituições”.
Testes do Sora são eficazes?
- A OpenAI afirmou ter realizado testes de segurança extensivos antes de liberar a ferramenta;
- Em comunicado, declarou: “Nossas políticas de uso proíbem enganar outras pessoas por meio de personificação, golpes ou fraudes, e tomamos medidas quando detectamos uso indevido”;
- A empresa também destacou que o Sora 2 conta com uma marca d’água em movimento para indicar que os vídeos foram gerados por IA, uma medida de proteção contra enganos;
- No entanto, testes realizados pelo Times mostraram que as restrições não são infalíveis;
- A ferramenta recusou-se a gerar imagens de líderes políticos ou de pessoas famosas sem permissão, mas aceitou criar cenas de roubos em lojas de conveniência, invasões registradas por câmeras residenciais e até explosões em centros urbanos. Em um dos vídeos, o próprio CEO da OpenAI, Sam Altman, aparece em uma simulação de furto em uma loja da Target;
- Outro ponto crítico é que o aplicativo não exige verificação de identidade para cadastro, o que permite que usuários criem perfis falsos;
- O sistema, porém, requer que quem deseja criar um avatar realista envie um vídeo próprio pela plataforma, bloqueando tentativas de usar imagens de celebridades. Ainda assim, a IA gerou conteúdo com figuras históricas falecidas, como Martin Luther King Jr. e Michael Jackson.
Leia mais:
- O que é a Sora, a inteligência artificial da OpenAI que cria vídeos?
- Como melhorar seu texto no ChatGPT: guia prático do básico ao avançado
- Sora: OpenAI anuncia rede social à la TikTok só para vídeos de IA

Resultados geram preocupação
Especialistas temem que a qualidade das produções intensifique o chamado “dividendo do mentiroso”, situação em que pessoas podem desacreditar de registros reais alegando que se tratam de falsificações digitais. “Era relativamente difícil falsificar, e agora esse último bastião está morrendo”, disse Lucas Hansen, fundador da organização CivAI.
Já o professor Kristian J. Hammond, da Universidade Northwestern, destacou que o Sora pode ampliar a criação de “realidades fragmentadas”, em que grupos recebem apenas vídeos que reforçam crenças falsas.
Para alguns especialistas, a evolução dos geradores de vídeo coloca em risco a própria noção de evidência visual. O professor Farid reconheceu: “Um ano atrás, mais ou menos, quando eu olhava, eu sabia e, depois, fazia a análise para confirmar a minha avaliação visual. Não consigo mais fazer isso.”
Embora ofereça um vasto campo de inovação criativa, o Sora 2 expõe um dilema entre avanço tecnológico e riscos sociais, alimentando um debate sobre como equilibrar inovação com proteção contra abusos digitais.

Exemplos
A seguir, confira alguns exemplos de vídeos criados com o Sora 2 e que têm potencial para gerar polêmica:
iPhone Fold and Apple Glasses unboxing and first look 😂 pic.twitter.com/FHOsH40LfL
— Ben Geskin (@BenGeskin) October 1, 2025
3. A gorilla at a bustling street food stall in Delhi cooks noodles with bananas on a giant wok. Real footage pic.twitter.com/as27SekWKj
— TechHalla (@techhalla) October 1, 2025
Sora 2 is pretty wild.
— Min Choi (@minchoi) October 1, 2025
People just dropped new insane videos
100% AI
1. CCTV footage of Sam stealing GPUs at Targetpic.twitter.com/RNVcEMoHKU
Spotify in Sora 2.
— Smoke-away (@SmokeAwayyy) October 1, 2025
Music industry is gonna love this.pic.twitter.com/pyrxe55hET