(Imagem: Robert Way / Shutterstock.com)
Os entusiastas de tecnologia em breve terão a oportunidade de experimentar o tão esperado gerador de texto para vídeo da OpenAI, o Sora. Em entrevista ao The Wall Street Journal, a diretora de tecnologia da OpenAI, Mira Murati, revelou que o Sora estará disponível “ainda este ano” e que isso poderá ocorrer “em alguns meses”.
A OpenAI apresentou pela primeira vez o Sora em fevereiro. Capaz de gerar cenas hiper-realistas com base em um prompt de texto, o Sora inicialmente estava disponível apenas para artistas visuais, designers e cineastas. No entanto, isso não impediu que alguns vídeos gerados pelo Sora circulassem em plataformas como X.
Leia mais:
Além de disponibilizar a ferramenta para o público em geral, Murati afirmou que a OpenAI tem planos de “eventualmente” incorporar áudio, o que pode tornar as cenas ainda mais realistas. A empresa também pretende permitir que os usuários editem o conteúdo nos vídeos produzidos pelo Sora, uma vez que ferramentas de IA nem sempre criam imagens precisas.
Estamos tentando descobrir como usar essa tecnologia como uma ferramenta com a qual as pessoas possam editar e criar.
Mira Murati, diretora de tecnologia da OpenAI, ao WSJ
Ao ser lançado, Murati afirmou que o Sora provavelmente não será capaz de produzir imagens de figuras públicas, semelhante às políticas do DALL-E. Os vídeos também terão uma marca d’água para distingui-los da realidade. O WSJ apresentou alguns exemplos do que esse modelo pode produzir, incluindo um touro animado em uma loja na China e uma sereia crítica de smartphones.
Confira alguns exemplos de vídeos gerados pela Sora:
Esta post foi modificado pela última vez em 13 de março de 2024 16:57