A Meta segue aprimorando seus modelos de inteligência artificial (IA) e, graças ao Segment Anything Model 2 (SAM 2), a empresa conseguiu igualar alguns rivais e já consegue selecionar e mover objetos em vídeos.

publicidade
Skatista fazendo uma manobra de skate, com raios brancos saindo dele
Nova IA consegue se concentrar em um ou mais objetos (Imagem: Meta)

Segundo a dona de Facebook, Instagram e WhatsApp, o SAM 2 é capaz de segmentar e acompanhar qualquer objeto em tempo real em cada quadro (frame) do vídeo.

Enquanto outras IAs sofrem com alguns problemas quando mexem com vídeos, o modelo da Meta consegue resolvê-los. Entre eles, movimento rápido, mudanças de aparência e cenas nas quais outros elementos ficam na frente do objeto em foco.

publicidade

Leia mais:

publicidade

Exemplos da nova IA da Meta em vídeos

  • Entre os exemplos divulgados pela Meta, estão o vídeo de um skatista, onde apenas a pessoa é recortada, além da troca de todo o fundo;
  • A IA também consegue se concentrar em mais de um item, como, por exemplo, controlar, individualmente, o movimento de cada bola durante um malabarismo;
  • Segundo a big tech, o SAM 2 pode ser utilizado para coleta de dados em treinamentos de sistemas de computação visual, tais como em veículos autônomos;
  • Por enquanto, a tecnologia foi liberada em modo demonstração e pode simplificar o trabalho de editores de vídeos.

Além disso, bem como outras IAs da Meta, o código e dados do SAM 2 já estão disponíveis para todos no GitHub. O principal modelo de IA da empresa, o Llama 3.1, é de código aberto e faz frente a modelos fechados, como GTP-4o, da OpenAI e que abastece o ChatGPT, o primeiro chatbot de IA que surgiu para o público, em novembro de 2022.

Para testar a demo do SAM 2, clique aqui.

publicidade

Imagem de um mesa-tenista jogando duplicada
Exemplo do SAM 2 em ação (Imagem: Meta)