O novo plano da Meta para não ficar para trás na corrida da IA

Novo modelo, voltado para imagens e vídeos, reforça como a Meta tenta se reposicionar numa das frentes mais disputadas da IA
Pedro Spadoni19/12/2025 08h03
CEO da Meta, Mark Zuckerberg, falando durante evento
(Imagem: FotoField/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

A Meta está desenvolvendo um novo modelo de inteligência artificial (IA) focado em imagens e vídeos, conhecido internamente pelo codinome Mango. A informação foi revelada pelo Wall Street Journal, que teve acesso a detalhes de discussões internas da empresa. O lançamento está previsto para o primeiro semestre de 2026, como parte de uma reformulação mais ampla da estratégia de IA da big tech.

Segundo o WSJ, a ideia da Meta é avançar justamente numa das frentes mais disputadas da IA hoje: a geração visual. Imagens e vídeos deixaram de ser um recurso periférico e passaram a funcionar como um dos principais motores de engajamento das grandes plataformas de rede social. Isso ajuda a explicar por que a empresa decidiu acelerar esse tipo de modelo agora.

O que se sabe sobre o novo modelo de IA da Meta

De acordo com a reportagem, o Mango foi pensado desde o início como um modelo dedicado exclusivamente à criação de imagens e vídeos, e não como uma simples extensão de modelos de texto já existentes. A Meta, portanto, segue a mesma lógica adotada por rivais como OpenAI e Google: separar funções para ganhar desempenho e qualidade em cada tarefa específica.

Logo da Meta em um smartphone com os dizeres "AI" ao fundo, desfocado
A IA apelidada de Mango foi pensada desde o início pela Meta como um modelo dedicado exclusivamente à criação de imagens e vídeos (Imagem: Ascannio/Shutterstock)

O WSJ também aponta que o Mango não chegará sozinho. Ele deve ser lançado ao lado de um novo modelo de linguagem, batizado de Avocado, voltado para texto e com foco especial em programação. A estratégia indica que a Meta pretende montar um portfólio mais modular de modelos, cada um otimizado para um tipo de uso, em vez de apostar tudo em um único sistema genérico.

Esses planos foram mencionados por Alexandr Wang, chefe de IA da Meta, durante uma sessão interna de perguntas e respostas com Chris Cox, diretor de produtos da empresa, segundo pessoas que acompanharam a conversa. Wang (fundador e ex-CEO da Scale AI) foi contratado para liderar o recém-criado Meta Superintelligence Labs, divisão que centraliza os esforços mais ambiciosos da companhia em IA.

Ao longo do último ano, o CEO da Meta, Mark Zuckerberg, se envolveu pessoalmente na contratação de talentos, trazendo mais de 20 pesquisadores vindos da OpenAI e formando um time com mais de 50 profissionais especializados em IA. O objetivo é recuperar terreno numa corrida que ficou ainda mais acirrada em 2025.

Agora, por que imagens e vídeos se tornaram um campo tão estratégico? Segundo o WSJ, ferramentas visuais são vistas pelas empresas como recursos “pegajosos”. Isto é, aqueles que fazem o usuário voltar. Exemplos recentes reforçam isso, como o lançamento do Vibes, gerador de vídeos da Meta, o Sora, da OpenAI, e soluções do Google que impulsionaram a adoção do Gemini. Nesse cenário, ficar para trás simplesmente não é uma opção.

Como o avanço em modelos de geração de imagens se conecta à estratégia maior da Meta na IA

O desenvolvimento do Mango ajuda a iluminar uma estratégia mais ampla da Meta. Investir em modelos próprios não é apenas uma questão de produto, mas também de controle de custos e de autonomia tecnológica num mercado dominado por poucos fornecedores de infraestrutura.

Ícones de Google e Meta em um smartphone
Google e Meta têm um plano para enfraquecer a Nvidia na corrida da inteligência artificial (Imagem: Koshiro K/Shutterstock)

Hoje, grande parte do custo para rodar modelos de IA vem da dependência de GPUs da Nvidia. Ao fortalecer seu próprio ecossistema (de modelos a software), a Meta busca reduzir gastos com inferência e ganhar mais poder de negociação. Esse pano de fundo ajuda a entender por que a empresa olha para além do desempenho puro e passa a tratar a arquitetura da IA como uma questão estratégica.

Nesse contexto, entra o papel do PyTorch, framework criado e mantido principalmente pela Meta e amplamente usado por desenvolvedores de IA no mundo todo. Controlar o software que conecta modelos ao hardware é uma forma indireta, mas poderosa, de reduzir dependências e abrir caminho para alternativas à Nvidia.

Leia mais:

A parceria com o Google, nesse ponto, reforça a leitura de que a Meta não está agindo sozinha. Enquanto o Google tenta tornar suas TPUs mais compatíveis com o PyTorch, a Meta avança no desenvolvimento de modelos próprios cada vez mais sofisticados. As duas frentes se complementam: menos amarras no software e mais opções no lado dos modelos.

Visto assim, o Mango deixa de ser apenas “mais um modelo de imagem”. Ele passa a funcionar como uma peça dentro de um movimento maior da Meta para reposicionar sua IA, com mais controle sobre tecnologia, custos e rumos do próprio ecossistema.

Pedro Spadoni
Redator(a)

Pedro Spadoni é jornalista formado pela Universidade Metodista de Piracicaba (Unimep). Já escreveu para sites, revistas e até um jornal. No Olhar Digital, escreve sobre (quase) tudo.