Siga o Olhar Digital no Google Discover
A Microsoft anunciou o Phi-4, modelo de inteligência artificial (IA) generativa mais recente da família Phi. Ele traz avanços significativos em relação aos seus predecessores, especialmente na resolução de problemas matemáticos, segundo a empresa. Isso graças a melhorias na qualidade dos dados usados no treinamento da IA.
Ofertas
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 349,90
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 205,91
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 7,60
Por: R$ 21,77
Por: R$ 16,63
Por: R$ 59,95
Por: R$ 7,20
Por: R$ 139,90
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
Com 14 bilhões de parâmetros, o Phi-4 é um modelo de IA considerado pequeno. Ele chega para competir com GPT-4o mini, Gemini 2.0 Flash e Claude 3.5 Haiku, por exemplo. Esses modelos compactos são considerados rápidos e relativamente baratos de manter. E sua eficiência tem crescido.
Microsoft usou dados sintéticos e dados gerados por humanos em treinamento da sua nova IA
A Microsoft atribui o desempenho superior do Phi-4 ao uso de conjuntos de dados sintéticos de alta qualidade combinados com dados gerados por humanos, além de melhorias pós-treinamento não especificadas.

O Phi-4 também marca momento de transição para a Microsoft, conforme apontado pelo TechCrunch. Isso porque é o primeiro modelo da série lançado após a saída de Sébastien Bubeck, ex-vice-presidente de IA e figura central no desenvolvimento da linha Phi. Bubeck se juntou à equipe da OpenAI em outubro.
Além disso, o Phi-4 está disponível de maneira muito restrita. O acesso ocorre por meio da nova plataforma de desenvolvimento Azure AI Foundry, da Microsoft. E o novo modelo pode ser utilizado apenas para fins de pesquisa, sob um acordo de licença específico da empresa, conforme explicado pela big tech neste post.
Leia mais:
- IA Conversacional: o que esperar dos chatbots e assistentes virtuais em 2025?
- ChatGPT vs. Microsoft Copilot: quais são as diferenças?
- Microsoft Copilot Pro ou ChatGPT Plus: o que vale mais a pena?
Agora ChatGPT ‘vê’ o que o seu celular ‘vê’
Falando em OpenAI, a empresa anunciou, na quinta-feira (12), recursos de vídeo em tempo real para o aplicativo do ChatGPT. Agora, o modo de voz avançado do chatbot tem “visão“. Na prática, significa que os usuários podem apontar seus celulares para algo e fazer perguntas. Aí, a inteligência artificial (IA) responde quase em tempo real.

Além disso, o ChatGPT agora entende o que está na tela compartilhada de um dispositivo ou serviço. Em essência, a novidade é que o chatbot da OpenAI agora “vê” o que o celular do usuário e o usuário em si “vêem”.
Saiba mais sobre a nova “visão” do modo de voz avançado do ChatGPT nesta matéria do Olhar Digital.