Phi-4: Microsoft anuncia modelo de IA para competir com GPT e Gemini

A Microsoft anunciou o Phi-4, modelo de inteligência artificial (IA) generativa mais recente da família Phi; saiba mais sobre a nova IA
Pedro Spadoni13/12/2024 11h56, atualizada em 13/12/2024 11h59
Celular com logotipo da Microsoft na tela e ilustração sobre inteligência artificial no fundo
(Imagem: Below the Sky/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

A Microsoft anunciou o Phi-4, modelo de inteligência artificial (IA) generativa mais recente da família Phi. Ele traz avanços significativos em relação aos seus predecessores, especialmente na resolução de problemas matemáticos, segundo a empresa. Isso graças a melhorias na qualidade dos dados usados no treinamento da IA.

Com 14 bilhões de parâmetros, o Phi-4 é um modelo de IA considerado pequeno. Ele chega para competir com GPT-4o mini, Gemini 2.0 Flash e Claude 3.5 Haiku, por exemplo. Esses modelos compactos são considerados rápidos e relativamente baratos de manter. E sua eficiência tem crescido.

Microsoft usou dados sintéticos e dados gerados por humanos em treinamento da sua nova IA

A Microsoft atribui o desempenho superior do Phi-4 ao uso de conjuntos de dados sintéticos de alta qualidade combinados com dados gerados por humanos, além de melhorias pós-treinamento não especificadas.

Microsoft IA
Novo modelo de IA da Microsoft chega para competir com GPT-4o mini, Gemini 2.0 Flash e Claude 3.5 Haiku, por exemplo (Imagem: IB Photography/Shutterstock)

O Phi-4 também marca momento de transição para a Microsoft, conforme apontado pelo TechCrunch. Isso porque é o primeiro modelo da série lançado após a saída de Sébastien Bubeck, ex-vice-presidente de IA e figura central no desenvolvimento da linha Phi. Bubeck se juntou à equipe da OpenAI em outubro.

Além disso, o Phi-4 está disponível de maneira muito restrita. O acesso ocorre por meio da nova plataforma de desenvolvimento Azure AI Foundry, da Microsoft. E o novo modelo pode ser utilizado apenas para fins de pesquisa, sob um acordo de licença específico da empresa, conforme explicado pela big tech neste post.

Leia mais:

Agora ChatGPT ‘vê’ o que o seu celular ‘vê’

Falando em OpenAI, a empresa anunciou, na quinta-feira (12), recursos de vídeo em tempo real para o aplicativo do ChatGPT. Agora, o modo de voz avançado do chatbot tem “visão“. Na prática, significa que os usuários podem apontar seus celulares para algo e fazer perguntas. Aí, a inteligência artificial (IA) responde quase em tempo real.

Homem conversando por áudios com ChatGPT no celular
Modo de voz avançado do ChatGPT agora tem ‘visão’ também (Imagem: Rokas Tenys/Shutterstock)

Além disso, o ChatGPT agora entende o que está na tela compartilhada de um dispositivo ou serviço. Em essência, a novidade é que o chatbot da OpenAI agora “vê” o que o celular do usuário e o usuário em si “vêem”.

Saiba mais sobre a nova “visão” do modo de voz avançado do ChatGPT nesta matéria do Olhar Digital.

Pedro Spadoni
Redator(a)

Pedro Spadoni é jornalista formado pela Universidade Metodista de Piracicaba (Unimep). Já escreveu para sites, revistas e até um jornal. No Olhar Digital, escreve sobre (quase) tudo.