Imagem: Poetra.RH/Shutterstock
A Microsoft anunciou, na quarta-feira (13), o Phi-2, uma nova versão de um modelo de inteligência artificial (IA) desenvolvido por sua subsidiária de pesquisa. Este modelo, apesar de ser considerado pequeno, é descrito como poderoso pelos pesquisadores da empresa.
Em outras palavras, a big tech revelou seu plano B para a OpenAI. Após a decisão do conselho da OpenAI, em novembro, de demitir e depois reintegrar o CEO Sam Altman, a empresa de Bill Gates parece ansiosa para mostrar que possui suas próprias tecnologias avançadas no campo da IA.
Leia mais:
É importante lembrar que a Microsoft investiu US$ 10 bilhões (aproximadamente R$ 50 bilhões) na OpenAI em 2023 para capitalizar a popularidade do ChatGPT. Ela também integrou a tecnologia da startup em seus produtos, como o Bing, e desenvolveu um “companheiro de IA para o dia a dia” com base na tecnologia da OpenAI.
O Phi-2 é um modelo de linguagem de menor escala, com 2,7 bilhões de parâmetros, treinado em 14 dias. Para você ter uma ideia, o GPT-3 da OpenAI possui 175 bilhões de parâmetros, enquanto os modelos da Meta variam entre sete e 70 bilhões de parâmetros.
A Microsoft não pretende que o Phi-2 rivalize diretamente com modelos maiores como o GPT, especialmente considerando rumores de que o GPT-4 da OpenAI possui mais de um trilhão de parâmetros.
Apesar de seu tamanho menor, o Phi-2 se destaca por ser mais barato de operar devido à menor necessidade de poder computacional. Em testes complexos, ele apresenta desempenho equivalente ou superior a modelos até 25 vezes maiores.
Em comparação com modelos de IA de sete e 13 bilhões de parâmetros da Meta e de uma startup francesa, o Phi-2 mostrou superioridade em áreas como raciocínio de senso comum, compreensão de linguagem, matemática e código. Ele também se mostrou mais eficaz que o Gemini Nano do Google em benchmarks.
A Microsoft também anunciou o Orca 2, outro modelo de IA, com o objetivo de proporcionar habilidades de raciocínio avançadas, normalmente encontradas apenas em modelos maiores de linguagem. O Orca 2 demonstra desempenho semelhante ou melhor que modelos cinco a dez vezes maiores.
Enquanto modelos maiores como o GPT-4 podem responder diretamente a tarefas complexas, o Orca 2 e modelos menores podem abordar essas tarefas dividindo-as em etapas, proporcionando uma alternativa eficaz.
A comunidade Data Drifters publicou uma análise sugerindo que o Orca 2 se aproxima do desempenho do GPT-4 em termos de raciocínio. Juntos, o Orca 2 e o Phi-2 indicam que os esforços de IA da Microsoft vão além da parceria com a OpenAI, explorando diferentes abordagens e escalas de modelos de linguagem.
Esta post foi modificado pela última vez em 14 de dezembro de 2023 08:48