A Meta anunciou nesta terça-feira (18) que vai abrir o código do seu modelo de linguagem LLaMA 2, tornando-o gratuito para uso comercial e de pesquisa. A estratégia foi adotada para acirrar a briga com o GPT-4, modelo da OpenAI que alimenta o ChatGPT.

O que você precisa saber:

publicidade
  • A empresa confirmou a novidade no evento Microsoft Inspire.
  • O comunicado da Meta enviado à imprensa explica que abrir o código é uma forma de dar às empresas, startups e pesquisadores acesso a mais ferramentas de IA. Além de “melhorar a segurança e a transparência” do modelo de linguagem. 
  • Segundo a big tech, o LLaMA 2 foi treinado com 40% mais dados quando comparado ao LLaMa 1, que já incluía informações de “fontes de dados on-line publicamente disponíveis”.
  • A nova versão também promete superar outros modelos em testes de raciocínio, codificação, proficiência e conhecimento.
  • O LLaMa 2 de código aberto estará disponível em plataformas como a Azure da Microsoft, AWS da Amazon e Hugging Face.

Leia mais:

Acreditamos que uma abordagem aberta é a certa para o desenvolvimento dos modelos atuais de IA, especialmente aqueles no espaço generativo, onde a tecnologia está avançando rapidamente. Abrir o acesso aos modelos de IA de hoje significa que uma geração de desenvolvedores e pesquisadores pode testá-los, identificando e resolvendo problemas rapidamente, como uma comunidade.

Trecho do comunicado da Meta enviado à imprensa

Agora que mais pessoas têm acesso à ferramenta, veremos novidade em breve na área de IA. A Meta diz que recebeu mais de 100 mil pedidos de pesquisadores para usar seu primeiro modelo, o LLaMA 2 de código aberto provavelmente terá um alcance muito maior.

publicidade

IA no seu bolso

  • A Qualcomm também aproveitou a oportunidade e anunciou que está trabalhando com a Meta para levar o LLaMa para celulares e notebooks a partir de 2024.
  • Outro plano da empresa é criar aplicativos baseados em IA que funcionam sem depender da nuvem.

Com informações da Meta e The Verge

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!