Recentemente, a Meta anunciou o LLaMA, seu modelo de linguagem que ajudará pesquisadores e cientistas a avançarem com estudos de inteligência artificial.

Na última semana, pouco tempo depois de a empresa disponibilizar as solicitações de acesso ao LLaMA, o modelo de linguagem vazou na internet.

publicidade
  • Conforme relatado pela Meta, o LLaMA foi treinado com textos dos 20 idiomas mais falados no mundo;
  • Diferente de outros modelos de linguagem de IA, como o ChatGPT, Bing ou Bard, o LLaMA não é uma ferramenta que qualquer usuário pode usar – afinal, ele é voltado para o uso em pesquisas de IA;
  • Essa é a primeira vez que um modelo de linguagem vaza para o público.

Leia mais:

Em 3 de março, um torrent com o LLaMA foi postado no fórum 4chan e começou a se espalhar em comunidades de IA. De acordo com usuários do fórum, eles estariam conseguindo rodar o modelo em suas próprias máquinas.

publicidade

O site The Verge conversou com pesquisadores de IA que baixaram o conteúdo vazado e afirmaram que as publicações contam com o modelo de linguagem legítimo da Meta.

Em comunicado, a Meta não negou ou confirmou os vazamentos. Confira:

publicidade

O objetivo da Meta é compartilhar modelos de IA de última geração com membros da comunidade de pesquisa para nos ajudar a avaliar e melhorar esses modelos. O LLaMA foi compartilhado para fins de pesquisa, consistente com a forma como compartilhamos modelos de linguagem anteriores. Embora o modelo não seja acessível a todos e alguns tenham tentado contornar o processo de aprovação, acreditamos que a atual estratégia de lançamento nos permite equilibrar responsabilidade e abertura.

Pelo que indica uma atualização do GitHub em uma publicação que disponibilizava o LLaMA, a Meta já realizou pedidos de remoção do modelo de linguagem da internet.

A empresa Meta Platforms, Inc solicitou a remoção deste modelo publicado, caracterizando-o como uma distribuição não autorizada de Meta Properties que constitui uma violação de direitos autorais ou uso impróprio/não autorizado

Comunicado do GitHub.

Em um tuíte, a pesquisadora de segurança cibernética Jeffrey Ladish disse que o vazamento representa novos riscos de práticas cibercriminosas.

publicidade

“Prepare-se para inúmeras tentativas personalizadas de spam e phishing. Abrir o código desses modelos foi uma péssima ideia”, escreveu a pesquisadora.

Com informações de Vice e The Verge.

Imagem destaque: Ascannio / Shutterstock.com

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!