Recentemente, a Meta anunciou o LLaMA, seu modelo de linguagem que ajudará pesquisadores e cientistas a avançarem com estudos de inteligência artificial.
Na última semana, pouco tempo depois de a empresa disponibilizar as solicitações de acesso ao LLaMA, o modelo de linguagem vazou na internet.
- Conforme relatado pela Meta, o LLaMA foi treinado com textos dos 20 idiomas mais falados no mundo;
- Diferente de outros modelos de linguagem de IA, como o ChatGPT, Bing ou Bard, o LLaMA não é uma ferramenta que qualquer usuário pode usar – afinal, ele é voltado para o uso em pesquisas de IA;
- Essa é a primeira vez que um modelo de linguagem vaza para o público.
Leia mais:
- Meta está testando um serviço de verificação pago
- O que é ChatGPT e como acessar a inteligência artificial em português
- Testamos o ChatGPT no Bing e no Edge; confira nossas impressões
- Bing com ChatGPT fica com raiva e tem crise existencial
Em 3 de março, um torrent com o LLaMA foi postado no fórum 4chan e começou a se espalhar em comunidades de IA. De acordo com usuários do fórum, eles estariam conseguindo rodar o modelo em suas próprias máquinas.
O site The Verge conversou com pesquisadores de IA que baixaram o conteúdo vazado e afirmaram que as publicações contam com o modelo de linguagem legítimo da Meta.
Em comunicado, a Meta não negou ou confirmou os vazamentos. Confira:
O objetivo da Meta é compartilhar modelos de IA de última geração com membros da comunidade de pesquisa para nos ajudar a avaliar e melhorar esses modelos. O LLaMA foi compartilhado para fins de pesquisa, consistente com a forma como compartilhamos modelos de linguagem anteriores. Embora o modelo não seja acessível a todos e alguns tenham tentado contornar o processo de aprovação, acreditamos que a atual estratégia de lançamento nos permite equilibrar responsabilidade e abertura.
Pelo que indica uma atualização do GitHub em uma publicação que disponibilizava o LLaMA, a Meta já realizou pedidos de remoção do modelo de linguagem da internet.
A empresa Meta Platforms, Inc solicitou a remoção deste modelo publicado, caracterizando-o como uma distribuição não autorizada de Meta Properties que constitui uma violação de direitos autorais ou uso impróprio/não autorizado
Comunicado do GitHub.
Em um tuíte, a pesquisadora de segurança cibernética Jeffrey Ladish disse que o vazamento representa novos riscos de práticas cibercriminosas.
“Prepare-se para inúmeras tentativas personalizadas de spam e phishing. Abrir o código desses modelos foi uma péssima ideia”, escreveu a pesquisadora.
Com informações de Vice e The Verge.
Imagem destaque: Ascannio / Shutterstock.com
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!