O ChatGPT possibilitou ao público comum o uso de inteligência artificial (IA), mas suas “entranhas” ainda são um segredo.

Nos últimos meses, houve uma tentativa de tornar a IA mais aberta. Em maio, segundo a WIRED, alguém vazou o Llama, modelo da Meta, dando acesso aos estranhos ao código da empresa, bem como ao seu comportamento.

publicidade

Leia mais:

Em julho, a Meta foi além e criou o Llama 2, mais poderoso e disponível para qualquer um baixar, modificar e reutilizar.

publicidade

Os modelos da Meta começaram a ser populares como base para companhias, pesquisadores e interessados em um passatempo para construir ferramentas e aplicações com as possibilidades do ChatGPT.

Temos ampla gama de apoiadores em todo o mundo que acreditam em nossa abordagem aberta para a IA de hoje… pesquisadores comprometidos em fazer pesquisas com o modelo e pessoas de tecnologia, academia e política que veem os benefícios do Llama e de abordagem aberta como nós.

Meta, quando do lançamento do Llama 2

Nesta semana, a Meta lançou outro modelo, Llama 2 Code, ajustado para codificação.

publicidade

Pode parecer que a abordagem de código aberto, que democratizou o acesso ao software, garantiu a transparência e melhorou a segurança durante décadas, está agora preparada para ter um impacto semelhante na IA.

  • Não tão rápido, diz um grupo por trás de um artigo de pesquisa que examina a realidade do Llama 2 e de outros modelos de IA que são descritos, de uma forma ou de outra, como “abertos”;
  • Os pesquisadores, da Carnegie Mellon University, do AI Now Institute e da Signal Foundation, dizem que os modelos marcados como “abertos” podem ter problemas;
  • O Llama 2 pode ser baixado, modificado e implantado gratuitamente, mas não é coberto por licença convencional de código aberto;
  • A licença da Meta proíbe o uso do Llama 2 para treinar outros modelos de linguagem e requer licença especial se um desenvolvedor o implantar em um aplicativo ou serviço com mais de 700 milhões de usuários diários.

Esse nível de controle significa que o Llama 2 pode fornecer benefícios técnicos e estratégicos significativos para a Meta – por exemplo, permitindo que a empresa se beneficie de ajustes úteis feitos por desenvolvedores externos quando ela usa o modelo em seus próprios aplicativos.

publicidade

Os modelos lançados sob licenças normais de código aberto, como o GPT Neo da organização sem fins lucrativos EleutherAI, são mais totalmente abertos, dizem os pesquisadores. Mas é difícil que tais projectos fiquem em pé de igualdade.

  • Primeiro, os dados necessários para treinar modelos avançados são frequentemente mantidos em segredo;
  • Em segundo lugar, as estruturas de software necessárias para construir tais modelos são frequentemente controladas por grandes corporações. Os dois mais populares, TensorFlow e Pytorch, são mantidos por Google e Meta, respectivamente;
  • Terceiro, a capacidade computacional necessária para treinar um modelo grande também está além do alcance de qualquer desenvolvedor ou empresa normal, normalmente exigindo dezenas ou centenas de milhões de dólares para uma única execução de treinamento;
  • E, finalmente, o trabalho humano necessário para aperfeiçoar e melhorar estes modelos é também um recurso que, na sua maioria, só está disponível para grandes empresas com recursos financeiros.

Do jeito que as coisas estão caminhando, uma das tecnologias mais importantes em décadas pode acabar enriquecendo e capacitando apenas um punhado de empresas, incluindo OpenAI, Microsoft, Meta e Google.

Se a IA é realmente uma tecnologia que muda o mundo, então os maiores benefícios poderiam ser sentidos se ela fosse disponibilizada e acessível de forma mais ampla.

“O que a nossa análise aponta é que a abertura não só não serve para ‘democratizar’ a IA”, diz-me Meredith Whittaker, presidente da Signal e uma das investigadoras por detrás do artigo. “Na verdade, mostramos que as empresas e instituições podem e têm aproveitado tecnologias ‘abertas’ para consolidar e expandir o poder centralizado.”

Whittaker acrescenta que o mito da abertura deve ser um fator nas tão necessárias regulamentações de IA. “Precisamos urgentemente de alternativas significativas à tecnologia definidas e dominadas por grandes empresas monopolistas – especialmente porque os sistemas de IA estão integrados em muitos domínios altamente sensíveis com impacto público específico: nos cuidados de saúde, nas finanças, na educação e no local de trabalho”, afirma ela.

“Criar as condições para tornar possíveis tais alternativas é projeto que pode coexistir e até ser apoiado por movimentos regulatórios como as reformas antitruste.”

Além de verificar o poder das grandes empresas, tornar a IA mais aberta pode ser crucial para desbloquear o melhor potencial da tecnologia – e evitar as suas piores tendências.

Se quisermos compreender até que ponto são capazes os modelos de IA mais avançados e mitigar os riscos que podem advir da implantação e de novos progressos, talvez seja melhor torná-los abertos aos cientistas de todo o mundo.

Assim como a segurança a partir da obscuridade nunca garante realmente que o código será executado com segurança, proteger o funcionamento de poderosos modelos de IA pode não ser a maneira mais inteligente de proceder.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!