O enorme custo de execução dos grandes modelos de linguagem de hoje, que sustentam chatbots como ChatGPT (OpenAI) e Bard (Google), limita sua qualidade e ameaça estrangular o boom global de IA (inteligência artificial) que eles provocaram.

Para quem tem pressa:

  • O custo enorme para chatbots como ChatGPT e Bard rodarem limita sua qualidade e ameaça o boom de IA (inteligência artificial) generativa;
  • Pontos fracos atuais dos chatbots poderiam ser resolvidos se o custo para funcionarem não fosse tão alto;
  • Um único bate-papo com o ChatGPT pode custar até mil vezes mais do que uma simples pesquisa no Google, estimou um analista-chefe de uma empresa de pesquisa de semicondutores;
  • Os anúncios provavelmente estão chegando aos chatbots de IA, mas não devem torná-los tão lucrativos quanto precisam ser;
  • “Estamos com poucas GPUs [componente necessário para chatbots funcionarem]. Então, quanto menos pessoas usarem nossos produtos, melhor”, disse Sam Altman, CEO da OpenAI, em depoimento no Senado dos EUA.

Suas despesas e a disponibilidade limitada dos chips de computador que eles exigem também estão restringindo quais empresas podem arcar com eles e pressionando até mesmo as empresas mais ricas do mundo a transformar chatbots em geradores de dinheiro antes do que eles podem estar prontos.

Leia mais:

Os modelos que estão sendo implantados agora, por mais impressionantes que pareçam, não são realmente os melhores modelos disponíveis. Portanto, como resultado, os modelos que você pode usar têm muitos pontos fracos.

Tom Goldstein, professor de ciência da computação da Universidade de Maryland (EUA), em entrevista ao The Washington Post

Esses pontos fracos – por exemplo: propensão a entregar resultados tendenciosos de prompts ou mentiras – poderiam ser evitados se o custo não fosse um problema.

publicidade

Prejuízos dos chatbots

Celular com ChatGPT aberto enquanto Google e Bing estão abertos em computador logo atrás
(Imagem: Rokas Tenys/Shutterstock)

As gigantes da tecnologia que apostam seu futuro na IA raramente discutem o custo da tecnologia. Inclusive, a OpenAI, a Microsoft e o Google negaram o pedido do jornal para comentarem sobre o assunto. Mas os especialistas dizem que é o obstáculo mais crítico para a visão das big techs de IA generativa abrindo caminho em todos os setores, cortando o número de funcionários e aumentando a eficiência.

A computação intensiva que a IA exige é o motivo pelo qual a OpenAI reteve seu poderoso novo modelo de linguagem, GPT-4, da versão gratuita do ChatGPT, que ainda está executando um modelo GPT-3.5 mais fraco.

O conjunto de dados subjacentes do ChatGPT foi atualizado pela última vez em setembro de 2021, tornando-o inútil para pesquisar ou discutir eventos recentes. E mesmo aqueles que pagam US$ 20 (aproximadamente R$ 100 em conversão direta, na cotação atual) por mês pelo GPT-4 podem enviar apenas 25 mensagens a cada três horas porque é muito caro executá-lo – e ele é muito mais lento para responder.

Celular com logomarca do Google na frente de tela com Bard escrito
(Imagem: Reprodução/GizChina)

Esses custos também podem ser um dos motivos pelos quais o Google ainda não construiu um chatbot de IA em seu principal mecanismo de pesquisa, que responde a bilhões de consultas todos os dias.

Quando o Google lançou seu chatbot Bard, em março de 2023, optou por não usar seu maior modelo de linguagem. Dylan Patel, analista-chefe da empresa de pesquisa de semicondutores SemiAnalysis, estimou que um único bate-papo com o ChatGPT pode custar até mil vezes mais do que uma simples pesquisa no Google.

Em um relatório recente sobre inteligência artificial, o governo Biden identificou os custos computacionais da IA ​​generativa como uma preocupação nacional. A Casa Branca escreveu que espera-se que a tecnologia “aumente drasticamente as demandas computacionais e os impactos ambientais associados” e que há uma “necessidade urgente” de projetar sistemas mais sustentáveis.

Custos secretos da IA

Mãos robóticas sobre teclado
(Imagem: Thinkstock)

Ainda mais do que outras formas de aprendizado de máquina, a IA generativa requer quantidades vertiginosas de poder computacional e chips de computador especializados, conhecidos como GPUs, que apenas as empresas mais ricas podem pagar.

A intensificação da batalha pelo acesso a esses chips ajudou a transformar seus principais fornecedores em gigantes da tecnologia por direito próprio, detendo as chaves do que se tornou o ativo mais valioso do setor de tecnologia.

O Vale do Silício passou a dominar a economia da internet em parte ao oferecer gratuitamente serviços como busca online, e-mail e mídia social para o mundo, perdendo dinheiro inicialmente, mas eventualmente gerando grandes lucros em publicidade personalizada.

Por isso, os anúncios provavelmente estão chegando aos chatbots de IA. Mas os analistas dizem que os anúncios sozinhos provavelmente não serão suficientes para tornar as ferramentas de IA lucrativas tão cedo.

Enquanto isso, as empresas que oferecem modelos de IA para uso do consumidor devem equilibrar seu desejo de ganhar participação de mercado com as perdas financeiras que estão acumulando.

Caminhos para lucrar

CEO da OpenAI e criador do ChatGPT, Sam Altman, durante audiência no Congresso dos Estados Unidos
Sam Altman, CEO da OpenAI, no Senado dos EUA (Imagem: Patrick Semansky/AP Photo)

A busca por IA mais confiável também deve gerar lucros principalmente para os fabricantes de chips e gigantes da computação em nuvem que já controlam grande parte do espaço digital – junto com os fabricantes de chips cujo hardware eles precisam para executar os modelos.

Não é por acaso que as empresas que constroem os principais modelos de linguagem de IA estão entre os maiores provedores de computação em nuvem, como o Google e a Microsoft, ou têm parcerias estreitas com eles, como a OpenAI faz com a Microsoft.

As companhias que compram as ferramentas de IA dessas empresas não percebem que estão presas a um serviço altamente subsidiado que custa muito mais do que pagam atualmente, disse Clem Delangue, CEO da Hugging Face, uma empresa de IA de código aberto.

O CEO da OpenAI, Sam Altman, reconheceu indiretamente o problema numa audiência no Senado dos EUA, realizada em maio, quando o senador Jon Ossoff alertou que se a OpenAI tentasse tornar o ChatGPT viciante de uma forma que prejudique as crianças, o Congresso “será muito severo ” nele. Altman disse que Ossoff não precisa se preocupar:

Tentamos projetar sistemas que não maximizam o engajamento. Na verdade, estamos com poucas GPUs. Então, quanto menos pessoas usarem nossos produtos, melhor.

Sam Altman, CEO da OpenAI e “pai” do ChatGPT, em audiência no Senado dos EUA

Com informações de The Washington Post

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!