Um pesquisador identificou erros da nova versão do Bing, que contará com recursos do ChatGPT. Informações erradas foram identificadas durante a apresentação da Microsoft.

A atualização do Bing rapidamente chamou a atenção de usuários que ficaram interessados em testar a ferramenta. Em apenas 48 horas, mais de 1 milhão de pessoas se inscreveram para experimentar o buscador da Microsoft integrado com o chatbot da OpenAI.

Leia mais:

A apresentação do software impressionou ao mostrar uma barra lateral com informações adicionais sobre a busca e um botão de chatbot, em que o usuário pode fazer perguntas.

publicidade
O recurso de chatbot na nova versão do Bing. (Imagem: Divulgação/Microsoft)

Porém, alguns repórteres de tecnologia que estavam presentes no evento notaram erros e informações imprecisas da IA.

Durante a demostração da ferramenta, o Yusuf Mehdi, executivo de marketing da Microsoft, pediu que o chatbot fizesse a análise dos relatórios de ganhos das empresas Gap e Lululemon.

“O Bing AI obteve algumas respostas completamente erradas durante a demonstração. Mas ninguém percebeu”, disse o pesquisador independente Dmitri Brereton, em um post.

Erros na demonstração

De acordo com o pesquisador, os erros notados nessa demostração são referentes a alguns dados sobre os resultados do terceiro trimestre da Gap.

  • A ferramenta disse que empresa teve uma margem bruta de 37,4% – sendo que, no relatório original, o percentual foi de 38,7%.
  • O chatbot disse que a margem operacional da Gap foi de 5,9% – no entanto, o percentual oficial foi de 4,6%.

Outros erros foram identificados quando o executivo da Microsoft pediu que o Bing fizesse uma tabela com os ganhos da Lulemon:

  • O percentual de margem bruta da Lulemon foi de 55,9%; o Bing apresentou o percentual de 58,7%.
  • A IA informou de que a margem operacional da empresa foi de 20,7%; mas o percentual original é de 19%.

Um porta-voz da Microsoft emitiu uma nota à CNBC sobre os erros identificados na IA do Bing:

Estamos cientes deste relatório e analisamos suas descobertas em nossos esforços para melhorar essa experiência. Reconhecemos que ainda há trabalho a ser feito e esperamos que o sistema cometa erros durante este período de pré-visualização, por isso o feedback é fundamental para que possamos aprender e ajudar os modelos a melhorar.

A IA não é perfeita (ainda)

Recentemente, o CEO da OpenAI, Sam Altman, disse que o ChatGPT é legal, mas um produto horrível. A fala veio enquanto o executivo comentava os problemas de lentidão e informações imprecisas da ferramenta.

Apesar de inovadores e impressionantes à primeira vista, é preciso ter cautela com as informações de chatbots de IA generativa. O recém-anunciado Bard, serviço experimental de IA do Google, deu informações erradas quando questionado sobre as descobertas do Telescópio Espacial James Webb.

Com informações de CNBC

Imagem destaque: Poetra.RH / Shutterstock.com

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!