O Bard, novo chatbot de IA do Google, estreou com o pé esquerdo, tropeçando em informações erradas sobre o Telescópio Espacial James Webb. Para mudar isso, a gigante de buscas vai adotar uma nova estratégia para melhorar a precisão da ferramenta: pedir ajuda aos funcionários.
O plano é treiná-lo com respostas factuais. Segundo as informações da CNBC, o vice-presidente de pesquisa do Google, Prabhakar Raghavan, enviou um e-mail pedindo que os colaboradores reescrevessem respostas do Bard manualmente sobre tópicos que dominam.
- O chatbot “aprende melhor pelo exemplo”, disse o executivo.
- As respostas devem ser em primeira pessoa, sem opinião e neutras, além de ter um tom educado e mais casual.
- Os funcionários também são instruídos a “evitar fazer presunções com base em raça, nacionalidade, sexo, idade, religião, orientação sexual, ideologia política, localização ou categorias semelhantes”.
- Outra solicitação é não descrever o Bard como uma pessoa, ou seja, insinuar que o chatbot tem emoções ou alegar que tem experiências semelhantes às humanas.
- Além disso, outra regra é fazer com que a ferramenta rejeite dar respostas sobre “aconselhamento jurídico, médico e financeiro”.

A mensagem chega logo após o CEO do Google, Sundar Pichai, pedir que os funcionários também passem algumas horas por semana testando o Bard. Vale recordar que alguns deles não ficaram nada contentes com o lançamento “apressado” do chatbot.
Leia mais:
- O que é ChatGPT e como acessar a inteligência artificial em português
- Presidente da Alphabet indica que, para o Google, Bard não estava pronto
- BuzzFeed lança Testes com nova tecnologia de IA
Bing com ChatGPT também errou?
Um pesquisador também notou erros da nova versão do Bing equipada com recursos do ChatGPT. Entre as falhas identificadas na apresentação da Microsoft, estão dados referentes aos resultados fiscais do terceiro trimestre da Gap.
Imagem principal: gguy/Shutterstock
Via: CNBC
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!