Dessa vez, foi a vez do ChatGPT, atualmente incorporado ao Bing, da Microsoft, dar cutucadas no Bard, chatbot recém-lançado pelo Google. A situação rolou nas primeiras horas desta quarta-feira (22). E pior: o embasamento trazia desinformação.

O caso aconteceu logo após o Bard se dizer preocupado justamente com o potencial do ChatGPT (e si mesmo) de espalhar desinformação, num teste realizado pelo site The Verge na terça-feira (21).

publicidade

Leia mais:

Chumbo trocado entre chatbots

Pessoa segurando celular com logomarca do ChatGPT em frente tela com logomarca do Google
ChatGPT espalhou por aí que o Bard, chatbot do Google, tinha sido derrubado (Imagem: Reprodução/Pixeld)

Se você perguntasse ao chatbot do Bing, no começo desta quarta, se o Bard tinha sido derrubado, ele te responderia que sim. Como evidência, traria um artigo em que o autor coloca em discussão um tweet. Nele, um usuário mostra que perguntou ao chatbot do Google quando ele seria derrubado e ele respondeu que já tinha sido.

publicidade

Por sua vez, essa resposta do Bard citou, também como evidência, um comentário do HackerNews, no qual alguém fazia piada sobre a possibilidade disso acontecer. E outra pessoa usou o ChatGPT para escrever uma cobertura (falsa) desse evento.

No jargão jornalístico, os chatbots deram duas barrigadas consecutivas – uma de cada lado. E, no fim, ambos espalharam desinformação por aí. Ou seja, a preocupação expressada pelo Bard na terça é mais do que justificável.

publicidade

O que esse caso entre Bard e ChatGPT significa

Balões de fala coloridos organizados em círculo
Chatbots parecem ser incapazes de avaliar fontes de notícias confiáveis (Imagem: Jorg Greuel/Getty Images)

Para começar, mostra como o lançamento apressado de chatbots baseados em IA (inteligência artificial) pode degradar o ecossistema de informações da internet (que já tem lá seus problemas).

Além disso, esse caso revela como, atualmente, chatbots são incapazes de avaliar fontes de notícias confiáveis, interpretam mal histórias sobre si mesmos e relatam mal suas próprias capacidades.

publicidade

Essa troca de cutucadas pode ser engraçada, mas alerta para consequências potencialmente graves. Isso porque os modelos de linguagem de IA em questão parecem ser incapazes de separar fatos e ficção de maneira confiável.

Com informações do The Verge

Imagem de destaque: Christin Hume / Pixabay / Pexels

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!