Imagem: Ascannio/ Shutterstock
Como já foi reportado diversas vezes, o ChatGPT pode errar. Na verdade, o chatbot da OpenAI erra com frequência, mas a empresa pouco está fazendo para deixar claro as limitações de seu software de Inteligência Artificial (IA). O único aviso dado pela companhia é que o programa “ocasionalmente pode gerar informações incorretas”.
Leia mais:
A OpenAI parece não ter assimilado a grandiosidade de seu chatbot e o uso que tem sido feito dele por parte dos usuários. Muitos recorrem à tecnologia por motivos de saúde, pesquisas acadêmicas ou, como foi o caso do advogado, materiais jurídicos.
Em maio, outro caso, de um professor do Texas que usou o ChatGPT para conferir se os alunos usaram a tecnologia para escrever redações, quase reprovou todos os estudantes. Isso porque o chatbot afirmou que ele tinha sido usado indevidamente, mas ele sequer tem capacidade para fazer esse tipo de verificação e apenas inventou uma resposta, que quase rendeu a reprovação de uma turma inteira.
Ainda assim, a companhia não tem esclarecido que o software mente e inventa informações ativamente, e não pode ser considerado 100% eficaz nem nas consultas.
Isso porque o ChatGPT não é um mecanismo de busca. Usuários usam-no como o Google justamente porque a OpenAI tem falhado em explicar que, na verdade, o chatbot é como um assistente virtual. Ele dirá qualquer informação de forma confiante, mesmo uma fabricada.
Com informações de The Verge
Esta post foi modificado pela última vez em 31 de maio de 2023 18:23