Mãe dos chatbots, robô do MIT fingia ser inteligente

Eliza foi desenvolvida pelo MIT em 1965; tecnologia do robô ainda é aproveitada em chatbots mais simples atualmente.
Por Vitoria Lopes Gomez, editado por Bruno Capozzi 13/04/2023 16h48, atualizada em 19/04/2023 19h02
Eliza
Wikimedia Commons
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Com o avanço da robótica e da Inteligência Artificial, os robôs têm se tornado cada vez mais inteligentes. Em 1965, porém, Eliza, um robô desenvolvido pelo Instituto de Tecnologia de Massachusetts (MIT), só fingia e usava truques para enganar as pessoas.

Leia mais:

Eliza, o primeiro robô

Eliza foi o primeiro robô de conversação (o que chamaríamos hoje de chatbot). O modelo foi desenvolvido pelo matemático Joseph Weizenbaum, pesquisador do MIT, para funcionar como uma espécia de psicóloga. Isso foi em 1965, mais de uma década antes da popularização dos computadores pessoais, na década de 1980.

Na prática, o pesquisador criou um software capaz de identificar cerca de 250 tipos de frases. Assim, ela enganava o usuário incorporando trechos das próprias perguntas nas respostas.

Para Rodrigo Siqueira, engenheiro elétrico, administrador e fundador da empresa Inbot, que desenvolve chatbots com processamento de linguagem natural, o robô se utilizava de truques.

A Eliza usava uma série de truques para parecer que era inteligente e o usuário se esquecia de que estava conversando com um computador.

Rodrigo Siqueira, em entrevista ao Valor Econômico

Novas tecnologias

  • A “mãe dos robôs” pode não ser avançada como as tecnologias que conhecemos hoje, mas seu mecanismo de identificação de palavras-chave ainda é usado em robôs de conversação mais simples atualmente.
  • Agora, eles foram evoluindo com novas camadas de programação e podem, por exemplo, identificar erros ortográficos.
  • O ChatGPT é um dos que foi além e consegue identificar sentimento do usuário.
  • Siqueira explica que, com o tempo, os mecanismos foram refinados para entender a intenção do interlocutor e formular respostas que possam se aproximar mais da que ele espera.
  • Um exemplo disso é a confiança com que o ChatGPT passa informações falsas — algo que a OpenAI prometeu mitigar na versão 4.0.
  • Rodrigo Siqueira destaca a “alucinação da IA” e diz que uma das soluções usadas pela Inbot é treinar a ferramenta para reconhecer que não sabe todas as respostas.

Com informações de Valor Econômico

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

Vitória Lopes Gomez é jornalista formada pela UNESP e redatora no Olhar Digital.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.