Pedir por favor é uma das maneiras mais efetivas de conseguirmos algo. Nossos pais ensinaram isso desde sempre (ou deveriam ter ensinado) e essa máxima dura por toda a vida. Mas será que funciona também com os robôs?

Esse é um debate que tem ganhado a internet nos últimos meses. E tem muita gente fazendo testes com chatbots e os resultados são surpreendentes: a Inteligência Artificial reage melhor quando tratada com educação.

publicidade

Leia mais

Esse assunto virou tópico no fórum Reddit há uns 6 meses. E, em novembro do ano passado, cientistas da Microsoft, da Universidade de Pequim e da Academia Chinesa de Ciências descobriram que os modelos generativos de IA em geral têm melhor desempenho quando solicitados de uma forma que transmita urgência ou importância.

publicidade

Sim, os pesquisadores fizeram uma série de experimentos e identificaram respostas melhores do ChatGPT quando escreveram algo como “É crucial que eu seja entendido” ou “Isso é muito importante para minha carreira”.

Outros exemplos

  • Esse não é o único caso.
  • Uma equipe da Anthropic, uma startup de IA, conseguiu evitar que o seu chatbot Claude desse respostas preconceituosas, fazendo um pedido para que o robô “realmente, realmente, realmente” não fizesse isso.
  • Já os cientistas de dados do Google descobriram que dizer a um grande modelo de linguagem para “respirar fundo” fez com que ele resolvesse melhor problemas matemáticos desafiadores.
  • Tem até o caso de um usuário do Reddit que disse que o robô atuou melhor após ele prometer um prêmio de US$ 100 mil!
  • Os cientistas estão chamando esse tipo de interação com a máquina de ‘instruções emotivas”.
  • Eles afirmam que é muito fácil confundir as coisas, dadas as formas convincentemente humanas com que esses chatbots conversam e agem.
  • Os pesquisadores, no entanto, garantem: essas máquinas não têm emoções.
  • Mais do que isso: eles explicam que os modelos generativos de IA não têm inteligência real.
  • São simplesmente sistemas estatísticos que preveem palavras, imagens, fala, música ou outros dados de acordo com algum esquema.

Então por que raios eles têm um desempenho melhor se tratados com educação?

Nouha Dziri, pesquisadora do Instituto Allen de IA, tem o seu palpite. Segundo ela, a chave está no treinamento pelo qual passaram esses LLMs.

publicidade

“Os modelos são treinados com o objetivo de maximizar a probabilidade de sequências de texto. Quanto mais dados de texto eles veem durante o treinamento, mais eficientes eles se tornam na atribuição de probabilidades mais altas a sequências frequentes. Portanto, ‘ser mais gentil’ implica articular suas solicitações de uma forma que se alinhe com o padrão de conformidade no qual os modelos foram treinados, o que pode aumentar a probabilidade de entregar o resultado desejado”, disse ela ao site TechCrunch.

A cientista explicou ainda que o bom desempenho da IA generativa está diretamente relacionado ao prompt, ou seja, ao comando de texto que você dá para que o chatbot execute uma tarefa.

publicidade

Na opinião de Nouha Dziri, a IA ainda precisa evoluir bastante para que não reaja mais a essas ‘instruções emotivas”.

“Descobrir o prompt perfeito que alcançará o resultado pretendido não é uma tarefa fácil e é atualmente uma questão de pesquisa ativa. Minha esperança é que desenvolvamos novas arquiteturas e métodos de treinamento que permitam aos modelos compreender melhor a tarefa subjacente sem precisar de tais prompts específicos. Queremos que os modelos tenham um melhor senso de contexto e entendam as solicitações de uma forma mais fluida, semelhante aos seres humanos, sem a necessidade de uma ‘motivação’”, concluiu a doutora.

As informações são do TechCrunch.