A OpenAI está assumindo a responsabilidade de combater as “alucinações” de sua IA no ChatGPT, anunciou a empresa na quarta-feira, 31 de maio, com um método mais recente para treinar modelos de inteligência artificial.

Leia mais:

publicidade

A pesquisa vem em um momento em que a desinformação proveniente de sistemas de IA é mais debatida do que nunca, em meio ao boom da IA generativa e à preparação para as eleições presidenciais dos EUA em 2024.

  • A OpenAI impulsionou o boom da IA generativa seis meses atrás, quando lançou o ChatGPT, seu chatbot alimentado pelo GPT-3 e GPT-4.
  • O ChatGPT alcançou mais de 100 milhões de usuários mensais em dois meses, estabelecendo, segundo relatos, um recorde como o aplicativo de crescimento mais rápido.
  • Até o momento, a Microsoft investiu mais de US$ 13 bilhões na OpenAI, e o valor da startup alcançou aproximadamente US$ 29 bilhões.

As alucinações da IA ocorrem quando modelos como o ChatGPT da OpenAI ou o Bard do Google fabricam informações, agindo como se estivessem transmitindo fatos.

publicidade

Alguns exemplos:

Até mesmo os modelos de última geração têm a tendência de produzir falsidades — eles exibem uma tendência de inventar fatos em momentos de incerteza. Essas alucinações são particularmente problemáticas em domínios que exigem raciocínio de várias etapas, uma vez que um único erro lógico é suficiente para desviar uma solução muito maior.

Pesquisadores da OpenAI no relatório

Nova abordagem

A potencial nova estratégia da OpenAI para combater as fabricações: treinar modelos de IA para se recompensarem por cada etapa de raciocínio individual correta quando estão chegando a uma resposta, em vez de apenas recompensar uma conclusão final correta.

publicidade

A abordagem é chamada de “supervisão de processo”, em oposição à “supervisão de resultado”, e pode levar a uma IA mais explicável, de acordo com os pesquisadores, uma vez que a estratégia incentiva os modelos a seguir mais uma abordagem de “pensamento” semelhante ao humano.

Detectar e mitigar os erros lógicos ou alucinações de um modelo é um passo crítico para a construção de uma IA geral alinhada. A motivação por trás desta pesquisa é abordar as alucinações para tornar os modelos mais capazes de resolver problemas complexos de raciocínio.”

Karl Cobbe, pesquisador de matemática da OpenAI, ao CNBC

A OpenAI lançou um conjunto complementar de dados com 800.000 rótulos humanos usados para treinar o modelo mencionado no artigo de pesquisa, disse Cobbe.

publicidade

Avanços da OpenAI são positivos, mas há ceticismo

Ben Winters, consultor sênior do Electronic Privacy Information Center e líder de seu projeto de IA e direitos humanos, expressou ceticismo, afirmando em entrevista ao CNBC que gostaria de examinar o conjunto de dados completo e os exemplos correspondentes.

“Eu simplesmente não acho que isso, por si só, mitiga significativamente as preocupações com desinformação e resultados incorretos… quando está sendo usado na prática”, disse Winters. Ele acrescentou: “Certamente importa se eles planejam implementar o que encontraram por meio desta pesquisa [em seus produtos], e se não o fizerem, isso levanta algumas questões bastante sérias sobre o que eles estão dispostos a disponibilizar ao público.”

Logomarca do ChatGPT com ilustração de homem expandindo mente ao fundo
(Imagem: Pedro Spadoni/Olhar Digital)

Como não está claro se o artigo da OpenAI foi revisado por pares ou revisado em outro formato, Suresh Venkatasubramanian, diretor do centro de responsabilidade tecnológica da Brown University, disse ao CNBC que vê a pesquisa mais como uma observação preliminar do que qualquer outra coisa.

Isso terá que ser avaliado pela comunidade de pesquisa antes de podermos afirmar algo certo sobre isso. Neste mundo, há muitos resultados que são publicados com muita regularidade, e devido à instabilidade geral de como os grandes modelos de linguagem funcionam, o que pode funcionar em um cenário, modelo e contexto pode não funcionar em outro cenário, modelo e contexto.

Suresh Venkatasubramanian, ao CNBC

Venkatasubramanian acrescentou: “Algumas das coisas alucinatórias com as quais as pessoas estão preocupadas são [modelos] inventando citações e referências. Não há evidências neste artigo de que isso funcione para isso… Não estou dizendo que não funcionará; estou dizendo que este artigo não fornece essa evidência.”

Cobbe disse que a empresa “provavelmente enviará [o artigo] para uma conferência futura para revisão por pares.” Segundo o CNBC, a OpenAI não respondeu a um pedido de comentário sobre quando, se algum dia, a empresa planeja implementar a nova estratégia no ChatGPT e em seus outros produtos.

É certamente bem-vindo ver empresas tentando ajustar o desenvolvimento de seus sistemas para tentar reduzir esse tipo de erro — acho que o mais importante é interpretar isso como pesquisa corporativa, à luz das muitas barreiras que existem para formas mais profundas de responsabilização.

Sarah Myers West, diretora administrativa do AI Now Institute, ao CNBC

West acrescentou: “[A OpenAI está] lançando um pequeno conjunto de dados de feedback humano com este artigo, mas não forneceu detalhes básicos sobre os dados usados para treinar e testar o GPT-4. Portanto, ainda há uma quantidade tremenda de opacidade que dificulta os esforços significativos de responsabilização no campo da IA, mesmo quando esses sistemas já estão afetando diretamente as pessoas.”

Com informações do CNBC.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!