Desde que o ChatGPT virou moda, a preocupação quanto a autoria de textos e trabalhos acadêmicos, por exemplo, foi questionada. O programa AI Claissifier, da OpenAI era uma ferramenta que identificava os textos criados artificialmente, mas foi recentemente descontinuado pela empresa do ChatGPT. De acordo com ela, a causa foi a baixa precisão em detectar os materiais.

Leia mais:

publicidade

AI Classifier da OpenAI

Se de um lado a IA pode agilizar o trabalho humano, de outra começou a ser usada para produzir conteúdos do zero. Trabalhos acadêmicos, textos recreativos e até processos judiciais já foram criados originalmente pela plataforma.

No entanto, até as ferramentas de IA generativa, como o próprio ChatGPT, apresentam falhas e não é incomum que eles inventem fontes ou referências (as famosas alucinações da IA).

publicidade

O AI Classifier surgiu no início deste ano com o intuito de identificar a real autoria dessas conteúdos. Ou melhor, de identificar se eles foram feitos por IA ou por um ser humano real.

AI Classifier foi anunciado pela OpenAI em janeiro deste ano (Foto: OpenAI/Reprodução)

Descontinuidade

  • Com a descontinuidade da plataforma, desenvolvida por uma das principais empresas do ramo da IA generativa, as incertezas quanto aos conteúdos gerados artificialmente volta.
  • Inclusive, o governo dos EUA se reuniu com as sete principais empresas de tecnologia para solicitar o desenvolvimento de um sistema capaz de identificar conteúdos gerados por IA, dentre imagens, textos e vídeos.
  • Ao encerrar o AI Classifier, a OpenAI justificou que está pesquisando técnicas de detecção mais eficientes, que “ajudem os usuários a identificar quais conteúdos de áudio e vídeo são gerados por inteligência artificial”.

Com informações de Indian Express

publicidade

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!