Desde que o ChatGPT virou moda, a preocupação quanto a autoria de textos e trabalhos acadêmicos, por exemplo, foi questionada. O programa AI Claissifier, da OpenAI era uma ferramenta que identificava os textos criados artificialmente, mas foi recentemente descontinuado pela empresa do ChatGPT. De acordo com ela, a causa foi a baixa precisão em detectar os materiais.
Leia mais:
- OpenAI e outras terão selo para identificar conteúdo gerado por IA
- A dublagem em português vai desaparecer? Entenda a polêmica
- Você sabe diferenciar textos feitos por humanos e pelo ChatGPT? Faça o teste
AI Classifier da OpenAI
Se de um lado a IA pode agilizar o trabalho humano, de outra começou a ser usada para produzir conteúdos do zero. Trabalhos acadêmicos, textos recreativos e até processos judiciais já foram criados originalmente pela plataforma.
No entanto, até as ferramentas de IA generativa, como o próprio ChatGPT, apresentam falhas e não é incomum que eles inventem fontes ou referências (as famosas alucinações da IA).
O AI Classifier surgiu no início deste ano com o intuito de identificar a real autoria dessas conteúdos. Ou melhor, de identificar se eles foram feitos por IA ou por um ser humano real.
Descontinuidade
- Com a descontinuidade da plataforma, desenvolvida por uma das principais empresas do ramo da IA generativa, as incertezas quanto aos conteúdos gerados artificialmente volta.
- Inclusive, o governo dos EUA se reuniu com as sete principais empresas de tecnologia para solicitar o desenvolvimento de um sistema capaz de identificar conteúdos gerados por IA, dentre imagens, textos e vídeos.
- Ao encerrar o AI Classifier, a OpenAI justificou que está pesquisando técnicas de detecção mais eficientes, que “ajudem os usuários a identificar quais conteúdos de áudio e vídeo são gerados por inteligência artificial”.
Com informações de Indian Express
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!