Pesquisadores da Cornell Ann S. Bowers College of Computing and Information Science, nos Estados Unidos, analisaram 30 mil redações de inscrição em faculdades e as compararam com textos gerados por oito modelos de linguagem, incluindo o ChatGPT.
O resultado: mesmo quando solicitados a escrever a partir da perspectiva de pessoas de diferentes raças, gêneros ou locais, os LLMs produziram narrativas uniformes e estereotipadas, fáceis de distinguir da escrita humana.
O estudo foi publicado no servidor de pré-impressão arXiv.

Leia mais:
- Wikipédia adota novas medidas para combater uso de IA
- GPT-5: novo ‘cérebro’ do ChatGPT vai chegar à Apple Intelligence em breve
- Qual o futuro do Jornalismo em tempos de ChatGPT?
IA não captura autenticidade
“O ensaio de admissão é uma chance para o candidato mostrar quem realmente é”, disse o professor Rene Kizilcec, coautor do estudo. “Pedir a um modelo que faça o rascunho completo leva a textos genéricos que não soam como o próprio aluno.”

Seu professor pode descobrir facilmente
- Os pesquisadores também treinaram um modelo para identificar textos gerados por IA e obtiveram precisão quase perfeita, sugerindo que universidades poderiam detectar facilmente esses ensaios.
- O estudo recomenda que os candidatos usem IA apenas para feedback ou revisão, e não para redigir o texto do zero.
- “Com ferramentas de IA, os alunos podem estar dando um tiro no próprio pé inadvertidamente”, alertou AJ Alvero, coautor do estudo.
Apesar de estimativas indicarem que cerca de 30% dos alunos já usam IA para escrever redações, os pesquisadores enfatizam que a autenticidade continua sendo a melhor estratégia para impressionar os avaliadores.
