Um estudante do curso de ciências da computação da Universidade da Califórnia, nos Estados Unidos, enganou milhares de usuários com artigos produzidos por um algoritmo de inteligência artificial. Com ajuda de uma das mais avançadas ferramentas de modelo de linguagem, Liam Porr produziu um blog falso com o total de 15 textos sobre foco e produtividade.

A iniciativa foi parte de um experimento do estudante e não visou nenhum tipo de prática maliciosa. Entretanto, o episódio chama a atenção por ilustrar o potencial impacto de sistemas de inteligência artificial na produção de conteúdo.

O primeiro artigo produzido pela máquina, intitulado “Sentindo-se improdutivo? Talvez seja melhor parar de pensar demais” chegou ao topo da audiência do Hacker News, um site de notícias com foco em ciência e empreendedorismo, sem que muitos usuários suspeitassem que o conteúdo foi produzido por um programa.

O Blog

A GPT-3, como é chamada a ferramenta empregada por Porr, é desenvolvida pela organização sem fins lucrativos Open AI. De acordo com a revista MIT Technology Review, a ONG disponibiliza o algoritmo para pesquisadores mediante um formulário em que os cientistas precisam explicar suas intenções com a tecnologia. A ideia é recolher feedbacks para liberar o recurso no fim deste ano.

publicidade

Porr submeteu seu pedido recentemente, mas antes de receber a resposta da Open AI, ele encontrou um estudante de PhD que já tinha a inteligência artificial em mãos. Em seguida, o aluno da Universidade da Califórnia escreveu linhas de comando para o programa e deu ao GPT-3 o título e a introdução para uma publicação de blog.

Reprodução

Captura de tela da interface do blog falso de Liam Porr. Imagem: Reprodução/OD

A máquina foi capaz produzir diferentes versões completas de artigos a partir do material. Em entrevista à MIT Technology Review, Porr afirmou que levou apenas algumas horas entre ter acesso ao GPT-3 e publicar o primeiro artigo no blog falso. Segundo o estudante, o sistema é muito bom em desenvolver textos, mas ainda peca para elaborar conteúdos mais lógicos e racionais.

Por isso, ele optou por uma temática que não requer uma lógica rigorosa. Porr fez uma análise dos textos mais populares sobre produtividade e auto-ajuda no Medium e no Hacker News e escreveu títulos semelhantes aos conteúdos encontrados. O restante do trabalho ficou a cargo da inteligência artificial.

Potencial de uso indevido

O estudante relatou em seu blog pessoal – este sim, verdadeiro – que sua intenção com o experimento era provar que a escrita do GPT-3 pode se passar por um texto de um autor humano. Ele diz que apesar do sistema ainda produzir um padrão de escrita um pouco estranho e cometer alguns erros gramaticais, apenas quatro ou três pessoas que comentaram no artigo popular no Hacker News levantaram suspeitas que o texto era escrito por um algoritmo.

O receito quanto ao uso indevido da tecnologia parte do próprio laboratório da OpenAI. Ao anunciar o GPT-2 (versão anterior do algoritmo usado pelo estudante), em 2019, a organização decidiu não disponibilizar abertamente a tecnologia para o público diante de potenciais usos abusivos da ferramenta.

A ONG apontou, por exemplo, que o sistema de inteligência artificial poderia ser usado para produzir desinformação em massa. Outro receio seria a produção de artigos repletos de palavras-chave relevantes que poderiam impactar no buscador do Google. No fim do ano passado, entretanto, a OpenAI decidiu liberar o GPT-2, uma vez não havia evidências de usos indevidos do algoritmo.

Via: MIT Technology Review