Siga o Olhar Digital no Google Discover
Gosta de poesias? Então saiba que, segundo pesquisadores, elas podem enganar chatbots, como o ChatGPT.
Ofertas
Por: R$ 2.240,00
Por: R$ 1.998,89
Por: R$ 2.498,89
Por: R$ 404,90
Por: R$ 129,90
Por: R$ 412,69
Por: R$ 593,00
Por: R$ 3.598,94
Por: R$ 469,00
Por: R$ 5.610,00
Por: R$ 88,50
Por: R$ 19,99
Por: R$ 449,00
Por: R$ 597,00
Por: R$ 209,90
Por: R$ 499,00
Por: R$ 720,00
Por: R$ 1.481,05
Por: R$ 979,90
Por: R$ 419,00
Por: R$ 2.315,00
Por: R$ 379,00
Por: R$ 1.616,02
Por: R$ 788,40
Por: R$ 179,90
Por: R$ 1.200,00
Por: R$ 3.999,00
Por: R$ 1.319,00
Por: R$ 2.759,00
Por: R$ 199,00
Por: R$ 166,19
Por: R$ 399,00
Por: R$ 132,00
Por: R$ 1.999,00
Por: R$ 392,00
De acordo com a WIRED, metáforas, rimas e versos bem construídos contornam filtros de segurança, fazendo com que os modelos respondam mesmo a temas sensíveis, como armas nucleares.

Por que poemas enganam a IA
Um estudo do Icaro Lab, formado por pesquisadores da Universidade Sapienza de Roma (Itália) e do think tank DexAI, revelou algo preocupante: frases em forma de poema conseguem burlar filtros de grandes modelos de linguagem. A abordagem de poesia adversária alcançou taxas de sucesso de até 62% para versos escritos à mão e aproximadamente 43% para versões automatizadas.
Leia mais:
- Algoritmos influenciam sua visão política. Esses pesquisadores pensaram em uma solução
- Quão confiável é a IA? Novo estudo propõe resposta em seis etapas
- A confusão por trás do termo “alucinação” em inteligência artificial
Eles testaram a técnica em 25 chatbots, incluindo IAs de empresas, como OpenAI, Meta e Anthropic, e a maioria cedeu ao “disfarce poético”. A equipe ressalta que, ao usar metáforas, estruturas fragmentadas e versos indiretos, conseguiu fazer com que os alarmes internos das IAs não disparassem da mesma forma que com perguntas diretas.

Como a poesia desbloqueia o perigo
A estratégia funciona porque explora o que os técnicos chamam de “temperatura alta”, apostando em palavras inesperadas e estruturas incomuns. “Na poesia, vemos a linguagem em alta temperatura, onde as palavras se sucedem em sequências imprevisíveis e de baixa probabilidade”, comentam os pesquisadores.
Eles explicam que esse estilo confunde os classificadores — sistemas que filtram pedidos perigosos. Com a abordagem poética, muitos desses filtros não acompanham o raciocínio do modelo, permitindo que solicitações potencialmente prejudiciais sejam atendidas.

Como evitar esse problema?
- Redobre a cautela ao usar IAs para fins profissionais ou sensíveis.
- Prefira chatbots com múltiplos mecanismos de segurança — não apenas filtros básicos.
- Avalie e monitore o código-fonte ou as políticas de segurança ao usar IAs desenvolvidas por terceiros.
Segundo o estudo, “há um desalinhamento entre a capacidade interpretativa do modelo… e a robustez de suas salvaguardas” — e isso pode ter consequências muito reais.