Imagem: Anggalih Prasetya/Shutterstock
Um novo estudo revela que agentes de inteligência artificial, como o ChatGPT, podem formar espontaneamente convenções sociais apenas interagindo entre si — sem coordenação central ou programação explícita.
A pesquisa foi conduzida por cientistas da City St George’s, da Universidade de Londres, e da Universidade de Tecnologia de Copenhague, e publicada na revista Science Advances.
Leia mais:
Além disso, o estudo observou que viés coletivo pode emergir nas interações em grupo, mesmo quando os agentes individuais não apresentam tal viés isoladamente. Isso aponta limitações nas abordagens tradicionais de segurança em IA, que geralmente focam em modelos únicos.
Em outro experimento, os pesquisadores mostraram que pequenos grupos de agentes “convictos” podem alterar as normas do coletivo — comportamento semelhante ao fenômeno da “massa crítica” em sociedades humanas.
Os testes foram realizados com diferentes modelos, incluindo Llama-2 e Claude-3.5, e os resultados se mantiveram consistentes.
Para os autores, o estudo inaugura uma nova etapa na compreensão da IA como sistema social, alertando para os potenciais riscos éticos desses agentes ao se tornarem cada vez mais presentes em plataformas online, redes sociais e sistemas automatizados.
“Não estamos apenas programando máquinas para responder, mas criando agentes que podem negociar, alinhar ou até discordar entre si”, afirmou Andrea Baronchelli, professora e coautora do estudo. “Entender essas dinâmicas é essencial para garantir uma convivência ética e segura com a IA.”
Esta post foi modificado pela última vez em 15 de maio de 2025 14:03