Artistas podem “envenenar” IA para distorcer resultados de imagens; entenda

Nova ferramenta pode desconfigurar resultados de softwares de IA e servir como "vingança" para artistas contra desenvolvedoras
Por Vitoria Lopes Gomez, editado por Rodrigo Mozelli 26/10/2023 23h45
Pessoa digitando em notebook com desenho colorido de aprendizado de inteligência artificial em cima
Imagem: NicoElNino/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

A relação da inteligência artificial (IA) com direitos autorais ainda é área sem regulações e provoca embates entre desenvolvedoras e artistas. Agora, uma nova ferramenta chamada Nightshade permite que os usuários de sistemas de IA que convertem texto em imagem “envenenem” o software para que ele pare de funcionar e gerar resultados satisfatórios.

Veneno

  • O Nighshade funciona de forma simples: basta que os usuários desses softwares de IA o anexem ao seu pedido e ele corromperá o programa.
  • Um dos exemplos disso é como ela pode alterar a visualização dos pixels da imagem final ou fazer com que o chatbot leia um objeto como algo completamente diferente, entregando resultado inesperado.
  • Segundo o The Verge, isso pode desconfigurar as configurações de softwares, como DALL-E, Stable Diffusion e Midjourney e, a longo prazo, limitar a capacidade de criar imagens artificiais.

Leia mais:

inteligência artifical hollywood
Imagem: Login (Shutterstock)

Artistas vs. IA

  • Um professor da Universidade de Chicago, Ben Zhao, é um dos criadores do Nighshade e disse ao MIT Technology Review que a intenção do “veneno” é desviar a balança das empresas de IA que utilizaram obras com direitos autorais para treinar modelos de linguagem;
  • Ainda, o artigo de pesquisa do Nightshade mostra como softwares de conversão de texto em imagem são vulneráveis a ataques, que podem desestabilizar os programas e tirar sua capacidade de geração;
  • Para intensificar a situação, o Nightshade está integrado ao Glaze, ferramenta dos mesmos criadores que mascara o estilo de arte de artistas, para que a IA não possa reproduzi-las;
  • Esses criadores propuseram no artigo que esses programas “hackers” poderiam, em última instância, ser usados como defesa dos artistas contra as empresas de IA que se aproveitam de seus trabalhos.

Vitória Lopes Gomez é jornalista formada pela UNESP e redatora no Olhar Digital.

Rodrigo Mozelli é jornalista formado pela Universidade Metodista de São Paulo (UMESP) e, atualmente, é redator do Olhar Digital.