A relação da inteligência artificial (IA) com direitos autorais ainda é área sem regulações e provoca embates entre desenvolvedoras e artistas. Agora, uma nova ferramenta chamada Nightshade permite que os usuários de sistemas de IA que convertem texto em imagem “envenenem” o software para que ele pare de funcionar e gerar resultados satisfatórios.

Veneno

  • O Nighshade funciona de forma simples: basta que os usuários desses softwares de IA o anexem ao seu pedido e ele corromperá o programa.
  • Um dos exemplos disso é como ela pode alterar a visualização dos pixels da imagem final ou fazer com que o chatbot leia um objeto como algo completamente diferente, entregando resultado inesperado.
  • Segundo o The Verge, isso pode desconfigurar as configurações de softwares, como DALL-E, Stable Diffusion e Midjourney e, a longo prazo, limitar a capacidade de criar imagens artificiais.

Leia mais:

publicidade

inteligência artifical hollywood
Imagem: Login (Shutterstock)

Artistas vs. IA

  • Um professor da Universidade de Chicago, Ben Zhao, é um dos criadores do Nighshade e disse ao MIT Technology Review que a intenção do “veneno” é desviar a balança das empresas de IA que utilizaram obras com direitos autorais para treinar modelos de linguagem;
  • Ainda, o artigo de pesquisa do Nightshade mostra como softwares de conversão de texto em imagem são vulneráveis a ataques, que podem desestabilizar os programas e tirar sua capacidade de geração;
  • Para intensificar a situação, o Nightshade está integrado ao Glaze, ferramenta dos mesmos criadores que mascara o estilo de arte de artistas, para que a IA não possa reproduzi-las;
  • Esses criadores propuseram no artigo que esses programas “hackers” poderiam, em última instância, ser usados como defesa dos artistas contra as empresas de IA que se aproveitam de seus trabalhos.