Imagem: REDPIXEL.PL/Shutterstock
Nikon, Sony e Canon estão trabalhando para adicionar sistema de autenticação digital em suas máquinas fotográficas. O objetivo é diferenciar as fotografias geradas por inteligência artificial (IA) das fotos reais, dado o avanço das plataformas de geração de imagens por IA.
Fotos falsas e vídeos artificiais têm se tornado cada vez mais realistas. Uma aliança global de veículos de imprensa, empresas de tecnologia e fabricantes de câmeras desenvolveu ferramenta chamada Verify para realizar checagens online. Nikon, Sony e Canon concordaram em adotar o padrão de autenticação em comum acordo. Elas controlam 90% do mercado global de câmeras fotográficas.
Leia mais:
O Verify funciona assim: se a imagem for legítima, será exibido data, geolocalização e outros metadados. Além de imagens não-autênticas, ele detecta imagens alteradas, tanto as criadas, como as alteradas, são rotuladas como “No Content Credentials” (sem credenciais de conteúdo, em tradução livre).
Já as desenvovledoras de IA…
Isso recai, por exemplo, no Stable Diffusion, da Stability AI, que é um dos diversos modelos de IA geradores de imagem de código aberto, permitindo a programadores que criem suas próprias versões e descartem os selos de autenticação.
O programa, inclusive, esteve, recentemente, envolvido em polêmica, ao ser usado por pessoas mal-intencionadas para criar imagens de abuso sexual infantil. Leia mais sobre o assunto aqui.
Esta post foi modificado pela última vez em 3 de janeiro de 2024 21:02