A Snap, empresa que desenvolve a mídia social Snapchat, alegou na última terça-feira (16), que planeja adicionar marcas d’água às imagens geradas por IA em sua plataforma. As informações são do TechCrunch.
Leia mais:
- Ingresso da IA generativa na saúde gera controvérsias
- Marco Legal da Inteligência Artificial: entenda os 5 principais pontos
- 14 perguntas e respostas sobre Inteligência Artificial (IA)
A marca d’água a ser adicionada seria uma versão translúcida do “fantasma” que é o logotipo do Snapchat, com um emoji brilhante. Ele entraria em qualquer imagem gerada por IA exportada do aplicativo ou salva no rolo da câmera.
A companhia ainda avisa em sua página de suporte que remover a marca d’água das imagens violaria seus termos de uso.
Apesar disso, não está claro como o Snap detectará a remoção dessas marcas d’água. A empresa não chegou a responder até o momento o pedido do TechCrunch para fornecer mais detalhes de como a detecção da remoção da marca vai funcionar.
O movimento do Snapchat segue a tendência já vista em outras empresas, como Meta, Microsoft e Google, que também tomaram medidas para rotular ou identificar imagens criadas em suas plataformas com ferramentas baseadas em IA.
Recurso pago de IA dentro do Snapchat permite que usuários criem imagens
- O Snapchat permite que usuários com uma assinatura paga criem ou editem imagens geradas por IA usando a ferramenta Snap AI.
- Seu recurso focado em selfies, o Dreams, também permite que os usuários usem IA para incrementar suas fotos.
- Reforçando as práticas de transparência relacionadas a IA, a empresa diz que mostra recursos alimentados por IA, como lentes, com um marcador visual que lembra um emoji brilhante.
A empresa também adicionou cartões de contexto às imagens geradas por IA criadas com ferramentas como o Dream, para melhor informar os usuários.
Os esforços do Snapchat para melhorar a segurança da IA aparecem após o seu chatbot, o My AI, gerar alguma controvérsia após o lançamento em março de 2023, quando alguns usuários conseguiram fazer o bot responder e falar sobre sexo, bebida e outros assuntos potencialmente inseguros.
Como solução, a empresa implementou um sistema de controle para que pais e responsáveis monitorem e restrinjam as interações de seus filhos com a IA.