(Imagem: photosince / Shutterstock.com)
O Google atualizou, no início deste mês, sua Política de Conteúdo Inapropriado para incluir sites e serviços que geram pornografia deepfake. Conforme divulgado pelo Engadget, a partir de agora anunciantes que promoverem o tipo de conteúdo estarão sujeitos a suspensão sem aviso.
O que você precisa saber:
Leia mais!
A ascensão da inteligência artificial (IA) e tecnologias deepfake levou a um número crescente de anúncios que promovem ferramentas que visam usuários que desejam criar materiais sexualmente explícitos. Alguns desses programas, inclusive, vão parar na Apple App Store e Google Play Store como aplicativos inofensivos.
Não apenas para conteúdo explicito, as deepfakes também são armas para fraudes, principalmente em plataformas de pagamentos, videogames e e-commerce. Segundo Relatório de Fraude de Identidade 2024, elaborado pela Veriff, os índices aumentaram 20% em 2023, em comparação ao ano anterior. A falsificação de identidade representou 85% dos casos.
Deepfake é uma tática de manipulação de imagens, vídeos e sons, a qual utiliza mecanismos de Inteligência Artificial para inserir uma pessoa em um contexto ao qual ela não pertence originalmente. Ou seja, é possível inserir o seu rosto no vídeo de uma pessoa que cometeu um crime e foi filmado por uma câmera de vigilância, por exemplo.
As deepfakes podem ser consideradas técnicas avançadas de edição automatizada. Esta edição se torna um vídeo “real”, em que os movimentos corporais e labiais do usuário editado podem ser sincronizados, a fim de transmitir uma mensagem com um propósito específico. Saiba mais aqui!
Esta post foi modificado pela última vez em 6 de maio de 2024 09:31