Deepfake: 96% dos vídeos alterados são dedicados a pornografia

E, em 99% das ocorrências, as imagens usadas são de famosas

Roseli Andrion 08/10/2019 14h44
DeepFake
A A A

Os deepfakes surgiram há pouco tempo, mas já existem preocupações de que eles possam afetar até contextos políticos. Uma pesquisa da Deeptrace, entretanto, mostra que boa parte deles se dedica a algo mais mundano: a pornografia.


A empresa analisou 14,678 deepfakes disponíveis online e descobriu que poucos se dedicam a manipular eleições. Por enquanto, o conceito tem sido usado extensivamente para inserir atrizes e cantoras em cenas picantes.

O levantamento aponta que 96% dos vídeos alterados estão na categoria de “pornografia não-consensual” — ou seja, os criadores trocam o rosto de uma atriz pornô pelo de outra mulher. Em geral, os alvos são celebridades: a pesquisa da Deeptrace mostra que, em 99% das ocorrências, são usadas imagens de famosas.

Segundo a Deeptrace, existe uma rede de sites que hospedam esses clipes — e ganham dinheiro com isso. “Todos esses endereços têm anúncios” explica Henry Ajder, que liderou o estudo. “Isso quer dizer que não vão desaparecer logo.”

Tecnologia Pornografia Deepfake
Compras na Internet? Para aproveitar as melhores ofertas, baixe a nova extensão do Olhar Digital. Além da garantia do melhor preço, você ainda ganha descontos em várias lojas. Clique aqui para instalar.

Recomendados pra você