Desde o início das redes sociais, um dos grandes desafios é impedir a criação de perfis fakes. A ideia era que somente pessoas reais pudessem interagir entre si. No entanto, é quase impossível fazer esse tipo de controle. Este movimento continuou ocorrendo por diversas razões, desde inseguranças com relação a aparência até para disseminação impune de notícias falsas.

Mas se antes eles eram criados por pessoas reais, com fotos de outros indivíduos que realmente existiam, hoje a Inteligência Artificial já consegue “criar pessoas” que não existem para interagir nas redes sociais. Como isso é possível?

publicidade

Leia mais:

Recentemente, dois pesquisadores receberam mensagens muito semelhantes em suas mensagens privadas do LinkedIn que lhe ofereciam serviços ligados a telecomunicações. Ao observar com atenção a imagem de perfil do indivíduo, percebeu algumas falhas como falta de cabelo, um brinco sem par e fundo borrado, de difícil identificação. Notaram então que isso só poderia ocorrer se as fotografias fossem criadas por meio de IA.

publicidade

Após aprofundar suas pesquisas, eles chegaram a encontrar mais de mil outros perfis com as mesmas características. O interessante é que esses perfis fakes foram criados por agências com o intuito de adquirir contatos de clientes em potencial para então transferir para um atendente real das empresas que as contrataram para seguir com a venda. O LinkedIn precisou realizar uma limpa para tirar essas contas do ar, uma vez que em suas regras de utilização não são permitidas a utilização de fotos de terceiros para criação de perfis.

Mas como esses perfis são feitos? A resposta é bastante simples. Há uma tecnologia chamada Generative Adversarial Network (GAN), em tradução literal Redes Adversárias Generativas. Trata-se de uma técnica que utiliza aprendizagem de máquina (ou machine learning, no termo inglês mais conhecido) para lapidar fotos até chegar à perfeição, tornando mais difícil a diferenciação do que foi criado para o que é real.

publicidade

Por meio de duas redes alimentadas com bancos de dados para análise, uma delas cria e a outra lapida a imagem fazendo uma combinação de fotos de rostos de diversas pessoas, com tamanhos, texturas e cores distintas da original, para criar pessoas que podem se parecer com alguém, mas não o são. E além das imagens, as agências também criavam um currículo com escolaridade, experiência, idade, entre outros dados de perfil.

Atualmente, estas fotos de “pessoas” podem ser encontradas em bancos de imagens e há até perfis no Twitter que brincam com a tentativa de descobrir se um indivíduo é real mesmo ou criada por GAN. A verdade é que não tem como haver uma comprovação, já que é impossível mostrar todas as fotos de todas as pessoas do planeta, vivas ou mortas, para que haja esse reconhecimento.

publicidade

Outras funções para GAN

Este mesmo método já foi utilizado em outras ocasiões em um período recente e a maioria está relacionadas a situações de cunho político. Houve casos em redes fakes com intuito de difundir desinformação na China, em que perfis se passaram por pessoas reais para criar conteúdo a favor do ex-presidente americano, Donald Trump, durante as eleições de 2021 e, em fevereiro deste ano, fotos de IA foram utilizadas em perfis falsos para trazer notícias falsas sobre a Ucrânia e mensagens pró-Rússia no Facebook, Twitter e YouTube. Na época, as plataformas declararam ter removido as contas.

A grande preocupação é que, além de servir como arma política na divulgação de informações falsas, este tipo de tecnologia pode, por exemplo, ser utilizada em pornografias de vingança, com a criação de vídeos usando deep fake. Ou para perseguição online de ativistas, com desenvolvimento de múltiplos perfis com funcionamento similar ao das contas utilizadas pelas agências de marketing, mas com objetivos diferentes.
Para não ser enganado por um perfil fake, é importante estar atento à possíveis falhas nas imagens ou na forma de falar. Além disso, para que não haja um uso indiscriminado desta tecnologia para o mal, é necessário criar diretrizes éticas rigorosas para quem utilizar essas imagens de forma indevida e até criminosa. Caso contrário, uma imagem não vai valer sequer uma palavra.

*Alessandra Montini é diretora do LabData, da FIA

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!