Caso de fraude, no norte da China, que usou “deepfake” para convencer homem a transferir dinheiro para suposto amigo despertou preocupação sobre potencial de tecnologias baseadas em IA (inteligência artificial) para viabilizar crimes financeiros.

O que você precisa saber:

  • Criminoso usou “deepfake” para “trocar de rosto” e se passar por amigo da vítima;
  • Ele alegou que precisava fazer depósito num processo de licitação;
  • Vítima transferiu pouco mais de R$ 3 milhões para criminoso;
  • Caso de “deepfake” desencadeou discussão sobre ameaça da IA à privacidade e segurança online em rede social chinesa.

A China tem intensificado escrutínio sobre tais tecnologias e aplicativos em meio ao aumento de fraudes com IA envolvida. Casos usam, principalmente, manipulação de voz e dados relacionado às faces das pessoas (os “deepfakes”). País adotou novas regras em janeiro para proteger vítimas legalmente.

publicidade

Leia mais:

Golpe com ‘deepfake’

Ilustração de tecnologia de reconhecimento facial em cima de rosto de mulher
(Imagem: Adobe Stock)

A polícia da cidade de Baotou, na região do interior da Mongólia, disse que criminoso usou tecnologia de troca de rosto com IA (“deepfake”) para se passar por um amigo da vítima durante uma chamada de vídeo. Ele conseguiu receber transferência de US$ 622 mil (aproximadamente R$ 3,1 milhões, na cotação atual).

publicidade

Vítima transferiu o dinheiro acreditando que seu amigo precisava fazer um depósito durante um processo de licitação, explicou a polícia, por meio de um comunicado à imprensa, emitido no fim de semana.

O homem só percebeu que havia sido enganado pelo “deepfake” após seu amigo “real” dizer que não sabia do que ele estava falando, acrescentou a polícia. A vítima recuperou a maior parte dos fundos roubados e, atualmente, tenta rastrear o restante.

publicidade

Repercussão

Mão de robô tocando em tecla de notebook
(Imagem: AI)

O caso de “deepfake” desencadeou uma discussão, no site de microblogging Weibo, sobre a ameaça à privacidade e segurança online. Tanto que a hashtag “#AI scams are exploding across the country” (“#Golpes com IA explodindo em todo o país”, em tradução livre) acumulou mais de 120 milhões de visualizações nesta segunda-feira (22).

Isso mostra que fotos, vozes e vídeos podem ser utilizados por golpistas. As regras de segurança da informação podem acompanhar as técnicas dessas pessoas?

Post de usuário chinês na rede social Weibo

Plano contra fake news

Pessoa segurando celular com imagem aberta escrito Fake News
(Imagem: Pedro França/Agência Senado)

Em outra frente, a China intensificou ações para limpar Internet de notícias e conteúdos falsos – as “fake news”. Resultado: mais de 100 mil contas caíram em abril. A campanha é da CAC (Administração do Ciberespaço da China) e visa eliminar perfis que se passam por âncoras de notícias ou agências de mídia do Estado.

publicidade

Num comunicado, emitido na semana passada, a CAC afirmou que conteúdos falsificados são, principalmente, relacionados a assuntos como incidentes sociais e temas internacionais atuais.

O órgão também prometeu reprimir comentários maliciosos que prejudiquem reputação de empresas e empreendedores.

Com informações da Reuters

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!