A Inteligência Artificial (IA) pode ser uma grande aliada das empresas, mas também é capaz de causar muitos estragos. Um bom exemplo disso é o uso de deepfake, prática realizada, com ajuda de IA, para manipular vídeos de maneira extremamente convincente.

Leia mais:

publicidade

Originalmente concebida para criar conteúdos humorísticos, essa técnica não demorou para ser usada para fins escusos, como a disseminação de fake news e outras informações falsas, na maioria das vezes envolvendo figuras famosas, como políticos e atores.

‌Em 2022, o Projeto Comprova, uma iniciativa colaborativa e sem fins lucrativos liderada e mantida pela Associação Brasileira de Jornalismo Investigativo (Abraji), desmentiu diversos vídeos manipulados com o intuito de espalhar desinformação entre os eleitores brasileiros à época.

publicidade
  • No entanto, as empresas também são alvos de deepfake. O relatório Identify Fraud Report 2023, da Sumsub, registrou um aumento de 830% nos casos de verificação forçada em relação a 2022;
  • Além disso, um levantamento da empresa Onfido, especializada em verificação de identidade, mostrou crescimento de 3.000% em fraudes envolvendo manipulação de rostos entre 2022 e 2023.
  • ‌Dos 224 países e 28 segmentos analisados pela Sumsub, o Brasil ocupou a última posição no ranque de países que apresentaram fraudes de identidade, porém é alarmante ver como o nosso país registrou um alto índice de golpes envolvendo IA.
  • O Identify Fraud Report 2023 também apontou que os setores mais afetados por essas práticas foram fintechs, criptomoedas e iGaming.

“A deepfake é capaz de causar danos irreversíveis às empresas, da evasão de funcionários à perda de clientes importantes, o que pode, em casos mais extremos, levar à falência”, alerta Lucas Galvão, CEO da Open Cybersecurity, especialista em Cibersegurança, Governança Corporativa e Desenvolvimento e Lideranças.

Imagem: Panchenko Vladimir/ Shutterstock

‌Pensando nisso, o especialista separou cinco dicas essenciais para proteger as corporações dos perigos não só da deepfake, como também de outras fake news.

publicidade

Ofereça treinamento

“É importante oferecer um treinamento para que os funcionários entendam os riscos das deepfakes e também como as identificar. Um funcionário treinado saberá reconhecer sinais de manipulação de mídia, como inconsistências na voz ou movimentos faciais e comportamentos fora do comum em vídeos ou áudios, e evitará que uma fake news seja compartilhada entre os demais”, comenta Lucas.

‌Estabeleça políticas claras

“É necessário que políticas claras sejam estabelecidas dentro das organizações. A prática de verificação de autenticidade de vídeos e áudios antes de compartilhá-los e a divulgação de informações sensíveis apenas em canais verificados e seguros garantem que apenas usuários confiáveis terão acesso àquele conteúdo”, diz Lucas.

publicidade

Implemente processos

“Todos os processos em uma empresa precisam de verificação, principalmente quando falamos de fontes para todos os conteúdos de mídia recebidos pela empresa. As ferramentas de autenticação de mídia são as melhores aliadas para verificar a legitimidade de vídeos e áudios”, acrescenta o executivo.

Imagem ilustrativa simboliza o conceito de "deepfake", mostrando um rosto vermelho se destacando de um fundo preto
Imagem: shuttersv/Shutterstock

‌Evite invasões

“Em todos os casos, é necessário evitar a invasão do servidor e o vazamento de dados sensíveis. Uma empresa bem protegida, com um restrito controle de acesso aos sistemas, evita que pessoas mal-intencionadas tenham acesso a materiais que possam ser fontes para deepfakes”, afirma Lucas.

Adote soluções de monitoramento

“Uma dica ideal pode ser encontrar soluções proativas que possam detectar deepfakes em tempo real. A inteligência artificial também pode ser usada para combater a si mesma, então ter um time capaz de treinar essa tecnologia para analisar os padrões anormais e identificar conteúdo manipulado pode ser o ás na manga para proteger sua empresa”, conclui o CEO.