Em um novo relatório, a Agência da União Europeia para a Cooperação Policial (Europol) está apontando que as deepfakes serão amplamente usadas em operações do crime organizado. Inclusive a tecnologia poderá ser usada como ferramenta básica pelos criminosos.

Segundo a Europol, os avanços recentes em inteligência artificial significam que a detecção e prevenção de deepfakes devem ser a principal prioridade das aplicações legais. Seu relatório tira suas conclusões com base em extensa pesquisa documental e consultas aprofundadas com especialistas em aplicação da lei.

publicidade

Leia também:

O documento da Europol fornece uma visão detalhada do uso criminoso da tecnologia deepfake, juntamente com os desafios enfrentados pela aplicação da lei na detecção e prevenção do uso nefasto de deepfakes. São incluídos no relatório vários exemplos contemporâneos que mostram o uso potencial de deepfakes em crimes graves, como: fraude de CEOs, adulteração de provas e produção de pornografia não consensual.

Volume e qualidade das deepfakes estão aumentando

Diante dos avanços na inteligência artificial e da disponibilidade pública de grandes bancos de dados de imagens e vídeos, o volume e a qualidade de conteúdos deepfake estão aumentando. Nessa linha, também está sendo facilitada a proliferação de crimes baseados nessa tecnologia.

“As agências de aplicação da lei, portanto, precisam estar cientes das deepfakes e seu impacto no trabalho policial futuro”, afirma a Europol. Há também recomendações dadas pela agência sobre como os agentes de aplicação da lei devem lidar com usos criminosos de deepfakes.

Incluindo a realização de aprimoramento das habilidades e tecnologias à disposição dos policiais. “Exemplos dessas novas capacidades vão desde a implantação de salvaguardas técnicas e organizacionais contra adulteração de vídeo até a criação de software de detecção de deepfake que usa inteligência artificial”, explica a Europol.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

Imagem: metamorworks/Shutterstock