Pesquisadores da McAfee utilizaram um algoritmo de tradução de imagens para enganar um sistema de reconhecimento facial. Ao aplicar aprendizado de máquina, os técnicos criaram uma imagem aparentemente semelhante ao rosto de uma pessoal real, entretanto, essa mesma imagem é capaz de se passar por outra.

A técnica pode ser usada, por exemplo, para burlar a checagem de passaportes em aeroportos. “Se ficarmos em frente à uma câmera que usa reconhecimento facial para identificar e interpretar quem eles estão olhando e comparar com uma foto de passaporte, podemos forçar esse tipo de classificação errônea”, explica o autor do estudo, Steve Povolny.

publicidade

A equipe da McAfee usou 1.500 fotos de dos dois pesquisadores no CycleGAN, um programa que consegue mesclar fotografias de um estilo para outro. Como fazem muitos apps de edição de imagens para smartphone, o CycleGAN consegue, por exemplo, aplicar filtros para que fotos pareçam pinturas ou transformar zebras em cavalos comuns.

As fotos dos rostos produzidas pelo algoritmo foram então analisadas pelo sistema de reconhecimento facial, para verificar quais dos dois pesquisadores foi reconhecido. Depois de gerar centenas de imagens, o CycleGAN acabou criando uma imagem falsificada que parecia a pessoa A a olho nu, mas enganou o reconhecimento facial ao pensar que era a pessoa B.

publicidade

O estudo apresenta um perigo em potencial para sistemas de reconhecimento facial, porém com ressalvas. Para os testes, os pesquisadores não tiveram acesso ao sistema real usado, por exemplo, pelos aeroportos para identificar passageiros, mas um algoritmo de código aberto de última geração. Outro ponto é que esse tipo de ataque requer muito tempo e recursos. O CycleGAN precisa de computadores e conhecimentos avançados para ser executado, por enquanto.

publicidade

“A Inteligência Artificial e o reconhecimento facial são ferramentas incrivelmente poderosas para ajudar no processo de identificação e autorização de pessoas”, diz Povolny. “Mas quando você os pega e substitui cegamente um sistema existente que depende inteiramente de um ser humano sem ter algum tipo de verificação secundária, de repente você introduziu talvez uma fraqueza maior do que antes”, completa.

Via: MIT Technology Review