Nội dung được dịch bởi AI, chỉ mang tính chất tham khảo
Các lỗ hổng ẩn trong các đặc điểm khuôn mặt: một phương pháp tấn công lỗ hổng vô hình mới chống lại các hệ thống nhận diện khuôn mặt
Tóm tắt
Hệ thống nhận diện khuôn mặt dựa trên mạng nơ-ron sâu (DNN) đã trở thành một trong những phương thức phổ biến nhất để xác thực danh tính người dùng. Tuy nhiên, một số nghiên cứu gần đây chỉ ra rằng, những kẻ tấn công ác ý có thể tiêm các lỗ hổng cụ thể vào mô hình DNN của hệ thống nhận diện khuôn mặt, được gọi là tấn công lỗ hổng. Kết quả là, kẻ tấn công có thể kích hoạt các lỗ hổng và mạo danh người khác để đăng nhập vào hệ thống, trong khi không ảnh hưởng đến việc sử dụng bình thường của người dùng hợp lệ. Các nghiên cứu hiện có sử dụng các phụ kiện (như kính râm màu tím hay băng đầu) làm các tác nhân kích hoạt cho các cuộc tấn công lỗ hổng của họ, mà những thứ này có thể dễ dàng nhận diện và gây ra sự thất bại cho các cuộc tấn công lỗ hổng. Trong bài báo này, lần đầu tiên, chúng tôi khai thác các đặc điểm khuôn mặt như các phương tiện để nhúng các lỗ hổng, và đề xuất một phương pháp tấn công lỗ hổng mới có tên BHF2 (Backdoor Hidden in Facial Features - Lỗ hổng ẩn trong các đặc điểm khuôn mặt). BHF2 tạo ra các mặt nạ với hình dạng của các đặc điểm khuôn mặt (lông mày và râu), và sau đó nhúng các lỗ hổng vào các mặt nạ để đảm bảo tính kín đáo về hình ảnh. Hơn nữa, để làm cho các lỗ hổng trông tự nhiên hơn, chúng tôi đề xuất phương pháp BHF2N (Backdoor Hidden in Facial Features Naturally - Lỗ hổng ẩn trong các đặc điểm khuôn mặt tự nhiên), khai thác công cụ dựa trên trí tuệ nhân tạo (AI) để tự động nhúng các lỗ hổng tự nhiên. Các lỗ hổng được tạo ra có tính kín đáo về hình ảnh, đảm bảo sự che giấu cho các cuộc tấn công lỗ hổng. Các phương pháp được đề xuất (BHF2 và BHF2N) có thể được áp dụng cho những kịch bản tấn công hộp đen, trong đó một đối thủ ác ý không có kiến thức về hệ thống nhận diện khuôn mặt mục tiêu. Hơn nữa, các phương pháp tấn công được đề xuất là khả thi cho những kịch bản xác thực danh tính nghiêm ngặt, nơi mà các phụ kiện không được phép. Kết quả thí nghiệm trên hai mô hình nhận diện khuôn mặt tiên tiến nhất cho thấy, tỷ lệ thành công tối đa của phương pháp tấn công được đề xuất đạt 100% trên các mô hình DeepID1 và VGGFace, trong khi độ chính xác giảm của các mô hình nhận diện mục tiêu thấp chỉ còn 0.01% (DeepID1) và 0.02% (VGGFace), tương ứng. Đồng thời, các lỗ hổng được tạo ra có thể đạt được tính kín đáo về hình ảnh, với tỷ lệ thay đổi pixel của một phiên bản lỗ hổng so với hình ảnh khuôn mặt sạch là tối thiểu 0.16%, và điểm tương đồng cấu trúc cũng như dHash của chúng cao lên tới 98.82% và 98.19%, tương ứng.
Từ khóa
Tài liệu tham khảo
Jiang W, Zhang L (2019) Geospatial data to images: A deep-learning framework for traffic forecasting. Tsinghua Sci Technol 24(1):52–64
Pagano C, Granger E, Sabourin R, Gorodnichy D (2012) Detector ensembles for face recognition in video surveillance. In: International joint conference on neural networks, pp 1–8
Dang Q, Yin J, Wang B, Zheng W (2019) Deep learning based 2D human pose estimation: A survey. Tsinghua Sci Technol 24(6):663–676
Choi K, Toh K-A, Byun H (2011) Realtime training on mobile devices for face recognition applications. Pattern Recogn 44(2):386–400
Soyata T, Muraleedharan R, Funai C, Kwon M, Heinzelman WB (2012) Cloud-vision: Real-time face recognition using a mobile-cloudlet-cloud acceleration architecture. In: IEEE symposium on computers and communications, pp 59–66
Zou M, Shi Y, Wang C, Li F, Song W, Wang Y (2018) PoTrojan: Powerful neural-level Trojan designs in deep learning models. arXiv:1802.03043
Liu Y, Ma S, Aafer Y, Lee W-C, Zhai J, Wang W, Zhang X (2018) Trojaning attack on neural networks. In: 25th Annual network and distributed system security symposium, pp 1–15
Gu T, Dolan-Gavitt B, Garg S (2017) Badnets: Identifying vulnerabilities in the machine learning model supply chain. arXiv:1708.06733
Li S, Zhao BZH, Yu J, Xue M, Kaafar D, Zhu H (2019) Invisible backdoor attacks against deep neural networks. arXiv:1909.02742
Xue M, He C, Wang J, Liu W (2020) One-to-N & N-to-One: Two advanced backdoor attacks against deep learning models. IEEE Transactions on Dependable and Secure Computing, Early Access, pp 1–17
Xue M, Yuan C, Wu H, Zhang Y, Liu W (2020) Machine learning security: Threats, countermeasures, and evaluations. IEEE Access 8:74720–74742
Chen X, Liu C, Li B, Lu K, Song D (2017) Targeted backdoor attacks on deep learning systems using data poisoning. arXiv:1712.05526
Wenger E, Passananti J, Yao Y, Zheng H, Zhao BY (2020) Backdoor attacks on facial recognition in the physical world. arXiv:2006.14580
Sarkar E, Benkraouda H, Maniatakos M (2020) FaceHack: Triggering backdoored facial recognition systems using facial characteristics. arXiv:2006.11623
Faceapp (2017). https://faceapp.com/app
He C, Xue M, Wang J, Liu W (2020) Embedding backdoors as the facial features: Invisible backdoor attacks against face recognition systems. In: Proceedings of ACM turing celebration conference - China, pp 231–235
Sun Y, Wang X, Tang X (2014) Deep learning face representation from predicting 10,000 classes. In: IEEE conference on computer vision and pattern recognition, pp 1891–1898
Parkhi O M, Vedaldi A, Zisserman A (2015) Deep face recognition. In: Proceedings of the British machine vision conference, pp 1–12
Wang Z, Bovik AC, Sheikh HR, Simoncelli EP (2004) Image quality assessment: From error visibility to structural similarity. IEEE Trans Image Process 13(4):600–612
Wen Z, Zhu W, Ouyang J, Liu P, Du Y, Zhang M, Gao J (2011) A robust and discriminative image perceptual hash algorithm. In: Proceedings of the international conference on genetic and evolutionary computing, pp 709–712
Rakin AS, He Z, Fan D (2020) TBT: Targeted neural network attack with bit Trojan. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 1–10
Zhong H, Liao C, Squicciarini AC, Zhu S, Miller DJ (2020) Backdoor embedding in convolutional neural network models via invisible perturbation. In: Proceedings of the ACM conference on data and application security and privacy, pp 97–108
Wang S, Nepal S, Rudolph C, Grobler M, Chen S, Chen T (2020) Backdoor attacks against transfer learning with pre-trained deep learning models. arXiv:2001.03274
Chen B, Carvalho W, Baracaldo N, Ludwig H, Edwards B, Lee T, Molloy I, Srivastava B (2019) Detecting backdoor attacks on deep neural networks by activation clustering. In: Proceedings of the 33th AAAI conference on artificial intelligence, pp 1–10
Liu K, Dolan-Gavitt B, Garg S (2018) Fine-pruning: Defending against backdooring attacks on deep neural networks. In: Proceedings of the 21st international symposium on attacks, intrusions and defenses, pp 273–294
Wang B, Yao Y, Shan S, Li H, Viswanath B, Zheng H, Zhao B Y (2019) Neural cleanse: Identifying and mitigating backdoor attacks in neural networks. In: IEEE symposium on security and privacy, pp 707–723
Udeshi S, Peng S, Woo G, Loh L, Rawshan L, Chattopadhyay S (2020) FaceHack: Triggering backdoored facial recognition systems using facial characteristics. arXiv:2006.11623
Gao Y, Xu C, Wang D, Chen S, Ranasinghe DC, Nepal S (2019) STRIP: A defence against Trojan attacks on deep neural networks. In: Proceedings of the 35th annual computer security applications conference, pp 113–125
Arsenovic M, Sladojevic S, Anderla A, Stefanovic D (2017) Facetime: Deep learning based face recognition attendance system. In: IEEE 15th international symposium on intelligent systems and informatics, pp 53–58
Insider threats as the main security threat in 2017 (2017). https://www.tripwire.com/state-of-security/security-data-protection/insider-threats-main-security-threat-2017/
The insider versus the outsider: Who poses the biggest security risk? (2015). https://www.helpnetsecurity.com/2015/08/19/theinsider-versus-the-outsider-who-poses-the-biggest-security-risk/
King DE (2009) Dlib-ml: A machine learning toolkit. J Mach Learn Res 10:1755–1758
Wolf L, Hassner T, Maoz I (2011) Face recognition in unconstrained videos with matched background similarity. In: IEEE conference on computer vision and pattern recognition, pp 529– 534
MTLab (2020). http://mtlab.meitu.com/en/index
Xi G, Zhao X, Liu Y, Huang J, Deng Y (2019) A hierarchical ensemble learning framework for energy-efficient automatic train driving. Tsinghua Sci Technol 24(2):226–237
Yao Y, Li H, Zheng H, Zhao BY (2019) Latent backdoor attacks on deep neural networks. In: Proceedings of the ACM SIGSAC conference on computer and communications security, pp 2041–2055
Doan BG, Abbasnejad E, Ranasinghe DC (2019) Februus: Input purification defense against Trojan attacks on deep neural network systems. arXiv:1908.03369