Ví dụ đối kháng tự nhiên thực sự

Anibal Pedraza1, Oscar Deniz1, Gloria Bueno1
1VISILAB, ETSI Industriales, Ciudad Real, Spain

Tóm tắt

Hiện tượng Ví dụ Đối Kháng đã trở thành một trong những chủ đề hấp dẫn nhất liên quan đến học sâu. Các cuộc tấn công được gọi là đối kháng có khả năng đánh lừa các mạng nơ-ron sâu với những biến đổi không đáng kể. Mặc dù hiệu ứng này rất ấn tượng, nhưng có giả thuyết cho rằng những nhiễu được tiêm vào một cách cẩn thận như vậy không nhất thiết phải xuất hiện trong các tình huống thực tế. Trái ngược với điều này, một số tác giả đã tìm cách tạo ra nhiễu đối kháng trong các tình huống thực tế (biểu hiệu giao thông, áo sơ mi, v.v.), qua đó cho thấy rằng kẻ tấn công thực sự có thể đánh lừa các mạng. Trong bài báo này, chúng tôi đi xa hơn và chỉ ra rằng các ví dụ đối kháng cũng xuất hiện trong thế giới thực mà không có bất kỳ kẻ tấn công nào hoặc nhiễu được chọn một cách ác ý. Chúng tôi chứng minh điều này bằng cách sử dụng hình ảnh từ các nhiệm vụ liên quan đến kính hiển vi và cũng như nhận diện đối tượng tổng quát với tập dữ liệu ImageNet nổi tiếng. Một so sánh giữa những ví dụ đối kháng tự nhiên và những ví dụ đối kháng được tạo ra một cách giả tạo được thực hiện bằng cách sử dụng các chỉ số khoảng cách và chỉ số chất lượng hình ảnh. Chúng tôi cũng chỉ ra rằng các ví dụ đối kháng tự nhiên thực sự cách xa hình ảnh gốc hơn so với trường hợp các ví dụ đối kháng được tạo ra một cách giả tạo.

Từ khóa

#Ví dụ đối kháng #Học sâu #Nhiễu #Nhận diện đối tượng #Tập dữ liệu ImageNet

Tài liệu tham khảo

Szegedy C Zaremba, W Sutskever, I Bruna, J Erhan, D Goodfellow, I Fergus R (2013) Intriguing properties of neural networks. arXiv preprint. arXiv:1312.6199 Serban AC, Poll E, Visser J (2018) Adversarial examples-a complete characterisation of the phenomenon. arXiv preprint. arXiv:1810.01185 Goodfellow IJ, Shlens J, Szegedy C (2014) Explaining and harnessing adversarial examples. arXiv preprint. arXiv:1412.6572 Gilmer J, Adams RP, Goodfellow I, Andersen D, Dahl GE (2018) Motivating the rules of the game for adversarial example research. arXiv preprint. arXiv:1807.06732 Lu J, Sibai H, Fabry E, Forsyth D (2017) No need to worry about adversarial examples in object detection in autonomous vehicles. arXiv preprint. arXiv:1707.03501 Kurakin A, Goodfellow I, Bengio S (2016) Adversarial examples in the physical world. arXiv preprint. arXiv:1607.02533 Zhao Z, Dua D, Singh S (2017) Generating natural adversarial examples. arXiv preprint. arXiv:1710.11342 Hendrycks D, Zhao K, Basart S, Steinhardt J, Song D (2021) Natural adversarial examples. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 15262–15271 Moosavi-Dezfooli SM, Fawzi A, Frossard P (2016) Deepfool: a simple and accurate method to fool deep neural networks. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 2574–2582 Carlini N, Wagner D (2017) Towards evaluating the robustness of neural networks. In: 2017 IEEE symposium on security and privacy (sp), IEEE, pp 39–57 Chen J, Jordan MI, Wainwright MJ (2019) Hopskipjumpattack: a query-efficient decision-based attack. arXiv preprint, vol 3. arXiv:1904.02144 Li X, Li J, Dai T, Shi J, Zhu J, Hu X (2021) Rethinking natural adversarial examples for classification models. arXiv preprint. arXiv:2102.11731 Engstrom L, Tran B, Tsipras D, Schmidt L, Madry A (2019) Exploring the landscape of spatial robustness. In: International conference on machine learning, pp 1802–1811 Athalye A,n Engstrom L, Ilyas A, Kwok K (2017) Synthesizing robust adversarial examples. arXiv preprint. arXiv:1707.07397 Tramèr F, Kurakin A, Papernot N, Goodfellow I, Boneh D, McDaniel P (2017) Ensemble adversarial training: attacks and defenses. arXiv preprint. arXiv:1705.07204 Athalye A, Carlini N, Wagner D (2018) Obfuscated gradients give a false sense of security: circumventing defenses to adversarial examples. In: International conference on machine learning, PMLR, pp 274–283 Carlini N, Athalye A, Papernot N, Brendel W, Rauber J, Tsipras D, Goodfellow I, Madry A, Kurakin A (2019) On evaluating adversarial robustness. arXiv preprint. arXiv:1902.06705 Fezza SA, Bakhti Y, Hamidouche W, Déforges O (2019) Perceptual evaluation of adversarial attacks for cnn-based image classification. In: 2019 Eleventh international conference on quality of multimedia experience (QoMEX), IEEE, pp 1–6 Jordan M, Manoj N, Goel S, Dimakis AG (2019) Quantifying perceptual distortion of adversarial examples. arXiv preprint. arXiv:1902.08265 Jefferson B, Marrero CO (2019) Robustness metrics for real-world adversarial examples. arXiv preprint. arXiv:1911.10435 Sara U, Akter M, Uddin MS (2019) Image quality assessment through fsim, ssim, mse and psnr–a comparative study. J Comput Commun 7(3):8–18 Hosseini H, Xiao B, Poovendran R (2017) Google’s cloud vision api is not robust to noise. In: 2017 16th IEEE international conference on machine learning and applications (ICMLA), IEEE, pp 101–105 Pitropakis N, Panaousis E, Giannetsos T, Anastasiadis E, Loukas G (2019) A taxonomy and survey of attacks against machine learning. Comput Sci Rev 34:100199 Directive WF (2003) Common implementation strategy for the water framework directive (2000/60/ec). Guidance document (7) Ruiz-Santaquiteria J, Bueno G, Deniz O, Vallez N, Cristobal G (2020) Semantic versus instance segmentation in microscopic algae detection. Eng Appl Artif Intell 87:103271 Redmon J, Farhadi A (2017) Yolo9000: better, faster, stronger. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 7263–7271 Deng J, Dong W, Socher R, Li LJ, Li K, Fei-Fei L (2009) Imagenet: a large-scale hierarchical image database. In: 2009 IEEE conference on computer vision and pattern recognition, IEEE, pp 248–255 Szegedy C, Liu W, Jia Y, Sermanet P, Reed S, Anguelov D, Erhan D, Vanhoucke V, Rabinovich A (2015) Going deeper with convolutions. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 1–9 Simonyan K, Zisserman A (2014) Very deep convolutional networks for large-scale image recognition. arXiv preprint. arXiv:1409.1556 He K, Zhang X, Ren S, Sun J (2016) Deep residual learning for image recognition. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 770–778 Redmon J, Divvala S, Girshick R, Farhadi A (2016) You only look once: unified, real-time object detection. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 779–788 Chollet F (2017) Xception: deep learning with depthwise separable convolutions. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 1251–1258 Wang Z, Bovik AC, Lu L (2002) Why is image quality assessment so difficult? In: 2002 IEEE international conference on acoustics, speech, and signal processing, vol 4, IEEE, pp IV–3313 Eskicioglu AM, Fisher PS (1995) Image quality measures and their performance. IEEE Trans Commun 43(12):2959–2965 Wang Z, Bovik AC, Sheikh HR, Simoncelli EP (2004) Image quality assessment: from error visibility to structural similarity. IEEE Trans Image Process 13(4):600–612 Sheikh HR, Bovik AC, De Veciana G (2005) An information fidelity criterion for image quality assessment using natural scene statistics. IEEE Trans Image Process 14(12):2117–2128 Sheikh HR, Bovik AC (2006) Image information and visual quality. IEEE Trans Image Process 15(2):430–444 Larson EC, Chandler DM (2010) Most apparent distortion: full-reference image quality assessment and the role of strategy. J Electron Imaging 19(1):11006