Nội dung được dịch bởi AI, chỉ mang tính chất tham khảo
Ví dụ đối kháng tự nhiên thực sự
Tóm tắt
Hiện tượng Ví dụ Đối Kháng đã trở thành một trong những chủ đề hấp dẫn nhất liên quan đến học sâu. Các cuộc tấn công được gọi là đối kháng có khả năng đánh lừa các mạng nơ-ron sâu với những biến đổi không đáng kể. Mặc dù hiệu ứng này rất ấn tượng, nhưng có giả thuyết cho rằng những nhiễu được tiêm vào một cách cẩn thận như vậy không nhất thiết phải xuất hiện trong các tình huống thực tế. Trái ngược với điều này, một số tác giả đã tìm cách tạo ra nhiễu đối kháng trong các tình huống thực tế (biểu hiệu giao thông, áo sơ mi, v.v.), qua đó cho thấy rằng kẻ tấn công thực sự có thể đánh lừa các mạng. Trong bài báo này, chúng tôi đi xa hơn và chỉ ra rằng các ví dụ đối kháng cũng xuất hiện trong thế giới thực mà không có bất kỳ kẻ tấn công nào hoặc nhiễu được chọn một cách ác ý. Chúng tôi chứng minh điều này bằng cách sử dụng hình ảnh từ các nhiệm vụ liên quan đến kính hiển vi và cũng như nhận diện đối tượng tổng quát với tập dữ liệu ImageNet nổi tiếng. Một so sánh giữa những ví dụ đối kháng tự nhiên và những ví dụ đối kháng được tạo ra một cách giả tạo được thực hiện bằng cách sử dụng các chỉ số khoảng cách và chỉ số chất lượng hình ảnh. Chúng tôi cũng chỉ ra rằng các ví dụ đối kháng tự nhiên thực sự cách xa hình ảnh gốc hơn so với trường hợp các ví dụ đối kháng được tạo ra một cách giả tạo.
Từ khóa
#Ví dụ đối kháng #Học sâu #Nhiễu #Nhận diện đối tượng #Tập dữ liệu ImageNetTài liệu tham khảo
Szegedy C Zaremba, W Sutskever, I Bruna, J Erhan, D Goodfellow, I Fergus R (2013) Intriguing properties of neural networks. arXiv preprint. arXiv:1312.6199
Serban AC, Poll E, Visser J (2018) Adversarial examples-a complete characterisation of the phenomenon. arXiv preprint. arXiv:1810.01185
Goodfellow IJ, Shlens J, Szegedy C (2014) Explaining and harnessing adversarial examples. arXiv preprint. arXiv:1412.6572
Gilmer J, Adams RP, Goodfellow I, Andersen D, Dahl GE (2018) Motivating the rules of the game for adversarial example research. arXiv preprint. arXiv:1807.06732
Lu J, Sibai H, Fabry E, Forsyth D (2017) No need to worry about adversarial examples in object detection in autonomous vehicles. arXiv preprint. arXiv:1707.03501
Kurakin A, Goodfellow I, Bengio S (2016) Adversarial examples in the physical world. arXiv preprint. arXiv:1607.02533
Zhao Z, Dua D, Singh S (2017) Generating natural adversarial examples. arXiv preprint. arXiv:1710.11342
Hendrycks D, Zhao K, Basart S, Steinhardt J, Song D (2021) Natural adversarial examples. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 15262–15271
Moosavi-Dezfooli SM, Fawzi A, Frossard P (2016) Deepfool: a simple and accurate method to fool deep neural networks. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 2574–2582
Carlini N, Wagner D (2017) Towards evaluating the robustness of neural networks. In: 2017 IEEE symposium on security and privacy (sp), IEEE, pp 39–57
Chen J, Jordan MI, Wainwright MJ (2019) Hopskipjumpattack: a query-efficient decision-based attack. arXiv preprint, vol 3. arXiv:1904.02144
Li X, Li J, Dai T, Shi J, Zhu J, Hu X (2021) Rethinking natural adversarial examples for classification models. arXiv preprint. arXiv:2102.11731
Engstrom L, Tran B, Tsipras D, Schmidt L, Madry A (2019) Exploring the landscape of spatial robustness. In: International conference on machine learning, pp 1802–1811
Athalye A,n Engstrom L, Ilyas A, Kwok K (2017) Synthesizing robust adversarial examples. arXiv preprint. arXiv:1707.07397
Tramèr F, Kurakin A, Papernot N, Goodfellow I, Boneh D, McDaniel P (2017) Ensemble adversarial training: attacks and defenses. arXiv preprint. arXiv:1705.07204
Athalye A, Carlini N, Wagner D (2018) Obfuscated gradients give a false sense of security: circumventing defenses to adversarial examples. In: International conference on machine learning, PMLR, pp 274–283
Carlini N, Athalye A, Papernot N, Brendel W, Rauber J, Tsipras D, Goodfellow I, Madry A, Kurakin A (2019) On evaluating adversarial robustness. arXiv preprint. arXiv:1902.06705
Fezza SA, Bakhti Y, Hamidouche W, Déforges O (2019) Perceptual evaluation of adversarial attacks for cnn-based image classification. In: 2019 Eleventh international conference on quality of multimedia experience (QoMEX), IEEE, pp 1–6
Jordan M, Manoj N, Goel S, Dimakis AG (2019) Quantifying perceptual distortion of adversarial examples. arXiv preprint. arXiv:1902.08265
Jefferson B, Marrero CO (2019) Robustness metrics for real-world adversarial examples. arXiv preprint. arXiv:1911.10435
Sara U, Akter M, Uddin MS (2019) Image quality assessment through fsim, ssim, mse and psnr–a comparative study. J Comput Commun 7(3):8–18
Hosseini H, Xiao B, Poovendran R (2017) Google’s cloud vision api is not robust to noise. In: 2017 16th IEEE international conference on machine learning and applications (ICMLA), IEEE, pp 101–105
Pitropakis N, Panaousis E, Giannetsos T, Anastasiadis E, Loukas G (2019) A taxonomy and survey of attacks against machine learning. Comput Sci Rev 34:100199
Directive WF (2003) Common implementation strategy for the water framework directive (2000/60/ec). Guidance document (7)
Ruiz-Santaquiteria J, Bueno G, Deniz O, Vallez N, Cristobal G (2020) Semantic versus instance segmentation in microscopic algae detection. Eng Appl Artif Intell 87:103271
Redmon J, Farhadi A (2017) Yolo9000: better, faster, stronger. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 7263–7271
Deng J, Dong W, Socher R, Li LJ, Li K, Fei-Fei L (2009) Imagenet: a large-scale hierarchical image database. In: 2009 IEEE conference on computer vision and pattern recognition, IEEE, pp 248–255
Szegedy C, Liu W, Jia Y, Sermanet P, Reed S, Anguelov D, Erhan D, Vanhoucke V, Rabinovich A (2015) Going deeper with convolutions. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 1–9
Simonyan K, Zisserman A (2014) Very deep convolutional networks for large-scale image recognition. arXiv preprint. arXiv:1409.1556
He K, Zhang X, Ren S, Sun J (2016) Deep residual learning for image recognition. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 770–778
Redmon J, Divvala S, Girshick R, Farhadi A (2016) You only look once: unified, real-time object detection. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 779–788
Chollet F (2017) Xception: deep learning with depthwise separable convolutions. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 1251–1258
Wang Z, Bovik AC, Lu L (2002) Why is image quality assessment so difficult? In: 2002 IEEE international conference on acoustics, speech, and signal processing, vol 4, IEEE, pp IV–3313
Eskicioglu AM, Fisher PS (1995) Image quality measures and their performance. IEEE Trans Commun 43(12):2959–2965
Wang Z, Bovik AC, Sheikh HR, Simoncelli EP (2004) Image quality assessment: from error visibility to structural similarity. IEEE Trans Image Process 13(4):600–612
Sheikh HR, Bovik AC, De Veciana G (2005) An information fidelity criterion for image quality assessment using natural scene statistics. IEEE Trans Image Process 14(12):2117–2128
Sheikh HR, Bovik AC (2006) Image information and visual quality. IEEE Trans Image Process 15(2):430–444
Larson EC, Chandler DM (2010) Most apparent distortion: full-reference image quality assessment and the role of strategy. J Electron Imaging 19(1):11006