Tránh né các bộ phân loại phần mềm độc hại bằng tác nhân học tăng cường sử dụng mặt nạ hành động

Saurabh Pandey1, Nitesh Kumar1, Anand Handa1, Sandeep Kumar Shukla1
1C3I Center, Department of CSE, Indian Institute of Technology, Kanpur, India

Tóm tắt

Đối với việc phát hiện phần mềm độc hại, kỹ thuật thường được biết đến và sử dụng bởi nhiều động cơ diệt virus thương mại là các phương pháp dựa trên chữ ký. Tuy nhiên, trong vài năm qua, các nhà nghiên cứu đã bắt đầu chú trọng vào việc sử dụng các phương pháp dựa trên học máy (ML) cho nhiệm vụ này. Lý do là các phương pháp dựa trên chữ ký có những hạn chế trong việc nhận diện các biến thể mới của phần mềm độc hại. Ngược lại, các phương pháp dựa trên ML đã chứng minh giá trị của chúng qua nhiều lĩnh vực khác nhau như hình ảnh, văn bản và âm thanh nhờ vào khả năng tổng quát của chúng. Mặc dù các phương pháp dựa trên ML đủ mạnh so với các phương pháp dựa trên chữ ký, nhưng chúng có thể dễ dàng bị đánh lừa bằng cách thực hiện một cuộc tấn công đối kháng chỉ cần tạo ra một mẫu đối kháng trông giống như mẫu gốc với một số nhiễu thêm vào. Những cuộc tấn công như vậy cần được thực hiện để biết được nguy cơ tiềm tàng trong nhiều kịch bản khác nhau và nắm bắt tri thức để củng cố các biện pháp phòng thủ của mô hình ML. Chúng tôi đề xuất một phương pháp học tăng cường (RL) để tạo ra các ví dụ đối kháng sử dụng cách tạo mặt nạ hành động trong quá trình học của tác nhân. Trong nghiên cứu của chúng tôi, chúng tôi tấn công hai mô hình tĩnh đã được huấn luyện trước – EMBER được huấn luyện trên hơn 1 triệu mẫu và GBDT được huấn luyện trên hơn 100.000 mẫu. Chúng tôi cũng tấn công một mô hình thay thế được huấn luyện trên hơn 25.000 mẫu, đóng vai trò thay thế cho 11 mô hình lai tự huấn luyện khác nhau. Chúng tôi cũng trình bày cuộc tấn công tính chuyển giao trên tất cả các mô hình lai với sự hỗ trợ của các ví dụ đối kháng được tạo ra sau khi tấn công mô hình thay thế và hai mô hình tĩnh đã được huấn luyện trước. Chúng tôi cũng thực hiện huấn luyện phòng thủ đối kháng trên 11 mô hình lai này và đánh giá độ bền của chúng trước các cuộc tấn công như vậy. Chúng tôi đạt được tỷ lệ né tránh tối đa là 47,64%, 33,2% và 94,67% cho các mô hình GBDT, EMBER và mô hình thay thế sử dụng mặt nạ hành động, tương ứng. Chúng tôi cũng trình bày bằng chứng sửa đổi nhị phân và một số trường hợp đặc biệt. Vì việc sửa đổi các tệp nhị phân là rất khó khăn, ngay cả một thay đổi 1 byte ở chỗ không đúng cũng có thể làm hỏng tệp nhị phân. Chúng tôi sử dụng quy trình sửa đổi bao gồm một số trường hợp đặc biệt và hạn chế hành động có thể làm hỏng tệp nhị phân.

Từ khóa

#phát hiện phần mềm độc hại #học máy #học tăng cường #đối kháng #mô hình lai #phòng thủ nhị phân

Tài liệu tham khảo

2023 report - checkpoint research cybersecurity report. https://www.i-maxpr.com/x/13167/c6e/c6e9c743674c8e0971480e58d23f9cc6.pdf. Accessed 15 June 2023 Alexey, K., Ian, G., Samy, B.: Adversarial machine learning at scale. In: International Conference on Learning Representations (2017) Anderson, H.S., Kharkar, A., Filar, B., Evans, D., Roth, P.: Learning to evade static pe machine learning malware models via reinforcement learning. (2018) arXiv preprint arXiv:1801.08917 Backes, M., Manoharan, P., Grosse, K., Papernot, N.: Adversarial perturbations against deep neural networks for malware classification. Comput Res Reposit (CoRR) (2016) Backes, M., Manoharan, P., Grosse, K., Papernot, N..: Adversarial perturbations against deep neural networks for malware classification. Comput. Res. Reposit (CoRR) (2016) Bridges, R.A., Oesch, S., Iannacone, M.D., Huffer, K.M.T., Jewell, B., Nichols, J.A., Weber, B., Verma, M.E., Scofield, D., Miles, C., et al.: Beyond the hype: An evaluation of commercially available machine-learning-based malware detectors. Digital Threats Res. Pract (2023) Carlini, N., Wagner, D..: Audio adversarial examples: Targeted attacks on speech-to-text. In: 2018 IEEE Security and Privacy Workshops (SPW), pp. 1–7. IEEE, (2018) Chen, T., Guestrin, C.: XGBoost: A scalable tree boosting system. In: Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD ’16, pages 785–794, New York, NY, USA,ACM (2016) Cheng, M., Yi, J., Chen, P.-Y., Zhang, H., Hsieh, C.-J.: Seq2sick: Evaluating the robustness of sequence-to-sequence models with adversarial examples. In: Proceedings of the AAAI Conference on Artificial Intelligence 34, 3601–3608 (2020) Chollet, F., et al.: Keras: The python deep learning library. Astrophysics source code library Cylance AI Homepage. https://www.blackberry.com/us/en/products/unified-endpoint-security/cylance-ai. Accessed 15 June 2023 Demetrio, L., Biggio, B., Lagorio, G., Roli, F., Armando, A.: Functionality-preserving black-box optimization of adversarial windows malware. IEEE Trans. Inf. Forensics Secur. 16, 3469–3478 (2021) Demetrio, L., Coull, S.E., Biggio, B., Lagorio, G., Armando, A., Roli, F.: Adversarial exemples: A survey and experimental evaluation of practical attacks on machine learning for windows malware detection. ACM Trans. Privacy Security (TOPS) 24(4), 1–31 (2021) Dogo, EM., Afolabi, OJ., Nwulu, NI., Twala, Bhekisipho, Aigbavboa, CO.: A comparative analysis of gradient descent-based optimization algorithms on convolutional neural networks. In: 2018 international conference on computational techniques, electronics and mechanical systems (CTEMS), pages 92–99. IEEE, (2018) Ember: An Open Source Classifier And Dataset. https://www.elastic.co/blog/introducing-ember-open-source-classifier-and-dataset. Accessed 15 June 2023 Fang, Y., Zeng, Y., Li, B., Liu, L., Zhang, L.: Deepdetectnet vs rlattacknet: An adversarial method to improve deep learning-based static malware detection model. PLoS ONE 15(4), e0231626 (2020) Fang, Z., Wang, J., Li, B., Siqi, W., Zhou, Y., Huang, H.: Evading anti-malware engines with deep reinforcement learning. IEEE Access 7, 48867–48879 (2019) Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., Bengio, Y.: Generative adversarial nets. Adv. Neural Inf. Process. Syst. 27, (2014) Goodfellow, I.J., Shlens, J., Szegedy, C.: Explaining and harnessing adversarial examples. Stat 1050, 20 (2015) Hariom, A., Handa, B., Kumar, N., Shukla, S.K.: Adversaries strike hard: Adversarial attacks against malware classifiers using dynamic api calls as features. In: Cyber Security Cryptography and Machine Learning: 5th International Symposium, CSCML 2021, Be’er Sheva, Israel, July 8–9, 2021, Proceedings, volume 12716, page 20. Springer Nature, (2021) Labaca-Castro, R., Franz, S., Rodosek, G.: Dreo: Aimed-rl: Exploring adversarial malware examples with reinforcement learning. In: Machine Learning and Knowledge Discovery in Databases. Applied Data Science Track: European Conference, ECML PKDD 2021, Bilbao, Spain, September 13–17, 2021, Proceedings, Part IV 21, pages 37–52. Springer, (2021) Li, D., Li, Q.: Adversarial deep ensemble: Evasion attacks and defenses for malware detection. IEEE Trans. Inf. Forensics Secur. 15, 3886–3900 (2020) LIEF - Library to Instrument Executable Formats. https://lief.quarkslab.com/. Accessed 15 June 2023 Ling, X., Wu, L., Zhang, J., Qu, Z., Deng, W., Chen, X., Qian, Y., Wu, C., Ji, S., Luo, T., et al: Adversarial attacks against windows pe malware detection: A survey of the state-of-the-art. Comput. Secur. 103134 (2023) Malware Statistics & Trend Report. https://www.av-test.org/en/statistics/malware/. Accessed 15 June 2023 Mnih, V., Badia, A., Puigdomenech, M., Mehdi, G., Alex, L., Timothy, H., Tim, S., David, K.: Asynchronous methods for deep reinforcement learning. In: International Conference on Machine Learning, pp. 1928–1937. PMLR (2016) Moosavi-Dezfooli, S.-M., Fawzi, A., Frossard, P.: Deepfool: a simple and accurate method to fool deep neural networks. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 2574–2582 (2016) Papernot, N., McDaniel, P., Jha, S., Fredrikson, M., Celik, Z, Berkay, S., Ananthram: The limitations of deep learning in adversarial settings. In: 2016 IEEE European symposium on security and privacy (EuroS &P), pp. 372–387. IEEE (2016) Pedregosa, F., Varoquaux, G., Gramfort, A., Michel, V., Thirion, B., Grisel, O., Blondel, M., Prettenhofer, P., Weiss, R., Dubourg, V., Vanderplas, J., Passos, A., Cournapeau, D., Brucher, M., Perrot, M., Duchesnay, E.: Scikit-learn: Machine learning in Python. J. Mach. Learn. Res. 12, 2825–2830 (2011) pefile: A Python module to read and work with PE files. https://github.com/erocarrera/pefile. Accessed 15 June 2023 Peng, X., Xian, H., Qian, L., Xiuqing, L.: Semantics aware adversarial malware examples generation for black-box attacks. Appl. Soft Comput. 109, 107506 (2021) Portable Executable 32 bit Structure. https://commons.wikimedia.org/w/index.php?curid=51026079. Accessed 15 June 2023 Raff, E., Barker, J., Sylvester, J., Brandon, R., Catanzaro, B., Nicholas, C.K.: Malware detection by eating a whole exe. In: Workshops at the Thirty-Second AAAI Conference on Artificial Intelligence (2018) Raffin, A., Hill, A., Gleave, A., Kanervisto, A., Ernestus, M., Dormann, N.: Stable-baselines3: Reliable reinforcement learning implementations. J. Mach. Learn. Res. 22(268), 1–8 (2021) Ranveer, S., Hiray, S.: Comparative analysis of feature extraction methods of malware detection. Int. J. Comput. Appl. 120, 1–7 (2015) Rosenberg, I., Shabtai, A., Rokach, L., Elovici, Y.: Generic black-box end-to-end attack against state of the art api call based malware classifiers. In: International Symposium on Research in Attacks, Intrusions, and Defenses, pp. 490–510. Springer, (2018) Schönherr, L., Eisenhofer, T., Zeiler, S., Holz, T., Kolossa, D.: Imperio: Robust over-the-air adversarial examples for automatic speech recognition systems. In: Annual Computer Security Applications Conference, pp. 843–855 (2020) Suciu, O., Coull, S.E., Johns, J.: Exploring adversarial examples in malware detection. In: 2019 IEEE Security and Privacy Workshops (SPW), pp. 8–14. IEEE, (2019) Softonic - windows app. https://en.softonic.com/windows. Accessed year 2022 Suciu, O., Coull, S.E., Johns, J.: Exploring adversarial examples in malware detection. In: 2019 IEEE Security and Privacy Workshops (SPW), pp. 8–14. IEEE, (2019) Sourceforge - free open source windows software. https://sourceforge.net/directory/os:windows/. Accessed year 2022 Sutton, R.S., Barto, A.G.: Reinforcement learning: An introduction. MIT press, (2018) Surge in Ransomware and 10 Biggest Attacks in 2021. https://www.isaca.org/resources/news-and-trends/newsletters/atisaca/2021/volume-35/surge-in-ransomware-attack-and-10-biggest-attacks-in-2021. Accessed 15 June 2023 Szegedy, C., Zaremba, W., Sutskever, I., Bruna, J., Erhan, D., Goodfellow, I., Fergus, R.: Intriguing properties of neural networks. In: 2nd International Conference on Learning Representations, ICLR 2014, (2014) VirusShare - Because Sharing is Caring. https://virusshare.com/. Accessed 15 June 2023 VirusTotal. https://www.virustotal.com/gui/home/upload. Accessed 15 June 2023 Wang, R., Juefei-Xu, F., Huang, Y., Guo, Q., Xie, X., Ma, L., Liu, Y.: Deepsonar: Towards effective and robust detection of ai-synthesized fake voices. In: Proceedings of the 28th ACM International Conference on Multimedia, pp. 1207–1216 (2020) Watkins, C.J.C.H.: Learning from delayed rewards (1989) What is Cuckoo? https://cuckoo.sh/docs/introduction/what.html. Accessed 15 June 2023 What is the Polymorphic Virus? https://www.kaspersky.com/resource-center/definitions/what-is-a-polymorphic-virus. Accessed 15 June 2023 Wu, W., Su, Y., Lyu, M.R., King, I.: Improving the transferability of adversarial samples with adversarial transformations. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 9024–9033 (2021) Zhang, Y., Gan, Z., Fan, K., Chen, Z., Henao, R., Shen, D., Carin, L.: Adversarial feature matching for text generation. In: International Conference on Machine Learning, pp. 4006–4015. PMLR, (2017)