Hòa hợp giữa hiệu suất dự đoán và khả năng giải thích trong việc dự đoán khách hàng mua lại thông qua tinh luyện mô hình và hợp nhất các bộ phân loại khác nhau

Neural Computing and Applications - Tập 32 - Trang 9495-9508 - 2019
Yaohan Shen1, Xianhao Xu1, Jingjing Cao2,3
1School of Management, Huazhong University of Science and Technology, Wuhan, China
2School of Logistics Engineering, Wuhan University of Technology, Wuhan, China
3Engineering Research Center of Port Logistics Technology and Equipment, Ministry of Education, Wuhan, China

Tóm tắt

Dự đoán khách hàng mua lại là điều quan trọng đối với các công ty thương mại điện tử nhằm nâng cao dịch vụ khách hàng và doanh số sản phẩm. Cụ thể, việc nhận thức được những yếu tố hoặc quy tắc nào thúc đẩy việc mua lại quan trọng không kém so với việc biết được kết quả của các dự đoán trong lĩnh vực kinh doanh. Do đó, một mô hình có khả năng giải thích với hiệu suất dự đoán xuất sắc là điều cần thiết. Nhiều bộ phân loại, chẳng hạn như perceptron đa lớp, có khả năng dự đoán xuất sắc nhưng thiếu khả năng giải thích mô hình. Các mô hình dựa trên cây có khả năng giải thích; tuy nhiên, hiệu suất dự đoán của chúng thường không thể đạt được mức cao. Dựa trên những quan sát này, chúng tôi thiết kế một phương pháp nhằm cân bằng hiệu suất dự đoán và khả năng giải thích của cây quyết định thông qua tinh luyện mô hình và hợp nhất các bộ phân loại khác nhau. Cụ thể, chúng tôi trước tiên đào tạo nhiều bộ phân loại khác nhau và tích hợp chúng thông qua các phép toán kết hợp khác nhau. Sau đó, sự kết hợp của các bộ phân loại đóng vai trò là mô hình giáo viên. Tiếp theo, các mục tiêu mềm được lấy từ giáo viên và hướng dẫn đào tạo cây quyết định. Một tập dữ liệu thực tế về dự đoán khách hàng mua lại được sử dụng trong bài báo này, và chúng tôi áp dụng các đặc trưng liên quan đến ba khía cạnh: người dùng, thương nhân và cặp người dùng–thương nhân. Kết quả thực nghiệm cho thấy độ chính xác và AUC của cây quyết định đều được cải thiện, và chúng tôi cung cấp các giải thích mô hình cho ba khía cạnh.

Từ khóa

#dự đoán khách hàng mua lại #khả năng giải thích mô hình #hợp nhất bộ phân loại #tinh luyện mô hình #cây quyết định

Tài liệu tham khảo

Jia R, Li R, Yu M, Wang S (2017) E-commerce purchase prediction approach by user behavior data. In: International conference on computer, information and telecommunication systems (CITS), pp 1–5 Liu G, Nguyen TT, Zhao G, Zha W, Yang J, Cao J, Wu M, Zhao P, Chen W (2016) Repeat buyer prediction for E-Commerce. In: The 22nd ACM SIGKDD international conference on knowledge discovery and data mining, pp 155–164 Tian Y, Ye Z, Yan Y, Sun M (2015) A practical model to predict the repeat purchasing pattern of consumers in the C2C e-commerce. Electron Commer Res 15:571–583 Zhang H, Li J, Ji Y, Yue H, Learning S (2017) Understanding by character-level. IEEE Trans Ind Inf 13:616–624 Cao J, Li W, Ma C, Tao Z (2018) Optimizing multi-sensor deployment via ensemble pruning for wearable activity recognition. Inf Fusion 41(5):68–79 Kurt S, őz E, Askin OE, őz YY (2018) Classification of nucleotide sequences for quality assessment using logistic regression and decision tree approaches. Neural Comput Appl 29(8):251–262 Pai P-F, ChangLiao L-H, Lin K-P (2017) Analyzing basketball games by a support vector machines with decision tree model. Neural Comput Appl 28(12):4159–4167 Hinton G, Vinyals O, Dean J (2015) Distilling the knowledge in a neural network. In: NIPS deep learning workshop Friedman JH (2001) Greedy function approximation: a gradient boosting machine. Ann Stat 29(5):1189–1232 Goldstein A, Kapelner A, Bleich J, Pitkin E (2014) Peeking inside the black box: visualizing statistical learning with plots of individual conditional expectation. arXiv:1309.6392v2, Apley DW (2016) Visualizing the effects of predictor variables in black box supervised learning models. arXiv:1612.08468 Che Z, Purushotham S, Khemani R, Liu Y (2016) Interpretable deep models for ICU outcome prediction. In: American medical informatics association (AMIA) annual symposium, pp 371–380 Tan S, Caruana R, Hooker G, Gordo A (2018) Transparent model distillation. arXiv:1801.08640 Tan S, Caruana R, Hooker G, Lou Y (2017) Detecting bias in black-box models using transparent model distillation. arXiv:1710.06169 Molnar C (2018) Interpretable machine learning. Retrieved from https://christophm.github.io/interpretable-ml-book/. Accessed 27 Aug 2019 Ribeiro MT, Singh S, Guestrin C (2016) “Why should I trust you?”: explaining the predictions of any classifier. In: Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining, pp 1135–1144 Kumar D, Taylor GW, Wong A (2017) Opening the black box of financial AI with CLEAR-trade: a CLass-enhanced attentive response approach for explaining and visualizing deep learning-driven stock market prediction. arXiv:1709.01574 Puri N, Gupta P, Agarwal P, Verma S, Krishnamurthy B (2018) MAGIX: model agnostic globally interpretable explanations. arXiv:1706.07160v3, Bucilǎ C, Caruana R, Niculescu-Mizil A (2006) Compression model. KDD 06:20–23 Zagoruyko S, Komodakis N (2016) Paying more attention to attention: improving the performance of convolutional neural networks via attention transfer. arXiv:1612.03928 Uijlings J, Popov S, Ferrari V (2017) Revisiting knowledge transfer for training object class detectors. arXiv:1708.06128 Pham H, Guan MY, Zoph B, Le QV , Dean J (2018) Efficient neural architecture search via parameters sharing. arXiv:1802.03268 Frosst N, Hinton G (2017) Distilling a neural network into a soft decision tree. arXiv:1711.09784, Li W, Hou J, Yin L (2015) A classifier fusion method based on classifier accuracy. In: IEEE international conference on mechatronics and control (ICMC) Ruta D, Gabrys B (2000) An overview of classifier fusion methods. Comput Inf Syst 7(1):1–10 Haque MN, Noman MN, Berretta R, Moscato P (2016) Optimising weights for heterogeneous ensemble of classifiers with differential evolution. In: IEEE congress on evolutionary computation (CEC) Riniker S, Fechner N, Landrum GA (2013) Heterogeneous classifier fusion for ligand-based virtual screening: or how decision making by committee can be a good thing. J Chem Inf Model 53(11):2829–2836 Bashir S, Qamar U, Khan FH (2015) Heterogeneous classifiers fusion for dynamic breast cancer diagnosis using weighted vote based ensemble. Qual Quant 49(5):2061–2076 Kang S, Cho S, Rhee S, Kyung-Sang Y (2017) Reliable prediction of anti-diabetic drug failure using a reject option. Pattern Anal Appl 20(3):883–891 Ludmila I (2004) Kuncheva, combining pattern classifiers. Wiley, Hoboken, pp 157–160 Breiman L, Friedman JH, Olshen RA, Stone CJ (1984) Classification and regression trees. Routledge, New York https://tianchi.aliyun.com/dataset/dataDetail?dataId=42 https://github.com/Junren0716/Tmall-Repeated-buyers-prediction Kingma DP, Ba J (2017) Adam: a method for stochastic optimization. ArXiv:1412.6980 Pedregosa F, Varoquaux G, Gramfort A et al (2011) Scikit-learn: machine learning in python. J Mach Learn Res 12:2825–2830 Breiman L (2001) Random forests. Mach Learn 45(1):5–32