Nội dung được dịch bởi AI, chỉ mang tính chất tham khảo
Hòa hợp giữa hiệu suất dự đoán và khả năng giải thích trong việc dự đoán khách hàng mua lại thông qua tinh luyện mô hình và hợp nhất các bộ phân loại khác nhau
Tóm tắt
Dự đoán khách hàng mua lại là điều quan trọng đối với các công ty thương mại điện tử nhằm nâng cao dịch vụ khách hàng và doanh số sản phẩm. Cụ thể, việc nhận thức được những yếu tố hoặc quy tắc nào thúc đẩy việc mua lại quan trọng không kém so với việc biết được kết quả của các dự đoán trong lĩnh vực kinh doanh. Do đó, một mô hình có khả năng giải thích với hiệu suất dự đoán xuất sắc là điều cần thiết. Nhiều bộ phân loại, chẳng hạn như perceptron đa lớp, có khả năng dự đoán xuất sắc nhưng thiếu khả năng giải thích mô hình. Các mô hình dựa trên cây có khả năng giải thích; tuy nhiên, hiệu suất dự đoán của chúng thường không thể đạt được mức cao. Dựa trên những quan sát này, chúng tôi thiết kế một phương pháp nhằm cân bằng hiệu suất dự đoán và khả năng giải thích của cây quyết định thông qua tinh luyện mô hình và hợp nhất các bộ phân loại khác nhau. Cụ thể, chúng tôi trước tiên đào tạo nhiều bộ phân loại khác nhau và tích hợp chúng thông qua các phép toán kết hợp khác nhau. Sau đó, sự kết hợp của các bộ phân loại đóng vai trò là mô hình giáo viên. Tiếp theo, các mục tiêu mềm được lấy từ giáo viên và hướng dẫn đào tạo cây quyết định. Một tập dữ liệu thực tế về dự đoán khách hàng mua lại được sử dụng trong bài báo này, và chúng tôi áp dụng các đặc trưng liên quan đến ba khía cạnh: người dùng, thương nhân và cặp người dùng–thương nhân. Kết quả thực nghiệm cho thấy độ chính xác và AUC của cây quyết định đều được cải thiện, và chúng tôi cung cấp các giải thích mô hình cho ba khía cạnh.
Từ khóa
#dự đoán khách hàng mua lại #khả năng giải thích mô hình #hợp nhất bộ phân loại #tinh luyện mô hình #cây quyết địnhTài liệu tham khảo
Jia R, Li R, Yu M, Wang S (2017) E-commerce purchase prediction approach by user behavior data. In: International conference on computer, information and telecommunication systems (CITS), pp 1–5
Liu G, Nguyen TT, Zhao G, Zha W, Yang J, Cao J, Wu M, Zhao P, Chen W (2016) Repeat buyer prediction for E-Commerce. In: The 22nd ACM SIGKDD international conference on knowledge discovery and data mining, pp 155–164
Tian Y, Ye Z, Yan Y, Sun M (2015) A practical model to predict the repeat purchasing pattern of consumers in the C2C e-commerce. Electron Commer Res 15:571–583
Zhang H, Li J, Ji Y, Yue H, Learning S (2017) Understanding by character-level. IEEE Trans Ind Inf 13:616–624
Cao J, Li W, Ma C, Tao Z (2018) Optimizing multi-sensor deployment via ensemble pruning for wearable activity recognition. Inf Fusion 41(5):68–79
Kurt S, őz E, Askin OE, őz YY (2018) Classification of nucleotide sequences for quality assessment using logistic regression and decision tree approaches. Neural Comput Appl 29(8):251–262
Pai P-F, ChangLiao L-H, Lin K-P (2017) Analyzing basketball games by a support vector machines with decision tree model. Neural Comput Appl 28(12):4159–4167
Hinton G, Vinyals O, Dean J (2015) Distilling the knowledge in a neural network. In: NIPS deep learning workshop
Friedman JH (2001) Greedy function approximation: a gradient boosting machine. Ann Stat 29(5):1189–1232
Goldstein A, Kapelner A, Bleich J, Pitkin E (2014) Peeking inside the black box: visualizing statistical learning with plots of individual conditional expectation. arXiv:1309.6392v2,
Apley DW (2016) Visualizing the effects of predictor variables in black box supervised learning models. arXiv:1612.08468
Che Z, Purushotham S, Khemani R, Liu Y (2016) Interpretable deep models for ICU outcome prediction. In: American medical informatics association (AMIA) annual symposium, pp 371–380
Tan S, Caruana R, Hooker G, Gordo A (2018) Transparent model distillation. arXiv:1801.08640
Tan S, Caruana R, Hooker G, Lou Y (2017) Detecting bias in black-box models using transparent model distillation. arXiv:1710.06169
Molnar C (2018) Interpretable machine learning. Retrieved from https://christophm.github.io/interpretable-ml-book/. Accessed 27 Aug 2019
Ribeiro MT, Singh S, Guestrin C (2016) “Why should I trust you?”: explaining the predictions of any classifier. In: Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining, pp 1135–1144
Kumar D, Taylor GW, Wong A (2017) Opening the black box of financial AI with CLEAR-trade: a CLass-enhanced attentive response approach for explaining and visualizing deep learning-driven stock market prediction. arXiv:1709.01574
Puri N, Gupta P, Agarwal P, Verma S, Krishnamurthy B (2018) MAGIX: model agnostic globally interpretable explanations. arXiv:1706.07160v3,
Bucilǎ C, Caruana R, Niculescu-Mizil A (2006) Compression model. KDD 06:20–23
Zagoruyko S, Komodakis N (2016) Paying more attention to attention: improving the performance of convolutional neural networks via attention transfer. arXiv:1612.03928
Uijlings J, Popov S, Ferrari V (2017) Revisiting knowledge transfer for training object class detectors. arXiv:1708.06128
Pham H, Guan MY, Zoph B, Le QV , Dean J (2018) Efficient neural architecture search via parameters sharing. arXiv:1802.03268
Frosst N, Hinton G (2017) Distilling a neural network into a soft decision tree. arXiv:1711.09784,
Li W, Hou J, Yin L (2015) A classifier fusion method based on classifier accuracy. In: IEEE international conference on mechatronics and control (ICMC)
Ruta D, Gabrys B (2000) An overview of classifier fusion methods. Comput Inf Syst 7(1):1–10
Haque MN, Noman MN, Berretta R, Moscato P (2016) Optimising weights for heterogeneous ensemble of classifiers with differential evolution. In: IEEE congress on evolutionary computation (CEC)
Riniker S, Fechner N, Landrum GA (2013) Heterogeneous classifier fusion for ligand-based virtual screening: or how decision making by committee can be a good thing. J Chem Inf Model 53(11):2829–2836
Bashir S, Qamar U, Khan FH (2015) Heterogeneous classifiers fusion for dynamic breast cancer diagnosis using weighted vote based ensemble. Qual Quant 49(5):2061–2076
Kang S, Cho S, Rhee S, Kyung-Sang Y (2017) Reliable prediction of anti-diabetic drug failure using a reject option. Pattern Anal Appl 20(3):883–891
Ludmila I (2004) Kuncheva, combining pattern classifiers. Wiley, Hoboken, pp 157–160
Breiman L, Friedman JH, Olshen RA, Stone CJ (1984) Classification and regression trees. Routledge, New York
https://tianchi.aliyun.com/dataset/dataDetail?dataId=42
https://github.com/Junren0716/Tmall-Repeated-buyers-prediction
Kingma DP, Ba J (2017) Adam: a method for stochastic optimization. ArXiv:1412.6980
Pedregosa F, Varoquaux G, Gramfort A et al (2011) Scikit-learn: machine learning in python. J Mach Learn Res 12:2825–2830
Breiman L (2001) Random forests. Mach Learn 45(1):5–32