Nội dung được dịch bởi AI, chỉ mang tính chất tham khảo
Tái cấu trúc năng lượng cho các detector scintillator lỏng quy mô lớn bằng các kỹ thuật học máy: tiếp cận các đặc trưng tổng hợp
Tóm tắt
Các detector quy mô lớn bao gồm một mục tiêu scintillator lỏng được bao quanh bởi một mảng các ống photon đa cực (PMT) được sử dụng rộng rãi trong các thí nghiệm neutrino hiện đại: Borexino, KamLAND, Daya Bay, Double Chooz, RENO, và JUNO sắp tới cùng với detector vệ tinh TAO. Các thiết bị như vậy có khả năng đo năng lượng neutrino, có thể được suy ra từ lượng ánh sáng và sự phân bố không gian cũng như thời gian của nó trên các kênh PMT. Tuy nhiên, việc đạt được độ phân giải năng lượng tốt trong các detector quy mô lớn là một thách thức. Trong công trình này, chúng tôi trình bày các phương pháp học máy để tái cấu trúc năng lượng trong detector JUNO, loại tiên tiến nhất hiện nay. Chúng tôi tập trung vào các sự kiện positron trong khoảng năng lượng 0–10 MeV, tương ứng với tín hiệu chính trong JUNO – neutrino phát sinh từ các lõi lò phản ứng hạt nhân và được phát hiện qua kênh phân rã beta đảo ngược. Chúng tôi xem xét các mô hình sau: Cây Quyết Định Tăng Cường và Mạng Nơ-ron Sâu Kết Nối Hoàn Toàn, được đào tạo trên các đặc trưng tổng hợp, tính toán bằng cách sử dụng thông tin thu thập từ các PMT. Chúng tôi mô tả chi tiết quy trình kỹ thuật đặc trưng của mình và cho thấy rằng các mô hình học máy có thể cung cấp độ phân giải năng lượng $$\sigma = 3\%$$ tại 1 MeV bằng cách sử dụng các tập con của các đặc trưng đã được kỹ thuật hóa. Dữ liệu cho việc huấn luyện và thử nghiệm mô hình được tạo ra bằng phương pháp Monte Carlo với phần mềm chính thức của JUNO.
Từ khóa
#neutrino #detector scintillator lỏng #học máy #tái cấu trúc năng lượng #Cây Quyết Định Tăng Cường #Mạng Nơ-ron Sâu #JUNOTài liệu tham khảo
X. Guo et al. [Borexino Collaboration], Science and technology of Borexino: a real-time detector for low energy solar neutrinos. Astropart. Phys. 16(3), 205–234 (2002). https://doi.org/10.1016/S0927-6505(01)00110-4
K. Eguchi et al. [KamLAND Collaboration], First results from KamLAND: evidence for reactor anti-neutrino disappearance. Phys. Rev. Lett. 90, 021802 (2003). https://doi.org/10.1103/PhysRevLett.90.021802
F.P. An et al. [Daya Bay Collaboration], Observation of electron-antineutrino disappearance at Daya Bay. Phys. Rev. Lett. 108, 171803 (2012). https://doi.org/10.1103/PhysRevLett.108.171803
Y. Abe et al. [Double Chooz Collaboration], Indication of reactor \({\bar{\nu }}_e\) disappearance in the double Chooz experiment. Phys. Rev. Lett. 108, 131801 (2012). https://doi.org/10.1103/PhysRevLett.108.131801
J.K. Ahn et al. [RENO Collaboration], Observation of reactor electron antineutrino disappearance in the RENO experiment. Phys. Rev. Lett. 108, 191802 (2012). https://doi.org/10.1103/PhysRevLett.108.191802
F. An et al. [JUNO Collaboration], Neutrino physics with JUNO. J. Phys. G 43(3), 030401 (2016). https://doi.org/10.1088/0954-3899/43/3/030401
A. Abusleme et al. [JUNO Collaboration], JUNO physics and detector. Prog. Part. Nucl. Phys. 123, 103927 (2022). https://doi.org/10.1016/j.ppnp.2021.103927
M. He et al. [JUNO Collaboration], Sub-percent precision measurement of neutrino oscillation parameters with JUNO. Chin. Phys. C. https://doi.org/10.1088/1674-1137/ac8bc9
D. Bourilkov, Machine and deep learning applications in particle physics. Int. J. Mod. Phys. A 34(35), 1930019 (2020). https://doi.org/10.1142/S0217751X19300199
M.D. Schwartz, Modern machine learning and particle physics. Harvard Data Sci. Rev. (2021). https://doi.org/10.1162/99608f92.beeb1183
D. Guest, K. Cranmer, D. Whiteson, Deep learning and its application to LHC physics. Annu. Rev. Nucl. Part. Sci. 68, 161–181 (2018). https://doi.org/10.1146/annurev-nucl-101917-021019
HEP ML Community. A living review of machine learning for particle physics. https://iml-wg.github.io/HEPML-LivingReview/
Z. Qian, V. Belavin, V. Bokov et al., Vertex and energy reconstruction in JUNO with machine learning methods. Nucl. Instrum. Meth. A 1010, 165527 (2021). https://doi.org/10.1016/j.nima.2021.165527
A. Gavrikov, F. Ratnikov, The use of boosted decision trees for energy reconstruction in JUNO experiment. EPJ Web Conf. 251, 03014 (2021). https://doi.org/10.1051/epjconf/202125103014
Z. Li, Y. Zhang, G. Cao et al., Event vertex and time reconstruction in large-volume liquid scintillator detectors. Nucl. Sci. Tech. 32, 49 (2021). https://doi.org/10.1007/s41365-021-00885-z
Z.Y. Li, Z. Qian, J.H. He et al., Improvement of machine learning-based vertex reconstruction for large liquid scintillator detectors with multiple types of PMTs. Nucl. Sci. Tech. 33, 93 (2022). https://doi.org/10.1007/s41365-022-01078-y
A. Abusleme et al. [JUNO Collaboration], Calibration strategy of the JUNO experiment. JHEP 03, 004 (2021). https://doi.org/10.1007/JHEP03(2021)004
X. Huang et al., Offline data processing software for the JUNO experiment, PoS ICHEP2016, 1051 (2017). https://doi.org/10.22323/1.282.1051
T. Lin et al., The application of SNiPER to the JUNO simulation. J. Phys. Conf. Ser. 898(4), 042029 (2017). https://doi.org/10.1088/1742-6596/898/4/042029
T. Lin et al., Parallelized JUNO simulation software based on SNiPER. J. Phys. Conf. Ser. 1085(3), 032048 (2018). https://doi.org/10.1088/1742-6596/1085/3/032048
S. Agostinelli et al. [GEANT4 Collaboration], GEANT4—a simulation toolkit. Nucl. Instrum. Meth. A 506, 250–303 (2003). https://doi.org/10.1016/S0168-9002(03)01368-8
J. Allison, J. Apostolakis, S.B. Lee et al., Recent developments in Geant4. J. Nucl. Instrum. Meth. A 835, 186–225 (2016). https://doi.org/10.1016/j.nima.2016.06.125
K. Li, Z. You, Y. Zhang et al., GDML based geometry management system for offline software in JUNO. Nucl. Instrum. Meth. A 908, 43–48 (2018). https://doi.org/10.1016/j.nima.2018.08.008
A. Abusleme, T. Adam, S. Ahmad et al. [JUNO Collaboration], Mass testing and characterization of 20-inch PMTs for JUNO. arXiv:2205.08629
A. Coates, A. Ng, H. Lee, An analysis of single-layer networks in unsupervised feature learning, Proceedings of the fourteenth international conference on artificial intelligence and statistics. PMLR 15, 215–223 (2011). http://proceedings.mlr.press/v15/coates11a
J. Heaton, An empirical analysis of feature engineering for predictive modeling, SoutheastCon, IEEE, 1–6 (2016). https://doi.org/10.1109/SECON.2016.7506650
J. Friedman, Stochastic gradient boosting. Comput. Stat. Data Anal. 38(4), 367–378 (2002). https://doi.org/10.1016/S0167-9473(01)00065-2
J. Friedman, Greedy function approximation: a gradient boosting machine. Ann. Stat. 29(5), 1189–1232 (2001). https://doi.org/10.1214/aos/1013203451
J. Quinlan, Simplifying decision trees. Int. J. Man-Mach. Stud. 27(3), 221–234 (1987). https://doi.org/10.1016/S0020-7373(87)80053-6
Y. Freund, R.E. Schapire, A decision-theoretic generalization of on-line learning and an application to boosting. J. Comput. Syst. Sci. 55(1), 119–139 (1997). https://doi.org/10.1006/jcss.1997.1504
V. Borisov et al., Deep neural networks and tabular data: a survey (2021). arXiv:2110.01889
T. Chen, C. Guestrin, Xgboost: a scalable tree boosting system. In: Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp. 785–794 (2016). https://doi.org/10.1145/2939672.2939785
F. Pedregosa et al., Scikit-learn: machine learning in Python. J. Mach. Learn. Res. 12, 2825–2830 (2011). https://doi.org/10.5555/1953048.2078195
A. Apicella et al., A survey on modern trainable activation functions. Neural Netw. 138, 14–32 (2021). https://doi.org/10.1016/j.neunet.2021.01.026
J. Lederer, Activation functions in artificial neural networks: a systematic overview (2021). arXiv:2101.09957
T. O’Malley et al., KerasTuner (2019). https://github.com/keras-team/keras-tuner/
A. Martin et al., TensorFlow: large-scale machine learning on heterogeneous systems (2015). https://www.tensorflow.org/
N. Vinod, G. Hinton, Rectified linear units improve restricted Boltzmann machines. In: Proceedings of the 27th International Conference on Machine Learning, pp. 807–814 (2010). https://doi.org/10.5555/3104322.3104425
D.A. Clevert, T. Unterthiner, S. Hochreiter, Fast and accurate deep network learning by exponential linear units (ELUs) (2015). arXiv:1511.07289
G. Klambauer, T. Unterthiner, A. Mayr, S. Hochreiter, Self-normalizing neural networks. In: Proceedings of the 31st International Conference on Neural Information Processing Systems, pp. 972–981 (2017). https://doi.org/10.5555/3294771.3294864
D. Kingma, J. Ba, Adam: a method for stochastic optimization, 3nd ICLR (2015). arXiv:1412.6980
S. Ruder, An overview of gradient descent optimization algorithms (2016). arXiv:1609.04747
Z. Li, S. Arora, An exponential learning rate schedule for deep learning (2019). arXiv:1910.07454
A. Baranov, N. Balashov, N. Kutovskiy, R. Semenov, JINR cloud infrastructure evolution. Phys. Part. Nucl. Lett. 13(5), 672–675 (2016). https://doi.org/10.1134/S1547477116050071