Nội dung được dịch bởi AI, chỉ mang tính chất tham khảo
Phát hiện cháy rừng dọc theo đường dây truyền tải bằng các đặc trưng sâu trong thời gian và không gian
Tóm tắt
Các phương pháp phát hiện cháy rừng truyền thống có hiệu quả thấp và không đáp ứng được nhu cầu của người dùng, bài báo này đề xuất một phương pháp mới dựa trên các đặc điểm sâu về thời gian và không gian dọc theo đường dây truyền tải, sử dụng thuật toán ViBe để phát hiện sự chuyển động trong video, và trích xuất các đặc trưng sâu tĩnh trong miền không gian và các đặc trưng quang động lực trong miền thời gian một cách riêng biệt. Cuối cùng, mô hình mạng nơ-ron tích chập sâu được sử dụng để phân loại và xác định các khu vực cháy rừng thực sự. Bằng cách sử dụng các đặc trưng sâu kết hợp được trích xuất từ miền thời gian động và miền không gian tĩnh, phương pháp của chúng tôi có thể loại bỏ sự nhiễu từ các chuyển động của các đối tượng khác có màu sắc tương tự.
Từ khóa
#phát hiện cháy rừng #đường dây truyền tải #thuật toán ViBe #mạng nơ-ron tích chập #đặc trưng sâuTài liệu tham khảo
L.P. Ye, X.–Y. Chen, Z.–L. He, C.–Z. Xie, J.–H Huang, Y–F. Xia, and D. Dai, “Present situation of forest fire early warning technology used for transmission line,” Power Syst. Prot. Control 42 (6), 145–153 (2014) [in Chinese].
T.–H. Chen, P.–H. Wu, and Y.–C. Chiou, “An early fire–detection method based on image processing,” in Proc. 2004 IEEE Int. Conf. on Image Processing (Singapore, 2004), pp. 1707–1710.
Q.–T. Gen, F.–H. Yu, H.–W. Zhao, and C. Wang, “New algorithm of flame detection based on color features,” J. Jilin Univ. 44 (6), 1787–1792 (2014) [in Chinese].
B. U. Toreyin, T. Dedeoglu, and A. E. Çetin, “Flame detection in video using hidden Markov models,” in Proc. 2005 IEEE Int. Conf. on Image Processing (Genova, Italy, 2005), pp. 1230–1233.
G. Marbach, M. Loepfe, and T. Brupbacher, “An image processing technique for fire detection in video images,” Fire Saf. J. 41 (4), 285–289 (2006).
Y.–J. Yang, J. Xue, H.–H. Qiao, and Y. Liu, “Research of fire flame detection method in video image based on multi–features matching,” Electr. Design Engi. 3 (2), 186–189 (2014) [in Chinese].
T. Schultze, T. Kempka, and L. Willms, “Audio–video fire–detection of open fires,” Fire Saf. J. 41 (4), 311–314 (2006).
B. U. Toreyin, R. G. Cinbis, Y. Dedeoglu, et al., “Fire detection in infrared video using wavelet analysis,” Opt. Eng., 46 (6), 067204–067204–9 (2007).
Y. H. Habiboğlu, O. Günay, and A. E. Çetin, “Covariance matrix–based fire and flame detection method in video,” Mach. Vis. Appl. 23 (6), 1103–1113 (2012).
B. C. Ko, K. H. Cheong, and J. Y. Nam, “Early fire detection algorithm based on irregular patterns of flames and hierarchical Bayesian Networks,” Fire Saf. J. 45 (4), 262–270 (2010).
O. Barnich and M. Van Droogenbroeck. “ViBe: A universal background subtraction algorithm for video sequences,” IEEE Trans. Image Process. 20 (6), 1709–1724 (2011).
K. Simonyan and A. Zisserman, “Two–stream convolutional cetworks for action recognition in videos,” in Advances in Neural Information Processing Systems 27: Proc. Annual Conf. NIPS 2014 (Montreal, Canada, 2014), pp. 568–576.
L. Wang, Y. Qiao, and X. Tang. “Action recognition with trajectory–pooled deep–convolutional descriptors,” in Proc. 2015 IEEE Conf. on Computer Vision and Pattern Recognition (CVPR) (Boston, MA, 2015), pp. 4305–4314.
D. Laptev, N. Savinov, J. M. Buhmann, and M. Pollefeys, “TI–POOLING: Transformation–Invariant Pooling for feature learning in convolutional neural tetworks,” in Proc. 2016 IEEE Conf. on Computer Vision and Pattern Recognition (CVPR) (Las Vegas, NV, 2016), pp. 289–297.
D. Xie, R.–F. Tong, M. Tang, and Y. Feng, “Distinguishable method for video fire detection,” J. Zhejiang Univ. 46 (4), 698–704 (2012) [in Chinese].
http://signal.ee.bilkent.edu.tr/VisiFire/Demo/Sample–Clips.html
http://www.ultimatechase.com/Fire_Video.htm
Y. H. Habiboglu and O. Gunay. “Covariance matrixbased fire and flame detection method in video,” Mach. Vis. Appl. 23 (6), 1103–1113 (2012).