Phát hiện đối tượng chuyển động trong video chưa thấy qua phân tích thành phần chính (PCA) mạnh mẽ trọng số cắt và mạng nơ-ron tích chập nổi bật

Multimedia Tools and Applications - Tập 81 - Trang 32779-32790 - 2022
Yang Li1
1School of IoT Engineering (School of Information Security), Jiangsu Vocational College Of Information Technology, Wuxi, China

Tóm tắt

Phát hiện đối tượng chuyển động là một công việc cơ bản và quan trọng trong phân tích video thông minh. Gần đây, nhiều phương pháp đã xuất hiện. Trong số đó, các phương pháp dựa trên học sâu đã đạt được những kết quả rất ấn tượng. Tuy nhiên, các phương pháp này dựa vào dữ liệu đã được chú thích đặc biệt để huấn luyện mô hình. Do đó, khả năng tổng quát của chúng yếu và chỉ có thể xử lý dữ liệu liên quan đến dữ liệu huấn luyện. Để giải quyết vấn đề này, bài báo đề xuất một phương pháp dựa trên Phân tích thành phần chính mạnh mẽ trọng số cắt và Mạng nơ-ron tích chập nổi bật. Không giống như các phương pháp học sâu khác, đầu vào của phương pháp được đề xuất không chứa thông tin cảnh vật. Phương pháp được đề xuất sử dụng thông tin nổi bật được lấy từ Phân tích thành phần chính mạnh mẽ trọng số cắt như là đầu vào. Điều này cải thiện khả năng tổng quát của phương pháp được đề xuất. Kết quả thực nghiệm cho thấy hiệu suất vượt trội của phương pháp được đề xuất cho video chưa thấy trên cơ sở dữ liệu CDNET 2014.

Từ khóa

#phát hiện đối tượng chuyển động #phân tích thành phần chính #học sâu #mạng nơ-ron tích chập #khả năng tổng quát

Tài liệu tham khảo

Barnich O, Van Droogenbroeck M (2009) Vibe: a powerful random technique to estimate the background in video sequences. In: 2009 IEEE international conference on acoustics, speech and signal processing. IEEE, pp 945–948 Bouwmans T, Javed S, Sultana M, Jung S K (2019) Deep neural network concepts for background subtraction: A systematic review and comparative evaluation. Neural Netw 117:8–66 Braham M, Van Droogenbroeck M (2016) Deep background subtraction with scene-specific convolutional neural networks. In: 2016 international conference on systems, signals and image processing (IWSSIP). IEEE, pp 1–4 Cao X, Yang L, Guo X (2016) Total variation regularized rpca for irregularly moving object detection under dynamic background. IEEE Trans Cybern 46(4):1014–1027. https://doi.org/10.1109/TCYB.2015.2419737 Ebadi S E, Izquierdo E (2018) Foreground segmentation with tree-structured sparse rpca. IEEE Trans Pattern Anal Mach Intell 40(9):2273–2280. https://doi.org/10.1109/TPAMI.2017.2745573 Elgammal A, Harwood D, Davis L (2000) Non-parametric model for background subtraction. In: European conference on computer vision. Springer, pp 751–767 Evangelio R H, Pätzold M, Sikora T (2012) Splitting gaussians in mixture models. In: 2012 IEEE Ninth international conference on advanced video and signal-based surveillance. IEEE, pp 300–305 Hofmann M, Tiefenbacher P, Rigoll G (2012) Background segmentation with feedback: The pixel-based adaptive segmenter. In: 2012 IEEE computer society conference on computer vision and pattern recognition workshops. IEEE, pp 38–43 Isik S, Özkan K, Günal S, Gerek O N (2018) Swcd: a sliding window and self-regulated learning-based background updating method for change detection in videos. J Electron Imaging 27(2):023002 Li Y, Liu G, Liu Q, Sun Y, Chen S (2019) Moving object detection via segmentation and saliency constrained rpca. Neurocomputing 323 (5):352–362 Liao J, Guo G, Yan Y, Wang H (2018) Multiscale cascaded scene-specific convolutional neural networks for background subtraction. In: Pacific Rim Conference on Multimedia. Springer, pp 524–533 Lim L A, K H Y (2018) Learning multi-scale features for foreground segmentation. Pattern Anal Applic 23:256–262 Lim L A, Keles H Y (2018) Foreground segmentation using convolutional neural networks for multiscale feature encoding. Pattern Recogn Lett 112:256–262 Rahmani M, Atia G K (2017) High dimensional low rank plus sparse matrix decomposition. IEEE Trans Signal Process 65(8):2004–2019 Sakkos D, Liu H, Han J, Shao L (2018) End-to-end video background subtraction with 3d convolutional neural networks. Multimed Tools Appl 77(17):23023–23041 Stauffer C, Grimson W E L (1999) Adaptive background mixture models for real-time tracking. In: Proceedings. 1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (Cat. No PR00149), vol 2. IEEE, pp 246–252 Sultana M, Mahmood A, Javed S, Jung S K (2019) Unsupervised deep context prediction for background estimation and foreground segmentation. Mach Vis Appl 30(3):375–395 Tezcan O, Ishwar P, Konrad J (2020) Bsuv-net: a fully-convolutional neural network for background subtraction of unseen videos. In: The IEEE Winter Conference on Applications of Computer Vision, pp 2774–2783 Wang Y, Luo Z, Jodoin P-M (2017) Interactive deep learning method for segmenting moving objects. Pattern Recogn Lett 96:66–75 Xiao X, Lian S, Luo Z, Li S (2018) Weighted res-unet for high-quality retina vessel segmentation. In: 2018 9th International Conference on Information Technology in Medicine and Education (ITME), pp 327–331 Zeng D, Zhu M (2018) Background subtraction using multiscale fully convolutional network. IEEE Access 6:16010–16021