Nội dung được dịch bởi AI, chỉ mang tính chất tham khảo
Phát hiện đối tượng chuyển động trong video chưa thấy qua phân tích thành phần chính (PCA) mạnh mẽ trọng số cắt và mạng nơ-ron tích chập nổi bật
Tóm tắt
Phát hiện đối tượng chuyển động là một công việc cơ bản và quan trọng trong phân tích video thông minh. Gần đây, nhiều phương pháp đã xuất hiện. Trong số đó, các phương pháp dựa trên học sâu đã đạt được những kết quả rất ấn tượng. Tuy nhiên, các phương pháp này dựa vào dữ liệu đã được chú thích đặc biệt để huấn luyện mô hình. Do đó, khả năng tổng quát của chúng yếu và chỉ có thể xử lý dữ liệu liên quan đến dữ liệu huấn luyện. Để giải quyết vấn đề này, bài báo đề xuất một phương pháp dựa trên Phân tích thành phần chính mạnh mẽ trọng số cắt và Mạng nơ-ron tích chập nổi bật. Không giống như các phương pháp học sâu khác, đầu vào của phương pháp được đề xuất không chứa thông tin cảnh vật. Phương pháp được đề xuất sử dụng thông tin nổi bật được lấy từ Phân tích thành phần chính mạnh mẽ trọng số cắt như là đầu vào. Điều này cải thiện khả năng tổng quát của phương pháp được đề xuất. Kết quả thực nghiệm cho thấy hiệu suất vượt trội của phương pháp được đề xuất cho video chưa thấy trên cơ sở dữ liệu CDNET 2014.
Từ khóa
#phát hiện đối tượng chuyển động #phân tích thành phần chính #học sâu #mạng nơ-ron tích chập #khả năng tổng quátTài liệu tham khảo
Barnich O, Van Droogenbroeck M (2009) Vibe: a powerful random technique to estimate the background in video sequences. In: 2009 IEEE international conference on acoustics, speech and signal processing. IEEE, pp 945–948
Bouwmans T, Javed S, Sultana M, Jung S K (2019) Deep neural network concepts for background subtraction: A systematic review and comparative evaluation. Neural Netw 117:8–66
Braham M, Van Droogenbroeck M (2016) Deep background subtraction with scene-specific convolutional neural networks. In: 2016 international conference on systems, signals and image processing (IWSSIP). IEEE, pp 1–4
Cao X, Yang L, Guo X (2016) Total variation regularized rpca for irregularly moving object detection under dynamic background. IEEE Trans Cybern 46(4):1014–1027. https://doi.org/10.1109/TCYB.2015.2419737
Ebadi S E, Izquierdo E (2018) Foreground segmentation with tree-structured sparse rpca. IEEE Trans Pattern Anal Mach Intell 40(9):2273–2280. https://doi.org/10.1109/TPAMI.2017.2745573
Elgammal A, Harwood D, Davis L (2000) Non-parametric model for background subtraction. In: European conference on computer vision. Springer, pp 751–767
Evangelio R H, Pätzold M, Sikora T (2012) Splitting gaussians in mixture models. In: 2012 IEEE Ninth international conference on advanced video and signal-based surveillance. IEEE, pp 300–305
Hofmann M, Tiefenbacher P, Rigoll G (2012) Background segmentation with feedback: The pixel-based adaptive segmenter. In: 2012 IEEE computer society conference on computer vision and pattern recognition workshops. IEEE, pp 38–43
Isik S, Özkan K, Günal S, Gerek O N (2018) Swcd: a sliding window and self-regulated learning-based background updating method for change detection in videos. J Electron Imaging 27(2):023002
Li Y, Liu G, Liu Q, Sun Y, Chen S (2019) Moving object detection via segmentation and saliency constrained rpca. Neurocomputing 323 (5):352–362
Liao J, Guo G, Yan Y, Wang H (2018) Multiscale cascaded scene-specific convolutional neural networks for background subtraction. In: Pacific Rim Conference on Multimedia. Springer, pp 524–533
Lim L A, K H Y (2018) Learning multi-scale features for foreground segmentation. Pattern Anal Applic 23:256–262
Lim L A, Keles H Y (2018) Foreground segmentation using convolutional neural networks for multiscale feature encoding. Pattern Recogn Lett 112:256–262
Rahmani M, Atia G K (2017) High dimensional low rank plus sparse matrix decomposition. IEEE Trans Signal Process 65(8):2004–2019
Sakkos D, Liu H, Han J, Shao L (2018) End-to-end video background subtraction with 3d convolutional neural networks. Multimed Tools Appl 77(17):23023–23041
Stauffer C, Grimson W E L (1999) Adaptive background mixture models for real-time tracking. In: Proceedings. 1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (Cat. No PR00149), vol 2. IEEE, pp 246–252
Sultana M, Mahmood A, Javed S, Jung S K (2019) Unsupervised deep context prediction for background estimation and foreground segmentation. Mach Vis Appl 30(3):375–395
Tezcan O, Ishwar P, Konrad J (2020) Bsuv-net: a fully-convolutional neural network for background subtraction of unseen videos. In: The IEEE Winter Conference on Applications of Computer Vision, pp 2774–2783
Wang Y, Luo Z, Jodoin P-M (2017) Interactive deep learning method for segmenting moving objects. Pattern Recogn Lett 96:66–75
Xiao X, Lian S, Luo Z, Li S (2018) Weighted res-unet for high-quality retina vessel segmentation. In: 2018 9th International Conference on Information Technology in Medicine and Education (ITME), pp 327–331
Zeng D, Zhu M (2018) Background subtraction using multiscale fully convolutional network. IEEE Access 6:16010–16021
