Theo dõi và phân đoạn sử dụng min-cut với hình dạng tiên quyết liên tiếp

Paladyn - Tập 1 - Trang 73-79 - 2010
Junqiu Wang1, Yasushi Yagi1
1The Institute of Scientific and Industrial Research, Osaka University, Ibaraki, Osaka, Japan

Tóm tắt

Theo dõi và phân đoạn có một loạt ứng dụng rộng rãi như cảm biến thông minh của robot, tương tác người-máy và giám sát video. Tuy nhiên, theo dõi và phân đoạn gặp nhiều thách thức vì nhiều lý do, chẳng hạn như hình dạng đối tượng phức tạp và nền lộn xộn. Chúng tôi đề xuất một thuật toán theo dõi và phân đoạn sử dụng các hình dạng tiên quyết theo cách liên tiếp. Chúng tôi phát hiện ra rằng thông tin hình dạng thu được bằng cách sử dụng thuật toán Min-Cut có thể được áp dụng để phân đoạn các khung hình liên tiếp. Trong thuật toán của chúng tôi, việc theo dõi và phân đoạn được thực hiện một cách liên tiếp. Chúng tôi sử dụng một bộ theo dõi thích ứng mà sử dụng các đặc trưng về màu sắc và hình dạng. Đối tượng được mô hình dựa trên các đặc trưng phân biệt được chọn bằng phân tích tương phản giữa tiền cảnh và hậu cảnh. Theo dõi cung cấp chuyển động tổng thể của đối tượng cho mô-đun phân đoạn. Dựa trên chuyển động tổng thể, chúng tôi phân đoạn đối tượng ra bằng cách sử dụng thuật toán min-cut hiệu quả. Các Trường Ngẫu Nhiên Markov, là nền tảng của thuật toán min-cut, cung cấp các tiên quyết kém cho các hình dạng cụ thể. Do đó cần thiết phải nhúng hình dạng tiên quyết vào thuật toán min-cut để đạt được kết quả phân đoạn hợp lý. Các hình dạng đối tượng thu được bằng phân đoạn được sử dụng làm hình dạng tiên quyết để cải thiện việc phân đoạn trong khung hình tiếp theo. Chúng tôi đã xác minh cách tiếp cận được đề xuất và có kết quả tích cực trên các dãy video đầy thách thức.

Từ khóa

#theo dõi #phân đoạn #hình dạng tiên quyết #thuật toán min-cut #ngẫu nhiên Markov

Tài liệu tham khảo

A. Boregefors. “Distance transformations in digital images”, Computer Vision, Graphics and Image Processing, Vol. 34(3), pp. 344–371, 1986. Y. Boykov and M-P. Jolly. “Interactive graph cuts for optimal boundary and region segmentation of objects in n-d images,” in Proc. of Int’l Conf. on Computer Vision, pp. 105–112, 2001. G.R. Bradski, “Computer Vision Face Tracking as a Component of a Perceptural User Interface,” in Proc. of the IEEE Workshop Applications of Computer Vision, pp. 214–219, 1998. R. T. Collins, “Mean-shift Blob Tracking through Scale Space,” in Proc. of the IEEE Conf. on Computer Vision and Pattern Recognition, pp. 234–240, 2003. R. T. Collins and Y. Liu, “On-line Selection of Discriminative Tracking Features,” in IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. 27, No. 10, October 2005. D. Comaniciu, V. Ramesh, and P. Meer, “Kernel-based Object Tracking,” IEEE Trans. Pattern Analysis Machine Intelligence, vol. 25, no. 5, pp. 564–577, 2003. D. Freedman and T. Zhang. “Interactive graph cut based segmentation with shape priors,” in Proc. of IEEE Conf. on Computer Vision and Patten recognition, pp. 755–762, 2004. S. Geman and D. Geman. “Stochastic relaxation, Gibbs distributions, and the Bayesian restoration of images.” IEEE Transactions on Pattern Analysis and Machine Intelligence, 6:721C741, 1984. D. Greig, B. Porteous, and A. Seheult. “Exact maximum a posteriori estimation for binary images”. Journal of the Royal Statistical Society, Series B, 51(2):271C279, 1989. V. Kolmogorov and R. Zabih, “Multi-camera Scene Reconstruction via Graph Cuts”, in Proc. the 7th European Conference on Computer Vision (ECCV 02), May, 2002. D. G. Lowe. Distinctive image features from scale-invariant key-points. International Journal of Computer Vision, vol. 60, no. 2, pp. 91–110, 2004. C. Rother, V. Kolmogorov, and A. Blake, GrabCut -Interactive Foreground Extraction using Iterated Graph Cuts, ACM Transactions on Graphics (SIGGRAPH), August 2004. A. Rowe, C. Rosenberg, and I. Nourbakhsh, “A second generation low cost embedded color vision system,” in Workshop in Proc. of the IEEE Conf. on Computer Vision and Pattern Recognition (CVPRW’05), pp. 136, 2005. C. Stauffer and E. Grimson, “Learning pattern of activity using real-time tracking,” IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 22, no. 8, pp. 747–757, 2000. H. Tao, H. S. Sayhney, and R. Kumar, “Dynamic Layer Representation with Applications to Tracking,” in Proc. of the IEEE Conf. on Computer Vision and Patter Recognition, vol. 2, pp. 134–141, 2000. J. Wang and Y. Yagi. “Integrating shape and color features for adaptive real-time object tracking”, 2006 IEEE Int’l Conf. on Robotics and Biomimetics, 2006. J. Wang and Y. Yagi. “Consecutive tracking and segmentation using graph-cut”, 2007 IEEE Int’l Conf. on Robotics and Biomimetics, 2007. [18] J.Wang and Y. Yagi. Integrating Color and Shape-texture Features for Adaptive Real-time Tracking, IEEE Trans. on Image Processing, 17(2): 235–240, (2008). [19] J.Wang, Y. Makihara, and Y. Yagi. “People Tracking and Segmentation Using Spatiotemporal Shape Constraints”, In Proc. of 1st ACM International Workshop on Vision Networks for Behaviour Analysis, Vancouver, Canada, Oct. 31, 2008. Z. Zivkovic and B. J. A. Krose, “An EM-Like Algorithm for Color-Histogram-Based Object Tracking,” in Proc. of the IEEE Conf. on Computer Vision and Patter Recognition, pp. 798–803, 2005.