Phân đoạn tự động các tòa nhà từ LIDAR dựa trên DGCNN và phân cụm Euclid

Journal of Big Data - Tập 7 - Trang 1-18 - 2020
Ahmad Gamal1, Ari Wibisono2, Satrio Bagus Wicaksono2, Muhammad Alvin Abyan2, Nur Hamid2, Hanif Arif Wisesa2, Wisnu Jatmiko2, Ronny Ardhianto3
1Faculty of Engineering, Universitas Indonesia, UI Depok, Indonesia
2Faculty of Computer Science, Universitas Indonesia, Kampus UI Depok, Indonesia
3PT. Pangripta Geomatika Indonesia (UAV LiDAR Specialist), Jakarta, Indonesia

Tóm tắt

Sự nhu cầu mô hình hóa 3D từ các quan sát trên Trái Đất đang gia tăng, đặc biệt là cho mục đích quy hoạch và quản lý đô thị và khu vực. Kết quả của các quan sát 3D đã dần trở thành nguồn dữ liệu chính trong việc xác định chính sách và quy hoạch cơ sở hạ tầng. Trong nghiên cứu này, chúng tôi trình bày một phương pháp phân đoạn tự động các tòa nhà mà sử dụng trực tiếp dữ liệu LIDAR. Các công trình trước đây đã sử dụng phương pháp CNN để tự động phân đoạn các tòa nhà. Tuy nhiên, những công trình hiện có đã phụ thuộc nhiều vào việc chuyển đổi dữ liệu LIDAR thành các định dạng Mô Hình Địa Hình Số (DTM), Mô Hình Bề Mặt Số (DSM), hoặc Mô Hình Độ Cao Số (DEM). Các định dạng đó yêu cầu chuyển đổi dữ liệu LIDAR thành hình ảnh raster, điều này đặt ra thách thức trong việc đánh giá khối lượng các tòa nhà. Trong bài báo này, chúng tôi đã thu thập dữ liệu LIDAR bằng máy bay không người lái và trực tiếp phân đoạn các tòa nhà sử dụng dữ liệu LIDAR vừa nêu. Chúng tôi đã sử dụng thuật toán Mạng Nơ-ron Tích chập Đồ thị Động (DGCNN) để tách biệt các tòa nhà và thực vật. Sau đó, chúng tôi đã áp dụng Phân cụm Euclid để phân đoạn mỗi tòa nhà. Chúng tôi nhận thấy rằng sự kết hợp của những phương pháp này ưu việt hơn so với các công trình trước trong lĩnh vực này, với độ chính xác lên tới 95.57% và điểm số Giao ngay trên Liên (IOU) là 0.85.

Từ khóa

#phân đoạn tự động #LIDAR #DGCNN #phân cụm Euclid #quy hoạch đô thị

Tài liệu tham khảo

Rottensteiner, F., Trinder, J., Clode, S., Kubik, K., 2005. Using the Dempster–Shafer method for the fusion of LIDAR data and multi-spectral images for building detection. Information Fusion, Volume 6, Issue 4, December 2005, pp 283-300. Vosselman, G., 1999. Building reconstruction using planar faces in very high density height data. International Archives of Photogrammetry and Remote Sensing 32 (Part 2), 87–92. Sohn, G., Dowman, I., 2007. Data fusion of high-resolution satellite imagery and LiDAR data for automatic building extraction. ISPRS Journal of Photogrammetry & Remote Sensing 62 (2007) pp.43–63, 15 February 2007. S. M. Abdullah, M. Awrangjeb and Guojun Lu, “Automatic segmentation of LiDAR point cloud data at different height levels for 3D building extraction,” 2014 IEEE International Conference on Multimedia and Expo Workshops (ICMEW), Chengdu, 2014, pp. 1-6. Hao Z, Yongsheng Z, Jun L, Song J. Automatic building detection using airborne LIDAR data. Int Forum Inform Technol Appl. 2009;2009:668–71. Vosselman G. Fusion of laser scanning data, maps, and aerial photographs for building reconstruction. Toronto: International Geoscience and Remote Sensing Symposium; 2002. Vosselman G, Dijkman S. “3D building model reconstruction from point clouds and ground plans”, IAPRS, XXXIV-3/W4. US: Annapolis; 2001. I. Suveg, G. Vosselman, “3D building reconstruction by map based generation and evaluation of hypotheses,” 12th Proceedings of the British Machine Vision Conference, Manchester, UK, 2001. Haala Norbert, Brenner Claus. Extraction of buildings and trees in urban environments. ISPRS J Photogrammetry Remote Sensing. 1999;54:130–7. Baltisavias E. Object extraction and revision by image analysis using existing geodata and knowledge : current status and steps towards operational systems. ISPRS J Photogrammetry Remote Sensing. 2004;58:129–51. F. Tarsha-Kurdi, T. Landes, P. Grussenmeyer, et al., “New approach for automatic detection of building in airborne laser scanner data using first echo only,” IAPRS, vol. 36, part 3, pp. 25-30, 2006. Yang HL, Yuan J, Lunga D, Laverdiere M, Rose A, Bhaduri B. Building Extraction at Scale Using Convolutional Neural Network: mapping of the United States. IEEE J Selected Topics Applied Earth Observations Remote Sensing. 2018;11(8):2600–14. Nahhas, F. H., Shafri, H. Z., Sameen, M. I., Pradhan, B., & Mansor, S. (2018). Deep learning approach for building detection using lidar–orthophoto fusion. Journal of Sensors, 2018. Lafarge F, Descombes X, Zerubia J, Pierrot-Deseilligny M. Automatic building extraction from DEMs using an object approach and application to the 3D-city modeling. ISPRS J Photogrammetry Remote Sensing. 2008;63(3):365–81. Tomljenovic I, Höfle B, Tiede D, Blaschke T. Building extraction from airborne laser scanning data: an analysis of the state of the art. Remote Sensing. 2015;7(4):3826–62. Li Y, Wu H, An R, Xu H, He Q, Xu J. An improved building boundary extraction algorithm based on fusion of optical imagery and LiDAR data. Optik Int J Light Electron Optics. 2013;124(22):5357–62. Li H, Zhong C, Hu X, Xiao L, Huang X. New methodologies for precise building boundary extraction from LiDAR data and high resolution image. Sensor Review. 2013;33(2):157–65. V. Saeidi, B. Pradhan, M. O. Idrees, and Z. Abd Latif, “Fusion of airborne LiDAR with multispectral spot 5 image for enhancement of feature extraction using Dempster–Shafer theory,” IEEE Transactions on Geoscience and Remote Sensing, vol. 52, no. 10, pp. 6017–6025, 2014. . Awrangjeb M, Zhang C, Fraser CS. Building detection in complex scenes thorough effective separation of buildings from trees. Photogrammetric Eng Remote Sensing. 2012;78(7):729–45. R. Wang, Y. Hu, H. Wu, and J. Wang, “Automatic extraction of building boundaries using aerial LiDAR data,” Journal of Applied Remote Sensing, vol. 10, no. 1, article 016022, 2016. Ian Goodfellow, Yoshua Bengio, and Aaron Courville, Deep Learning, MIT Press, 2016, http://www.deeplearningbook.org. LeCun Yann, Bottou Leon, Bengio Yoshua, Haffner Patrick. Gradient-based learning applied to document recognition. Proc IEEE. 1998;86(11):2278–323. Karen Simonyan and Andrew Zisserman, “Very deep convolutional networks for large-scale image recognition,” in International Conference in Learning Representation, 2015, pp. 1–14. . C. Szegedy, Wei Liu, Yangqing Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, “Going deeper with convolutions,” in 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2015, pp. 1–9. Andrej Karpathy, George Toderici, Sanketh Shetty, Thomas Leung, Rahul Sukthankar, and Li Fei-Fei, “Large-scale video classification with convolutional neural networks,” in Proceedings of the IEEE conference on Computer Vision and Pattern Recognition, 2014, pp. 1725–1732. Maxime Oquab, Leon Bottou, Ivan Laptev, and Josef Sivic, “Learning and transferring mid-level image representations using convolutional neural networks,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2014, pp. 1717–1724. Tara N Sainath, Brian Kingsbury, George Saon, Hagen Soltau, Abdelrahman Mohamed, George Dahl, and Bhuvana Ramabhadran, “Deep convolutional neural networks for large-scale speech tasks,” Neural Networks, vol. 64, pp. 39–48, 2015. Karen Simonyan and Andrew Zisserman, “Very deep convolutional networks for large-scale image recognition,” Iclr, pp. 1–14, 2015. Shelhamer E, Long J, Darrell T. Fully convolutional networks for semantic segmentation. IEEE Trans Pattern Anal Mach Intell. 2017;39(4):640–51. van Noord Nanne, Postma Eric. Learning scale-variant and scaleinvariant features for deep image classification. Pattern Recogn. 2017;61:583–92. Jamie Sherrah, “Fully Convolutional Networks for Dense Semantic Labelling of High-Resolution Aerial Imagery,” arXiv, pp. 1–22, 2016. . Emmanuel Maggiori, Yuliya Tarabalka, Guillaume Charpiat, and Pierre Alliez, “Fully convolutional neural networks for remote sensing image classification,” IEEE Transactions on Geoscience and Remote Sensing, pp. 5071–5074, 2016. . Volpi Michele, Tuia Devis. Dense semantic labeling of subdecimeter resolution images with convolutional neural networks. IEEE Trans Geosci Remote Sens. 2017;55(2):881–93. Wang, Y., Sun, Y., Liu, Z., Sarma, S. E., Bronstein, M. M., & M.Solomon, J. (2018, January 24). Dynamic Graph CNN for Learning on Point Clouds. https://arxiv.org/pdf/1801.07829.pdf. Rusu, R. B. (2009). Semantic 3D Object Maps for Everyday Manipulation in Human Living Environments. München. Ramiya, Anandakumar M., Rama Rao Nidamanuri, and Ramakrishan Krishnan. “Segmentation based building detection approach from LiDAR point cloud.” The Egyptian Journal of Remote Sensing and Space Science 20.1 (2017): 71-77. Huang, Jianfeng, et al. “Automatic building extraction from high-resolution aerial images and LiDAR data using gated residual refinement network.” ISPRS journal of photogrammetry and remote sensing 151 (2019): 91-105. Pan, Xuran, et al. “Semantic labeling of high resolution aerial imagery and LiDAR data with fine segmentation network.” Remote Sensing 10.5 (2018): 743. Chen, Shanxiong, et al. “Automatic Building Extraction via Adaptive Iterative Segmentation With LiDAR Data and High Spatial Resolution Imagery Fusion.” IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing 13 (2020): 2081-2095. Laefer DF, Abuwarda S, Vo A-V, Truong-Hong L, Gharibi H. 2015 Aerial Laser and Photogrammetry Survey of Dublin City Collection Record. Center for Urban Science and Progress: New York University; 2015. R. M. Haralick and L. G. Shapiro, dalam Computer and Robot Vision, vol. I, Addison-Wesley, 1992, pp. 28-48.