Nội dung được dịch bởi AI, chỉ mang tính chất tham khảo
Phân loại hình ảnh dựa trên học sâu sử dụng hình ảnh UAV cho phân loại khu vực rừng
Tóm tắt
Việc ứng dụng cảm biến từ xa dựa trên phương tiện bay không người lái (UAV) đang gia tăng nhanh chóng nhờ vào khả năng tiếp cận tiên tiến, khả năng triển khai nhanh chóng và dễ dàng, khả năng thu nhỏ các cảm biến và thu thập dữ liệu từ xa một cách hiệu quả từ độ cao tương đối thấp. Gần đây, các tập dữ liệu từ UAV đã được chứng minh là rất hữu ích trong việc xác định các đặc điểm rừng nhờ vào độ phân giải không gian tương đối cao của chúng. Một số thuật toán học máy đã được sử dụng rộng rãi để phân loại hình ảnh từ xa. Trong phân loại hình ảnh từ xa, các phương pháp dựa trên học sâu có thể được coi là những kỹ thuật khá hiệu quả khi chúng đã đạt được những kết quả đầy hứa hẹn. Trong nghiên cứu này, chúng tôi đã sử dụng thuật toán phân loại hình ảnh có giám sát dựa trên học sâu và hình ảnh thu được thông qua UAV để phân loại các khu vực rừng. Thuật toán học sâu Auto-encoder chồng chất đã cho thấy tiềm năng to lớn trong việc phân loại hình ảnh và đánh giá diện tích rừng che phủ. Kết quả thí nghiệm của chúng tôi cho thấy phương pháp học sâu cung cấp độ chính xác tốt hơn so với các thuật toán học máy khác. Kiểm định chéo cho thấy độ chính xác tổng thể của phương pháp học sâu đạt khoảng 93%. Nghiên cứu này nhấn mạnh vai trò thiết yếu của việc quan sát từ UAV và học sâu trong việc lập kế hoạch và quản lý các khu vực rừng, nơi thường xuyên đối mặt với nguy cơ mất rừng và xâm lấn rừng.
Từ khóa
#UAV #cảm biến từ xa #học sâu #phân loại hình ảnh #khu vực rừng #Auto-encoderTài liệu tham khảo
Ammour, N., Alhichri, H., Bazi, Y., Benjdira, B., Alajlan, N., & Zuair, M. (2017). Deep learning approach for car detection in UAV imagery. Remote Sensing. https://doi.org/10.3390/rs9040312
Bashmal, L., Bazi, Y., AlHichri, H., AlRahhal, M. M., Ammour, N., & Alajlan, N. (2018). Siamese-GAN: Learning invariant representations for aerial vehicle image categorization. Remote Sensing. https://doi.org/10.3390/rs10020351
Congalton, R. G., & Green, K. (2009). Assessing the accuracy of remotely sensed data: Principles and practices. The Photogrammetric Record. https://doi.org/10.1111/j.1477-9730.2010.00574_2.x
Dalponte, M., Bruzzone, L., & Gianelle, D. (2008). Fusion of hyperspectral and LIDAR remote sensing data for classification of complex forest areas. IEEE Transactions on Geoscience and Remote Sensing. https://doi.org/10.1109/TGRS.2008.916480
Farabet, C., Couprie, C., Najman, L., & Lecun, Y. (2013). Learning hierarchical features for scene labeling. IEEE Transactions on Pattern Analysis and Machine Intelligence. https://doi.org/10.1109/TPAMI.2012.231
Feng, Q., Liu, J., & Gong, J. (2015). UAV Remote sensing for urban vegetation mapping using random forest and texture analysis. Remote Sensing. https://doi.org/10.3390/rs70101074
Franklin, S. E., & Ahmed, O. S. (2018). Deciduous tree species classification using object-based analysis and machine learning with unmanned aerial vehicle multispectral data. International Journal of Remote Sensing. https://doi.org/10.1080/01431161.2017.1363442
Haq, M. A., Jain, K., & Menon, K. P. R. (2014). Modelling of Gangotri glacier thickness and volume using an artificial neural network. International Journal of Remote Sensing. https://doi.org/10.1080/01431161.2014.943322
Hecht-Nielsen, R. (1988). Theory of the backpropagation neural network. Neural Networks. https://doi.org/10.1016/0893-6080(88)90469-8
Hinton, G. E., Osindero, S., & Teh, Y. W. (2006). A fast learning algorithm for deep belief nets. Neural Computation. https://doi.org/10.1162/neco.2006.18.7.1527
Hu, F., Xia, G. S., Hu, J., & Zhang, L. (2015). Transferring deep convolutional neural networks for the scene classification of high-resolution remote sensing imagery. Remote Sensing. https://doi.org/10.3390/rs71114680
Jain, K. (2019). Forests and mountains dataset for Nagli area (Haryana).
Lecun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature. https://doi.org/10.1038/nature14539
Lee, H., Pham, P., Largman, Y., & Ng, A. (2009). Unsupervised feature learning for audio classification using convolutional deep belief networks. NIPS, Proc. of Advances in Neural Information Processing Systems. https://doi.org/10.1145/1553374.1553453
Li, W., Fu, H., Yu, L., Gong, P., Feng, D., Li, C., & Clinton, N. (2016). Stacked Autoencoder-based deep learning for remote-sensing image classification: A case study of African land-cover mapping. International Journal of Remote Sensing. https://doi.org/10.1080/01431161.2016.1246775
Liu, T., Abd-Elrahman, A., Morton, J., & Wilhelm, V. L. (2018). Comparing fully convolutional networks, random forest, support vector machine, and patch-based deep convolutional neural networks for object-based wetland mapping using images from small unmanned aircraft system. GIScience and Remote Sensing. https://doi.org/10.1080/15481603.2018.1426091
Masci, J., Meier, U., Cireşan, D., & Schmidhuber, J. (2011). Stacked convolutional auto-encoders for hierarchical feature extraction. Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics). https://doi.org/10.1007/978-3-642-21735-7_7
Matese, A., Toscano, P., Di Gennaro, S. F., Genesio, L., Vaccari, F. P., Primicerio, J., et al. (2015). Intercomparison of UAV, aircraft and satellite remote sensing platforms for precision viticulture. Remote Sensing. https://doi.org/10.3390/rs70302971
Maurer, M., Hofer, M., Fraundorfer, F., & Bischof, H. (2017). Automated inspection of power line corridors to measure vegetation undercut using UAV-based images. ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences. https://doi.org/10.5194/isprs-annals-IV-2-W3-33-2017
Mikolov, T., Karafiat, M., Burget, L., Cernocky, J., & Khudanpur, S. (2010). Recurrent neural network based language model. Proceedings of INTERSPEECH.
Parkhi, O. M., Vedaldi, A., Zisserman, A. (2015). Deep face recognition. doi:10.5244/c.29.41.
Qiu, Z., Zhuang, Y., Hu, H., & Wang, W. (2017). Using stacked sparse Auto-encoder and superpixel CRF for long-term visual scene understanding of UGVs. IEEE Transactions on Systems, Man, and Cybernetics: Systems. https://doi.org/10.1109/TSMC.2017.2735635
Reese, H., Nilsson, M., Sandström, P., & Olsson, H. (2003). Applications using estimates of forest parameters derived from satellite and forest inventory data. Computers and Electronics in Agriculture. https://doi.org/10.1016/S0168-1699(02)00118-7
Shen, D., Wu, G., & Suk, H.-I. (2017). Deep learning in medical image analysis. Annual Review of Biomedical Engineering. https://doi.org/10.1146/annurev-bioeng-071516-044442
Story, M., & Congalton, R. G. (1986). Accuracy assessment: a user’s perspective. Photogrammetric Engineering & Remote Sensing. https://doi.org/10.1111/j.1530-9290.2010.00257.x
Torresan, C., Berton, A., Carotenuto, F., Di Gennaro, S. F., Gioli, B., Matese, A., et al. (2017). Forestry applications of UAVs in Europe: A review. International Journal of Remote Sensing. https://doi.org/10.1080/01431161.2016.1252477
Vincent, P., Larochelle, H., Lajoie, I., Bengio, Y., & Manzagol, P.-A. (2010). Stacked denoising autoencoders: learning useful representations in a deep network with a local denoising criterion. Journal of Machine Learning Research. https://doi.org/10.1111/1467-8535.00290
Zabalza, J., Ren, J., Zheng, J., Zhao, H., Qing, C., Yang, Z., et al. (2016). Novel segmented stacked autoencoder for effective dimensionality reduction and feature extraction in hyperspectral imaging. Neurocomputing. https://doi.org/10.1016/j.neucom.2015.11.044
Zhang, P., Gong, M., Su, L., Liu, J., & Li, Z. (2016). Change detection based on deep feature representation and mapping transformation for multi-spatial-resolution remote sensing images. ISPRS Journal of Photogrammetry and Remote Sensing. https://doi.org/10.1016/j.isprsjprs.2016.02.013
Zhu, X. X., Tuia, D., Mou, L., Xia, G. S., Zhang, L., Xu, F., & Fraundorfer, F. (2017). Deep learning in remote sensing: A comprehensive review and list of resources. IEEE Geoscience and Remote Sensing Magazine. https://doi.org/10.1109/MGRS.2017.2762307
