Nhận diện hình dạng 3-D của các đối tượng mục tiêu trong công việc thu hồi đống đổ nát do robot cứu hộ thực hiện

Artificial Life and Robotics - Tập 25 - Trang 94-99 - 2019
Masatoshi Hatano1, Toshifumi Fujii1
1Funabashi, Japan

Tóm tắt

Trong nghiên cứu này, chúng tôi nhằm phát triển một phương pháp để nhận diện hình dạng ba chiều của các khối đống đổ nát từng cái một cho các robot cứu hộ thu hồi đống đổ nát. Hình dạng, khối lượng, trạng thái của các khối đống đổ nát và nhiều yếu tố khác là rất đa dạng và không thể xác định tại khu vực thảm họa. Do đó, các vị trí nắm bắt trên các khối đổ nát và cách loại bỏ chúng phải được xem xét để không làm sụp đổ các khối đống đổ nát và đè lên các nạn nhân. Do đó, việc nhận diện từng khối đổ nát một cách riêng lẻ và xác định các đặc điểm của chúng, chẳng hạn như hình dạng, khối lượng, vị trí trọng tâm, và các yếu tố khác là rất cần thiết. Trong bài báo này, chúng tôi đề xuất một hệ thống nhận diện hình dạng đối tượng 3-D bằng cảm biến RGB-D và một dấu hiệu tham chiếu 3-D. Hơn nữa, chúng tôi cũng đề xuất một phương pháp trích xuất các khối đổ nát sử dụng SSD (Single Shot Multi Box Detector) của AI (Trí tuệ nhân tạo). Các thí nghiệm đã được thực hiện để xác nhận tính hợp lệ của phương pháp được đề xuất với nguyên mẫu robot cứu hộ mà chúng tôi đã xây dựng. Thông qua các thí nghiệm, chúng tôi đã chỉ ra rằng các khối đổ nát mục tiêu đã được nhận diện một cách riêng lẻ.

Từ khóa

#nhận diện hình dạng 3-D; robot cứu hộ; thu hồi đống đổ nát; cảm biến RGB-D; SSD

Tài liệu tham khảo

Tian G, Ren Y, Zhou M (2016) Dual-objective scheduling of rescue vehicles to distinguish forest fires via differential evolution and particle swarm optimization combined algorithm. IEEE Trans Intell Transp Syst 2016, 3009–3021 Tanaka M, Nakajima M, Suzuki Y, Tanaka K (2018) Development and control of articulated mobile robot for climbing steep stairs. IEEE/ASME Trans Mech 2018: 31–541 Wang J, Sato K, Guo S, Chen W, Wu J (2019) Big data processing with minimal delay and guaranteed data resolution in disaster areas. IEEE Trans Vehic Technol 3833–3842 Fu S, Liu H, Gao L, Gai Y (2007) SLAM for mobile robots using laser range finder and monocular vision. In: Proceedings of 2007 14th international conference on mechatronics and machine vision, Xiamen, Chaina, Dec 4–6, 2007, pp 91–96 Sturm J, Engelhard N, Endres F, Burgard W, Cremers D (2012) A benchmark for the evaluation of RGB-D SLAM systems. In: Proceedings of 2012 IEEE/RSJ international conference on intelligent robots and systems, Vilamoura, Portugal, Oct 7–12, 2012, pp 573–580 Stamos I, Leordeanu M (2003) Automated feature-based range registration of urban scenes of large scale. In: Proceedings of 2003 IEEE computer society conference on computer vision and pattern recognition, Madison, WI, USA, USA, June 18–20, 2003, pp 555–561 Ye Q, Yao Y, Gui P, Lin Y (2016) An improved ICP algorithm for kinect point cloud registration. In: Proceedings of 2016 12th international conference on natural computation, fuzzy systems and knowledge discovery, Changsha, China, Aug 13–15, 2016, pp 2109–2114 Hisahara H, Chin Y, Hane S, Ogitsu T, Takemura H, Mizoguchi H (2015) 3D point cloud-based virtual environment for safe testing of robot control. In: Proceedings of 2015 6th international conference on intelligent systems, modelling and simulation, Kuala Lumpur, Malaysia, Feb 9–12, 2015, pp 24–27 Li S, Wang J, Liang Z, Su L (2016) Tree point cloud registration using an improved ICP algorithm based on Kd-tree. In: Proceedings of 2016 IEEE international geoscience and remote sensing symposium, Beijing, China, July 10–15, 2016, pp 4545–4548 Sorgi L (2011) Two-view geometry estimation using the rodrigues rotation formula. In: 2011 18th IEEE international conference on image processing, Brussels, Belgium, Sept 11–14, pp 1009–1012 Ning C, Zhou H, Song Y, Tang J (2017) Inception single shot multibox detector for object detection. In: 2017 IEEE international conference on multimedia and expo workships, Hong Kong, China, July 10–14, 2017, pp 549–554