Nhận diện, học hỏi và khai thác các khả năng của đối tượng để tự động thao tác với đống đồ

Autonomous Robots - Tập 37 - Trang 369-382 - 2014
Dov Katz1, Arun Venkatraman1, Moslem Kazemi1, J. Andrew Bagnell1, Anthony Stentz1
1The Robotics Institute, Carnegie Mellon University, Pittsburgh, USA

Tóm tắt

Việc thao tác tự động trong các môi trường không có cấu trúc sẽ mở ra nhiều ứng dụng thú vị và quan trọng. Mặc dù có tiềm năng lớn, thao tác tự động vẫn hầu như chưa được giải quyết. Ngay cả những nhiệm vụ thao tác đơn giản nhất - chẳng hạn như gỡ bỏ các đồ vật từ một đống - vẫn là thách thức đối với robot. Chúng tôi xác định ba thách thức chính cần được giải quyết để cho phép thao tác tự động: phân đoạn đối tượng, lựa chọn hành động và tạo chuyển động. Những thách thức này càng trở nên rõ rệt hơn khi các đối tượng nhân tạo hoặc tự nhiên không xác định bị xáo trộn trong một đống. Chúng tôi giới thiệu một hệ thống có khả năng thao tác các đối tượng chưa xác định trong một môi trường như vậy. Robot của chúng tôi được giao nhiệm vụ dọn dẹp một chiếc bàn bằng cách gỡ bỏ các đồ vật từ một đống và đặt chúng vào một thùng. Để đạt được điều đó, chúng tôi đã giải quyết ba thách thức đã đề cập ở trên. Robot của chúng tôi nhận thức môi trường bằng cảm biến RGB-D, phân đoạn đống thành các giả thuyết đối tượng bằng cách sử dụng các mô hình bề mặt không tham số. Hệ thống của chúng tôi sau đó tính toán khả năng sử dụng của mỗi đối tượng và chọn khả năng tốt nhất cùng với hành động tương ứng để thực hiện. Cuối cùng, robot của chúng tôi khởi tạo chuyển động phù hợp để thực hiện hành động mong muốn một cách an toàn. Để lựa chọn hành động một cách hiệu quả và đáng tin cậy, chúng tôi đã phát triển một khung cho việc học có giám sát về chuyên môn thao tác. Để xác minh hiệu suất của hệ thống, chúng tôi đã thực hiện hàng chục thử nghiệm và báo cáo về nhiều giờ thí nghiệm với hơn 1.500 tương tác. Kết quả cho thấy rằng phương pháp dựa trên học tập của chúng tôi cho thao tác đống xuất sắc hơn các phương pháp thông thường cũng như một chiến lược ngẫu nhiên, và đạt được hiệu suất tương đương với lựa chọn hành động của con người.

Từ khóa

#thao tác tự động #phân đoạn đối tượng #lựa chọn hành động #tạo chuyển động #robot #cảm biến RGB-D

Tài liệu tham khảo

Bagnell, J.A., Cavalcanti, F., Cui, L., Galluzzo, T., Hebert, M., Kazemi, M., Libby, J., Liu, T.Y., Pollard, N. S., Pivtoraiko, M., Valois, J-S., Klingensmith, M., & Zhu, R. (2012). An integrated system for autonomous robotics manipulation. In IROS (pp. 2955–2962). Barck-Holst, C., Ralph, M., Holmar, F., & Kragic, D. (2009). Learning grasping affordance using probabilistic and ontological approaches. In ICAR (pp. 1–6). Bishop, Christopher M., et al. (2006). Pattern recognition and machine learning. New York: Springer. Chang, Lillian Y., Smith, Joshua R., & Fox, D., (2012). Interactive singulation of objects from a pile. In ICRA, (pp. 3875–3882). Comaniciu, Dorin, & Meer, Peter. (2002). Mean shift: A robust approach toward feature space analysis. IEEE Transactions on Pattern Analysis and Machine Intelligence, 24(5), 603–619. Forsyth, D. A., & Ponce, J. (2002). Computer Vision: A Modern Approach. Englewood Cliffs: Prentice Hall Professional Technical Reference. Gibson, J. J. (1977). The theory of affordances, volume Perceiving (pp. 67–82). Mahwah: Lawrence Erlbaum. Goh, A., & Vidal, R., (2007). Segmenting motions of different types by unsupervised manifold clustering. In CVPR (pp. 1–6). Gupta, M., & Sukhatme, G. (2012). Using manipulation primitives for brick sorting in clutter. In ICRA (pp. 3883–3889). Hausman, K., Balint-Benczedi, F., Pangercic, D., Marton, Z.-C., Ueda, R., Okada, K., & Beetz, M. (2013). Tracking-based interactive segmentation of textureless objects. In IEEE ICRA (pp. 1122–1129). Hermans, T., Rehg, J.M., & Bobick, A. (2012). Guided pushing for object singulation. In IEEE IROS (pp. 4783–4790). Hermans, T., Li, F., Rehg, J.M., & Bobick, A.F. (2013). Learning contact locations for pushing and orienting unknown objects. In IEEE-RAS International Conference on Humanoid Robotics. Joachims, T. (1999). Making large-scale svm learning practical. In B. Schlkopf, C. Burges, & A. Smola (Eds.), Advances in kernel methods—support vector learning. Cambridge: MIT Press. Katz, D., & Brock, O. (2008). Manipulating articulated objects with interactive perception. In ICRA (pp. 272–277). Katz, D., Pyuro, Y., & Brock, O. (2008). Learning to manipulate articulated objects in unstructured environments using a grounded relational representation. In RSS (pp. 254–261), Zurich, Switzerland. Katz, D., Kazemi, M., Bagnell, J.A., & Stentz, A. (2013a). Clearing a pile of unknown objects using interactive perception. In ICRA (pp. 154–161), Karlsruhe, Germany. Katz, D., Venkatraman, A., Kazemi, M., Bagnell, J.A., & Stentz, A. (2013b). Perceiving, learning, and exploiting object affordances for autonomous pile manipulation. In RSS. Kazemi, M., Valois, J-S., Bagnell, J.A., & Pollard, N. (2012) Robust object grasping using force compliant motion primitives. In RSS. Kenney, J., Buckley, T., & Brock, O. (2009). Interactive segmentation for manipulation in unstructured environments. In ICRA (pp. 1343–48). Lang, Tobias, & Toussaint, Marc. (2010). Planning with noisy probabilistic relational rules. JAIR, 39, 1–49. Le, Q.V., Kamm, D., Kara, A.F., Ng, A.Y. (2010). Learning to grasp objects with multiple contact points. In ICRA (pp. 5062–5069). Ratliff, N., Zucker, M., Bagnell, J.A., & Srinivasa, S. (2009) CHOMP: Gradient optimization techniques for efficient motion planning. In ICRA (pp. 489–494). Saxena, Ashutosh, Driemeyer, Justin, & Ng, Andrew Y. (2008). Robotic grasping of novel objects using vision. The International Journal of Robotics Research, 27(2), 157–173. Stolkin, R., Greig, A., Hodgetts, M., & Gilby, J. (2008). An EM/E-MRF Algorithm for adaptive model based tracking in extremely poor visibility. Image and Vision Computing, 26(4), 480–495. Taylor, C.J., & Cowley, A. (2011). In RSS Workshop on RGB-D Cameras: Segmentation and analysis of rgb-d data. Ugur, E., Sahin, E., Oztop, E. (2012). Self-discovery of motor primitives and learning grasp affordances. In IEEE IROS (pp. 3260–3267). van Hoof, H., Kroemer, O., & Peters, J. (2013). Probabilistic interactive segmentation for anthropomorphic robots in cluttered environments. In Proceedings of the International Conference on Humanoid Robots (HUMANOIDS). Yang, S.-W., Wang, C.-C., & Chang, C.-H. (2010). Ransac matching: Simultaneous registration and segmentation. In ICRA (pp. 1905–1912). Zappella, L. (2008). Motion segmentation from feature trajectories. Master’s thesis, University of Girona, Girona, Spain. Zhang, J., Shi, F., Wang, J., Liu, Y. (2007). 3D motion segmentation from straight-line optical flow. In Multimedia Content Analysis and Mining (pp. 85–94). Springer, Berlin/Heidelberg.