Nội dung được dịch bởi AI, chỉ mang tính chất tham khảo
Các chuẩn mực mở rộng: xác định khả năng ra quyết định có trách nhiệm trong các bối cảnh tương tác giữa con người và robot
Tóm tắt
Đạo đức máy móc đã tìm cách thiết lập cách các hệ thống tự động có thể đưa ra các quyết định hợp lý về mặt đạo đức trong thế giới. Trong khi các phương pháp học máy thuần túy chỉ tập trung vào việc học sở thích của con người thông qua các quan sát và hành động đã thử nghiệm, các phương pháp kết hợp trong đạo đức máy móc cố gắng cung cấp hướng dẫn rõ ràng hơn cho robot dựa trên các đại diện quy chuẩn nhất định. Tuy nhiên, cả hai phương pháp này có thể không đủ cho các bối cảnh tương tác giữa con người và robot thực tế, nơi mà việc lập luận và trao đổi thông tin có thể cần được phân phối dọc theo các quy trình tự động hóa và sự ứng biến của con người, yêu cầu sự phối hợp theo thời gian thực trong một môi trường năng động (chia sẻ thông tin, tin tưởng vào các tác nhân khác và cùng nhau đưa ra kế hoạch đã được điều chỉnh). Bài báo này xây dựng dựa trên các cuộc thảo luận về "tâm trí mở rộng" trong triết học để xem xét các quy chuẩn như là các hệ thống "mở rộng" được hỗ trợ bởi các tín hiệu bên ngoài và các ứng dụng quy chuẩn riêng của tác nhân trong các bối cảnh cụ thể. Thay vì chỉ định vị các quy chuẩn như là các đại diện rời rạc trong hệ thống AI, chúng tôi lập luận rằng hướng dẫn quy phạm rõ ràng cần được mở rộng trên hoạt động hợp tác giữa người và máy như là điều gì tạo thành và không tạo thành một bối cảnh quy phạm, và trong một quy chuẩn, có thể yêu cầu thương lượng về các nguyên tắc chưa được xác định hoàn toàn hoặc phát sinh các nguyên tắc không tự chứa, mà trở nên khả thi thông qua các hành động và tương tác của tác nhân và do đó có thể được đại diện bởi các tác nhân trong không gian xã hội.
Từ khóa
#đạo đức máy móc #tương tác giữa con người và robot #các quy chuẩn #tâm trí mở rộng #hệ thống tự động #hợp tác giữa người và máyTài liệu tham khảo
Arnold, T., & Scheutz, M. (2018). The ?big red button? is too late: an alternative model for the ethical evaluation of ai systems. Ethics and Information Technology, 20(1), 59–69.
Bringsjord, S., Arkoudas, K., & Bello, P. (2006). Toward a general logicist methodology for engineering ethically correct robots. IEEE Intelligent Systems, 21(4), 38–44.
Clark, A. (2001). Reasons, robots and the extended mind. Mind & Language, 16(2), 121–145.
Clark, A., & Chalmers, D. (1998). The extended mind. analysis, 58(1), 7–19.
Dragan, A. D., Lee, K. C., & Srinivasa, S. S. (2013). Legibility and predictability of robot motion. In 2013 8th ACM/IEEE International Conference on Human-Robot Interaction (HRI) (pp. 301–308). IEEE.
Friedman, B., Kahn, P. H., Borning, A., & Huldtgren, A. (2013). Value sensitive design and information systems. In Early engagement and new technologies: opening up the laboratory (pp. 55–95). Springer.
Kandefer, M., & Shapiro, S. C. (2008). A categorization of contextual constraints. In AAAI Fall Symposium: Biologically Inspired Cognitive Architectures (pp. 88–93).
Legros, S., & Cislaghi, B. (2020). Mapping the social-norms literature: an overview of reviews. Perspectives on Psychological Science, 15(1), 62–80.
Malle, B. F., & Scheutz, M. (2014). Moral competence in social robots. In Proceedings of the IEEE 2014 International Symposium on Ethics in Engineering, Science, and Technology (p. 8). IEEE Press.
Malle, B. F., & Scheutz, M. (2020). Moral competence in social robots. In Machine ethics and robot ethics (pp. 225–230). Routledge.
Meyer, S., Mandl, S., Gesmann-Nuissl, D., & Strobel, A. (2022). Responsibility in hybrid societies: concepts and terms. AI and Ethics. https://doi.org/10.1007/s43681-022-00184-2.
Riek, L. D., & Robinson, P. (2011). Challenges and opportunities in building socially intelligent machines [social sciences]. IEEE Signal Processing Magazine, 28(3), 146–149.
Robinette, P., Li, W., Allen, R., Howard, A. M., & Wagner, A. R. (2016). Overtrust of robots in emergency evacuation scenarios. In 2016 11th ACM/IEEE International Conference on Human-Robot Interaction (HRI) (pp. 101–108). IEEE.
Russell, S., Dewey, D., & Tegmark, M. (2015). Research priorities for robust and beneficial artificial intelligence. Ai Magazine, 36(4), 105–114.
Sarathy, V., Arnold, T., & Scheutz, M. (2019). When exceptions are the norm: exploring the role of consent in hri. ACM Transactions on Human-Robot Interaction (THRI), 8(3), 1–21.
Toh, C. K., Sanguesa, J. A., Cano, J. C., & Martinez, F. J. (2020). Advances in smart roads for future smart cities. Proceedings of the Royal Society A, 476(2233), 20190439.
Tolmeijer, S., Kneer, M., Sarasua, C., Christen, M., & Bernstein, A. (2020). Implementations in machine ethics: a survey. ACM Computing Surveys (CSUR), 53(6), 1–38.
Van Wynsberghe, A. (2013). Designing robots for care: care centered value-sensitive design. Science and engineering ethics, 19(2), 407–433.
Van Wynsberghe, A. (2020). Designing robots for care: care centered value-sensitive design. In Machine ethics and robot ethics (pp. 185–211). Routledge.
Van Wynsberghe, A., & Robbins, S. (2019). Critiquing the reasons for making artificial moral agents. Science and engineering ethics, 25(3), 719–735.
Vanderelst, D., & Winfield, A. (2018). The dark side of ethical robots. In Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society (pp. 317–322).
Voiklis, J., Kim, B., Cusimano, C., & Malle, B. F. (2016). Moral judgments of human vs. robot agents. In 2016 25th IEEE international symposium on robot and human interactive communication (RO-MAN) (pp. 775–780). IEEE.
Wallach, W., & Allen, C. (2008). Moral machines: teaching robots right from wrong. Oxford University Press.