Sự Giống Nhân Loại của Các Cử Chỉ Phản Hồi Ảnh Hưởng Đến Quy Trình Ra Quyết Định và Niềm Tin Chủ Quan

Lorenzo Parenti1,2, Adam W. Lukomski1, Davide De Tommaso1, Marwen Belkaid1,3, Agnieszka Wykowska1
1Social Cognition in Human-Robot Interaction, Center for Human Technologies, Istituto Italiano Di Tecnologia (IIT), Genoa, Italy
2Department of Psychology, University of Turin, Turin, Italy
3ETIS UMR 8051, CY Paris Cergy University, Cergy, France

Tóm tắt

Niềm tin là yếu tố cơ bản trong việc xây dựng các tương tác xã hội có ý nghĩa. Với sự phát triển của robot xã hội trong các môi trường hợp tác, niềm tin trong tương tác giữa con người và robot (HRI) đang ngày càng thu hút sự quan tâm khoa học. Thực tế, việc hiểu rõ cách các yếu tố khác nhau có thể ảnh hưởng đến niềm tin của người dùng đối với robot là vô cùng quan trọng. Trong nghiên cứu này, chúng tôi tập trung vào hai yếu tố liên quan đến hành vi của robot có thể điều chỉnh niềm tin. Trong một nhiệm vụ chọn lựa bắt buộc hai lựa chọn, nơi một robot ảo phản ứng với hiệu suất của người tham gia, chúng tôi đã thao tác sự giống nhân loại trong chuyển động của robot và tính chất của phản hồi mà nó đưa ra. Để đo lường mức độ niềm tin chủ quan của người tham gia, chúng tôi sử dụng các đánh giá chủ quan xuyên suốt nhiệm vụ cũng như một bảng hỏi sau nhiệm vụ, phân biệt các khía cạnh năng lực và đạo đức của niềm tin. Chúng tôi kỳ vọng sự hiện diện của phản hồi sẽ cải thiện niềm tin đối với robot và sự giống nhân loại sẽ tăng cường hiệu ứng này. Điều thú vị là, chúng tôi nhận thấy rằng con người tin tưởng robot trong hầu hết các điều kiện nhưng không tin tưởng khi nó không thể hiện phản hồi xã hội hoặc hành vi giống con người. Ngoài ra, chúng tôi chỉ quan sát được sự tương quan tích cực giữa các đánh giá niềm tin chủ quan và các khía cạnh đạo đức và năng lực của niềm tin khi robot cung cấp phản hồi trong suốt nhiệm vụ. Những phát hiện này gợi ý rằng sự hiện diện và sự giống nhân loại của các hành vi phản hồi có tác động tích cực đến niềm tin trong HRI, từ đó cung cấp những hiểu biết quan trọng cho sự phát triển của các hành vi giao tiếp phi ngôn ngữ trong các robot xã hội.

Từ khóa

#niềm tin #tương tác con người-robot #hành vi giống nhân loại #phản hồi xã hội #cử chỉ phản hồi

Tài liệu tham khảo

Dautenhahn K (2007) Socially intelligent robots: dimensions of human–robot interaction. Philos Trans Royal Society B Biol Sci 362(1480):679–704. https://doi.org/10.1098/rstb.2006.2004

Tapus A, Mataric MJ, Scassellati B (2007) Socially assistive robotics [grand challenges of robotics]. IEEE Robot Autom Mag 14(1):35–42. https://doi.org/10.1109/MRA.2007.339605

Wagner AR, Arkin RC (2011) Recognizing situations that demand trust. In: 2011 RO-MAN pp 7–14. IEEE. https://doi.org/10.1109/ROMAN.2011.6005228

Lee JD, See KA (2004) Trust in automation: designing for appropriate reliance. Hum Factors 46(1):50–80

Booth S, Tompkin J, Pfister H, Waldo J, Gajos K, Nagpal R (2017) Piggybacking robots: human-robot overtrust in university dormitory security. In: Proceedings of the 2017 ACM/IEEE international conference on human-robot interaction pp 426–434

Dietvorst BJ, Simmons J, Massey C (2014) Understanding algorithm aversion: forecasters erroneously avoid algorithms after seeing them err. In: Academy of management proceedings. 2014(1): 12227) Briarcliff Manor, NY 10510: Academy of management

Parasuraman R, Riley V (1997) Humans and automation: Use, misuse, disuse, abuse. Hum Factors 39(2):230–253. https://doi.org/10.1518/001872097778543886

Hancock PA, Billings DR, Schaefer KE, Chen JY, De Visser EJ, Parasuraman R (2011) A meta-analysis of factors affecting trust in human-robot interaction. Hum Factors 53(5):517–527. https://doi.org/10.1177/0018720811417254

Khavas ZR, Ahmadzadeh SR, Robinette P (2020) Modeling trust in human-robot interaction: a survey. In: International conference on social robotics. pp 529–541 Springer, Cham. https://doi.org/10.48550/arXiv.2011.04796

Mumm J. Mutlu B (2011) Human-robot proxemics: physical and psychological distancing in human-robot interaction. In Proceedings of the 6th international conference on Human-robot interaction. pp 331–338 Doi: https://doi.org/10.1145/1957656.1957786

Martelaro N, Nneji VC, Ju W, Hinds P (2016) Tell me more: designing hri to encourage more trust, disclosure, and companionship. In 2016 11th ACM/IEEE international conference on human-robot interaction (HRI). pp 181–188. IEEE. https://doi.org/10.1109/HRI.2016.7451864

Vollmeyer R, Rheinberg F (2005) A surprising effect of feedback on learning. Learn Instruction 15(6):589–602. https://doi.org/10.1016/j.learninstruc.2005.08.001

Podsakoff PM, Farh JL (1989) Effects of feedback sign and credibility on goal setting and task performance. Organ Behav Hum Decis Process 44(1):45–67. https://doi.org/10.1016/0749-5978(89)90034-4

Meyer WJ, Offenbach SI (1962) Effectiveness of reward and punishment as a function of task complexity. J Comp Physiol Psychol 55(4):532

Freedberg M, Glass B, Filoteo JV, Hazeltine E, Maddox WT (2017) Comparing the effects of positive and negative feedback in information-integration category learning. Mem Cognit 45(1):12–25

Duan Z, Ye T, Poggi A, Ding X (2020) Gaze towards my choice: noneconomic social interaction changes interpersonal trust only with positive feedback. Psychonomic Bull Rev 27(6):1362–1373. https://doi.org/10.3758/s13423-020-01785-w

Hommel B, Colzato LS (2015) Interpersonal trust: an event-based account. Front Psychol 6:1399. https://doi.org/10.3389/fpsyg.2015.01399

Akalin N, Kristoffersson A, Loutfi A (2019) The influence of feedback type in robot-assisted training. Multimodal Technol Interaction 3(4):67. https://doi.org/10.3390/mti3040067

Ham J, Midden CJ (2014) A persuasive robot to stimulate energy conservation: the influence of positive and negative social feedback and task similarity on energy-consumption behavior. Int J Soc Robot 6(2):163–171. https://doi.org/10.1007/s12369-013-0205-z

Park E, Kim KJ, Pobil APD (2011) The effects of a robot instructor’s positive vs. negative feedbacks on attraction and acceptance towards the robot in classroom. In: Mutlu B, Bartneck C, Ham J, Evers V, Kanda T (eds) International conference on social robotics. Springer, Berlin Heidelberg, pp 135–141

Van der Hoorn DP, Neerincx A, de Graaf MM (2021) I think you are doing a bad job! The effect of blame attribution by a robot in human-robot collaboration. In: Proceedings of the 2021 ACM/IEEE international conference on human-robot interaction. pp 140–148, https://doi.org/10.1145/3434073.3444681

DeSteno D, Breazeal C, Frank RH, Pizarro D, Baumann J, Dickens L, Lee JJ (2012) Detecting the trustworthiness of novel partners in economic exchange. Psychol Sci 23(12):1549–1556. https://doi.org/10.1177/0956797612448793

Zörner S, Arts E, Vasiljevic B, Srivastava A, Schmalzl F, Mir G, Bhatia K, Strahl E, Peters A, Alpay T, Wermter S (2021) An immersive investment game to study human-robot trust. Front Robot AI 8:644529. https://doi.org/10.3389/frobt.2021.644529

Natarajan M, Gombolay M (2020) Effects of anthropomorphism and accountability on trust in human robot interaction. In: Proceedings of the 2020 ACM/IEEE international conference on human-robot interaction pp 33–42. https://doi.org/10.1145/3319502.3374839

Cominelli L, Feri F, Garofalo R, Giannetti C, Meléndez-Jiménez MA, Greco A, Kirchkamp O (2021) Promises and trust in human–robot interaction. Sci Rep 11(1):1–14. https://doi.org/10.1038/s41598-021-88622-9

Mathur MB, Reichling DB (2016) Navigating a social world with robot partners: A quantitative cartography of the Uncanny Valley. Cognition 146:22–32. https://doi.org/10.1016/j.cognition.2015.09.008

Naneva S, Sarda Gou M, Webb TL, Prescott TJ (2020) A systematic review of attitudes, anxiety, acceptance, and trust towards social robots. Int J Soc Robot 12(6):1179–1201. https://doi.org/10.1007/s12369-020-00659-4

Ghazali AS, Ham J, Barakova E, Markopoulos P (2019) Assessing the effect of persuasive robots interactive social cues on users’ psychological reactance, liking, trusting beliefs and compliance. Adv Robot 33(7–8):325–337. https://doi.org/10.1080/01691864.2019.1589570

Malle BF, Ullman D (2021) A multidimensional conception and measure of human-robot trust. In: Trust in Human-Robot Interaction. Academic Press, pp 3–25, https://doi.org/10.1016/B978-0-12-819472-0.00001-0

Metta G, Sandini G, Vernon D, Natale L, Nori F (2008) The iCub humanoid robot: an open platform for research in embodied cognition. In: Proceedings of the 8th workshop on performance metrics for intelligent systems. pp 50–56

Britannica T (2014) Editors of encyclopaedia (2014, November 21). Cups and balls trick. Encyclopedia Britannica. https://www.britannica.com/art/cups-and-balls-trick

Parenti L, Marchesi S, Belkaid M, Wykowska A (2021) Exposure to robotic virtual agent affects adoption of intentional stance. In: Proceedings of the 9th international conference on human-agent interaction. pp 348–353. https://doi.org/10.1145/3472307.3484667

Ratcliff R (1993) Methods for dealing with reaction time outliers. Psychol Bull 114(3):510. https://doi.org/10.1037/0033-2909.114.3.510