Nội dung được dịch bởi AI, chỉ mang tính chất tham khảo
Về Đạo Đức Của Các Tác Nhân Nhân Tạo
Tóm tắt
Các tác nhân nhân tạo (AAs), đặc biệt nhưng không chỉ trong không gian mạng (Cyberspace), mở rộng lớp thực thể có thể tham gia vào các tình huống đạo đức. Bởi vì chúng có thể được coi là những bệnh nhân đạo đức (như những thực thể có thể bị can thiệp vì lợi ích tốt hay xấu) và cũng như những tác nhân đạo đức (như những thực thể có thể thực hiện hành động, lại cũng vì lợi ích tốt hay xấu). Trong bài viết này, chúng tôi làm rõ khái niệm về tác nhân và tiếp tục tách biệt những mối quan tâm về đạo đức và trách nhiệm của các tác nhân (đặc biệt thú vị đối với chúng tôi, là của AAs). Chúng tôi kết luận rằng có một phạm vi đáng kể và quan trọng, đặc biệt trong Đạo Đức Máy Tính, cho khái niệm tác nhân đạo đức không nhất thiết phải thể hiện ý chí tự do, trạng thái tâm thần hoặc trách nhiệm. Điều này bổ sung cho cách tiếp cận truyền thống hơn, ít nhất là từ thời Montaigne và Descartes, xem xét liệu các tác nhân (nhân tạo) có trạng thái tâm thần, cảm xúc, và như vậy hay không. Bằng cách tập trung trực tiếp vào ‘đạo đức không có trí tuệ’, chúng tôi có thể tránh câu hỏi đó và cũng nhiều lo ngại về Trí Tuệ Nhân Tạo. Một thành phần thiết yếu trong cách tiếp cận của chúng tôi là ‘Phương Pháp Trừu Tượng’ để phân tích mức độ trừu tượng (LoA) mà một tác nhân được coi là hoạt động. LoA được xác định bởi cách mà một người chọn mô tả, phân tích và thảo luận một hệ thống và bối cảnh của nó. ‘Phương Pháp Trừu Tượng’ được giải thích dưới dạng một ‘giao diện’ hoặc một tập hợp các đặc trưng hay quan sát tại một ‘LoA’ nhất định. Tác nhân, và đặc biệt là tác nhân đạo đức, phụ thuộc vào LoA. Các hướng dẫn của chúng tôi cho tác nhân là: tính tương tác (phản ứng lại kích thích bằng cách thay đổi trạng thái), tính tự trị (khả năng thay đổi trạng thái mà không cần kích thích) và khả năng thích ứng (khả năng thay đổi ‘quy tắc chuyển tiếp’ theo đó trạng thái thay đổi) tại một LoA nhất định. Đạo đức có thể được coi như một ‘ngưỡng’ được xác định trên các quan sát trong giao diện xác định LoA đang xem xét. Một tác nhân là tốt về mặt đạo đức nếu tất cả các hành động của nó tôn trọng ngưỡng đó; và nó là xấu về mặt đạo đức nếu một hành động nào đó vi phạm ngưỡng đó. Quan điểm này đặc biệt thông tin khi tác nhân là một hệ thống phần mềm hay kỹ thuật số, và các quan sát là số liệu. Cuối cùng, chúng tôi xem xét các hệ quả cho Đạo Đức Máy Tính từ cách tiếp cận của chúng tôi. Kết luận, cách tiếp cận này tạo điều kiện cho việc thảo luận về đạo đức của các tác nhân không chỉ trong không gian mạng mà còn trong sinh quyển, nơi mà động vật có thể được coi là các tác nhân đạo đức mà không cần phải thể hiện ý chí tự do, cảm xúc hoặc trạng thái tâm thần, và trong các bối cảnh xã hội, nơi mà các hệ thống như tổ chức có thể đóng vai trò là các tác nhân đạo đức. Chi phí chính của khả năng này là việc mở rộng lớp các tác nhân và tác nhân đạo đức để bao hàm AAs.
Từ khóa
#Tác nhân nhân tạo #đạo đức máy tính #trách nhiệm #sự tương tác #tự trị #thích ứng #tính toán đạo đứcTài liệu tham khảo
Allen, C., Varner, G. and Zinser, J. (2000), 'Prolegomena to Any Future Artificial Moral Agent', Journal of Experimental and Theoretical Artificial Intelligence 12, pp. 251–261.
Arnold, A.(1994), Finite Transition Systems, Prentice-Hall International Series in Computer Science.
Badham, J. (director) (1983), War Games.
Bedau, M.A. (1996) 'The Nature of Life', in M.A. Boden, ed., The Philosophy of Life, Oxford University Press, pp. 332–357.
Cassirer, E. (1953), Substance and Function and Einstein's Theory of Relativity, New York: Dover Publications Edition.
Danielson, P. (1992), Artificial Morality: Virtuous Robots for Virtual Games, Routledge, NY.
Dennet, D. (1997), When HAL Kills, Who's to Blame?' in D. Stork, ed., HAL's Legacy: 2001's Computer as Dream and Reality, Cambridge MA: MIT Press, pp. 351–365.
Dixon, B.A. (1995), 'Response: Evil and the Moral Agency of Animals', Between the Species 11(1-2), pp. 38–40.
Epstein, R.G. (1997), The Case of the Killer Robot, John Wiley and Sons, Inc.
Floridi, L. (1999), 'Information Ethics: On the Theoretical Foundations of Computer Ethics', Ethics and Information Technology 1(1), pp. 37–56. Preprint from http://www.wolfson. ox.ac.uk/ floridi/papers.htm.
Floridi, L. (2003), 'On the Intrinsic Value of Information Objects and the Infosphere', Ethics and Information Technology 4(4), pp. 287–304. Preprint from http://www.wolfson. ox.ac.uk/ floridi/papers.htm.
Floridi, L. (2001a), 'Information Ethics: An Environmental Approach to the Digital Divide', UNESCO World Commission on the Ethics of Scientific Knowledge and Technology (COMEST), First Meeting of the Sub-Commission on the Ethics of the Information Society (UNESCO, Paris, June 18-19, 2001). Preprint from http://www.wolfson.ox.ac.uk/ floridi/papers.htm.
Floridi, L. (2001b), 'Ethics in the Infosphere', The Philosophers' Magazine 6, pp. 18–19. Preprint from http://www.wolfson.ox.ac.uk/ floridi/papers.htm.
Floridi, L. and Sanders, J.W. (2001), 'Artificial Evil and the Foundation of Computer Ethics, Ethics and Information Technology 3(1), pp. 55–66. Preprint from http://www.wolfson. ox.ac.uk/floridi/papers.htm.
Floridi, L. and Sanders, J.W. (2003a), 'The Method of Abstraction', in M. Negrotti, ed., The Yearbook of the Artificial. Issue II, Peter Lang, Bern. Preprint from http://www.wolfson. ox.ac.uk/ floridi/papers.htm.
Floridi, L. and Sanders, J.W. (2003b), 'Internet Ethics: The Constructionist Values of Homo Poieticus', in R. Cavalier, ed., The Impact of the Internet on Our Moral Lives, SUNY, Fall.
Franklin, S. and Graesser, A. (1996), 'Is it an Agent, or Just a Program? A Taxonomy for Autonomous Agents', in Proceedings of the Third International Workshop on Agent Theories, Architectures, and Languages, Springer-Verlag Available from <www.msci.memphis. edu/ franklin/AgentProg.html>.
Gips, J. (1995), 'Towards the Ethical Robot', in K. Ford, C. Glymour and P. Hayes, ed., Android Epistemology, Cambridge MA: MIT Press, pp. 243–252.
Goldberg, D.E. (1989), Genetic Algorithms in Search, Optimization and Machine Learning, Reading, MA: Addison-Wesley.
Kerr, P. (1996), The Grid, New York: Warner Books.
Michie, D. (1961), 'Trial and Error', in A. Garratt, ed., Penguin Science Surveys, Harmondsworth: Penguin, pp. 129–145.
Mitchell, T.M. (1997), Machine Learning, McGraw Hill.
Moore, J.H. ed., (2001), 'The Turing Test: Past, Present and Future', Minds and Machines 11(1).
Motwani, R. and Raghavan, P. (1995), Randomized Algorithms, Cambridge: Cambridge University Press.
Norton AntiVirus (2003), Version 8.07.17C. Symantec Corporation, copyright 2003. Page, I. and Luk, W., 'Compiling Occam into Field-Programmable Gate Arrays', ftp:// ftp.comlab.ox.ac.uk/pub/Documents/techpapers/Ian.Page/abs hwcomp.l
Rosenfeld, R. (1995a), 'Can Animals Be Evil?: Kekes' Character-Morality, the Hard Reaction to Evil, and Animals, Between the Species 11(1-2), pp. 33–38.
Rosenfeld, R. (1995b), 'Reply', Between the Species 11(1-2), pp. 40–41.
Rowlands, M. (2000), The Environmental Crisis-Understanding the Value of Nature, Palgrave, London-Basingstoke.
Russell, S. and Norvig, P. (2003), Artificial Intelligence: A Modern Introduction, 2nd edition, Prentice-Hall International.
Sample, I. (2001), SmartPaint, New Scientist, http://www.globaltechnoscan.com/16May-22May01/paint.htm.
Scott, R. (director), (1982/1991), Bladerunner, The Director's Cut.
Turing, A.M. (1950), 'Computing Machinery and Intelligence', Mind 59(236), pp. 433–460.
