Nguyên tắc gần gũi tương đối và khoảng dừng sau phần thưởng

Springer Science and Business Media LLC - Tập 5 - Trang 129-131 - 2013
Richard L. Shull1, Aaron J. Brownstein1
1Department of Psychology, University of North Carolina, Greensboro

Tóm tắt

Theo nguyên tắc gần gũi tương đối, một thước đo phản ứng phải thay đổi đơn điệu với lượng thời gian tương đối đã trôi qua trong khoảng thời gian giữa các lần thưởng. Tốc độ phản ứng trung bình trong lịch trình khoảng thời gian cố định tăng lên một cách đơn điệu với thời gian tương đối, nhưng tốc độ phản ứng lại có quan hệ không đơn điệu với thời gian đã trôi qua tương đối trong lịch trình FT FR1 phối hợp. Bài báo hiện tại chỉ ra rằng một số đặc điểm của phân bố khoảng dừng sau phần thưởng nhất quán với nguyên tắc gần gũi tương đối trong cả lịch trình khoảng thời gian cố định và lịch trình phối hợp: Xác suất kết thúc khoảng dừng sau phần thưởng, với điều kiện có cơ hội, tăng lên một cách đơn điệu với thời gian tương đối trong khoảng thời gian giữa các lần thưởng ở cả hai loại lịch trình, cho thấy rằng mối quan hệ giữa thời gian tương đối trong khoảng thời gian giữa các lần thưởng có vẻ tồn tại trong một phạm vi điều kiện rộng hơn so với việc kiểm soát tốc độ phản ứng trung bình bởi gần gũi tương đối.

Từ khóa


Tài liệu tham khảo

Anger, D. The dependence of interresponse times upon the relative reinforcement of different interresponse times. Journal of Experimental Psychology, 1956, 52, 145–161. Barrett, J. E. Conjunctive schedules of reinforcement I: Rate-dependent effects of pentobarbital and d-amphetamine. Journal of the Experimental Analysis of Behavior, 1974 (in press). Catania, A. C., & Reynolds, G. S. A quantitative analysis of the responding maintained by interval schedules of reinforcement. Journal of the Experimental Analysis of Behavior, 1968, 11. 327–383. Dews, P. B. Studies of responding under fixed-interval schedules of reinforcement: The effects on the pattern of responding of changes in requirements at reinforcement. Journal of the Experimental Analysis of Behavior, 1969, 12, 191–199. Dukich, T. D., & Lee, A. E. A comparison of measures of responding under fixed-interval schedules. Journal of the Experimental Analysis of Behavior, 1973, 20, 281–290. Jenkins, H. M. Sequential organization in schedules of reinforcement. In W. N. Schoenfeld (Ed.), The theory of reinforcement schedules. New York: Appleton-Century-Crofts, 1970, Pp. 63–109. McGill, W. J. Stochastic latency mechanisms. In R. D. Luce, R. R. Bush, & E. Galanter (Eds.), Handbook of mathematical psychology. Vol. 1, New York: Wiley, 1963, Pp. 309–360. Morgan, M. J. Fixed interval schedules and delay of reinforcement. Quarterly Journal of Experimental Psychology, 1970, 22, 663–673. Schneider, B. A. A two-state analysis of fixed-interval responding in the pigeon. Journal of the Experimental Analysis of Behavior, 1969, 12, 677–687. Schneider, B. A., & Neuringer, A. J. Responding under discrete-trial fixed-interval schedules of reinforcement. Journal of the Experimental Analysis of Behavior, 1972. 18, 187–199. Sherman, J. G. The temporal distribution of responses on fixed interval schedules. Unpublished doctoral dissertation, Columbia University, 1959. Shull, R. L. The response-reinforcement dependency in fixed-interval schedules of reinforcement. Journal of the Experimental Analysis of Behavior, 1970, 14, 55–60. Shull, R. L. Sequential patterns in post-reinforcement pauses on fixed-interval schedules of food. Journal of the Experimental Analysis of Behavior, 1971, 15, 221–231. (a) Shull, R. L. Postreinforcement pause duration on fixed-interval and fixed-time schedules of food reinforcement. Psychonomic Science, 1971, 23, 77–78. (b) Shull, R. L., Guilkey, M., & Witty, W. Changing the response unit from a single peck to a fixed number of pecks in fixed-interval schedules. Journal of the Experimental Analysis of Behavior, 1972, 17, 193–200. Staddon, J. E. R. Temporal control and the theory of reinforcement schedules. In R. M. Gilbert & J. R. Millenson (Eds.), Reinforcement: Behavioral analyses. New York: Academic Press, 1972, Pp. 209–262. Staddon, J. E. R., & Frank, J. A. The role of the peck-food contingency on fixed-interval schedules. Journal of the Experimental Analysis of Behavior, 1974 (in press). Zeiler, M. D. Schedules of reinforcement: The controlling variables. In W. K. Honig & J. E. R. Staddon (Eds.), Operant behavior. Vol. 2, 1974 (in press).