Political Analysis

SCOPUS (1989-1993,2004-2023)SSCI-ISI

  1047-1987

  1476-4989

  Anh Quốc

Cơ quản chủ quản:  CAMBRIDGE UNIV PRESS , Cambridge University Press

Lĩnh vực:
Political Science and International RelationsSociology and Political Science

Các bài báo tiêu biểu

Đánh giá Thị trường Lao động Trực tuyến cho Nghiên cứu Thí nghiệm: Mechanical Turk của Amazon.com Dịch bởi AI
Tập 20 Số 3 - Trang 351-368 - 2012
Adam J. Berinsky, Gregory A. Huber, G. Lenz

Chúng tôi xem xét các sự đánh đổi liên quan đến việc sử dụngMechanical Turk (MTurk) của Amazon.com như một công cụ tuyển mộ đối tượng. Chúng tôi đầu tiên mô tả MTurk và tiềm năng của nó như một phương tiện để thực hiện các thí nghiệm với chi phí thấp và dễ dàng triển khai. Sau đó, chúng tôi đánh giá tính hợp lệ nội tại và ngoại tại của các thí nghiệm được thực hiện bằng cách sử dụng MTurk, áp dụng một khung đánh giá có thể được sử dụng để đánh giá các nguồn đối tượng khác. Đầu tiên, chúng tôi điều tra các đặc điểm của các mẫu được rút ra từ dân số MTurk. Chúng tôi chỉ ra rằng những người tham gia được tuyển mộ theo cách này thường đại diện hơn cho dân số Hoa Kỳ so với các mẫu tiện lợi phỏng vấn trực tiếp—mẫu phổ biến trong các nghiên cứu khoa học chính trị thí nghiệm đã công bố—nhưng ít đại diện hơn so với các chủ thể trong các bảng khảo sát trực tuyến hoặc các mẫu xác suất quốc gia. Cuối cùng, chúng tôi lặp lại những công trình thí nghiệm quan trọng đã được công bố bằng cách sử dụng các mẫu MTurk.

Logistic Regression in Rare Events Data
Tập 9 Số 2 - Trang 137-163 - 2001
Gary King, Langche Zeng

We study rare events data, binary dependent variables with dozens to thousands of times fewer ones (events, such as wars, vetoes, cases of political activism, or epidemiological infections) than zeros (“nonevents”). In many literatures, these variables have proven difficult to explain and predict, a problem that seems to have at least two sources. First, popular statistical procedures, such as logistic regression, can sharply underestimate the probability of rare events. We recommend corrections that outperform existing methods and change the estimates of absolute and relative risks by as much as some estimated effects reported in the literature. Second, commonly used data collection strategies are grossly inefficient for rare events data. The fear of collecting data with too few events has led to data collections with huge numbers of observations but relatively few, and poorly measured, explanatory variables, such as in international conflict data with more than a quarter-million dyads, only a few of which are at war. As it turns out, more efficient sampling designs exist for making valid inferences, such as sampling all available events (e.g., wars) and a tiny fraction of nonevents (peace). This enables scholars to save as much as 99% of their (nonfixed) data collection costs or to collect much more meaningful explanatory variables. We provide methods that link these two results, enabling both types of corrections to work simultaneously, and software that implements the methods developed.

Cân bằng Entropy cho Các Hiệu ứng Nguyên nhân: Phương pháp Tái trọng số Đa biến để Tạo mẫu Cân bằng trong Các Nghiên cứu Quan sát Dịch bởi AI
Tập 20 Số 1 - Trang 25-46 - 2012
Jens Hainmueller

Bài báo này đề xuất phương pháp cân bằng entropy, một phương pháp tiền xử lý dữ liệu nhằm đạt được sự cân bằng biến trong các nghiên cứu quan sát với các điều trị nhị phân. Cân bằng entropy phụ thuộc vào một sơ đồ tái trọng số tối đa entropy, điều chỉnh trọng số của từng đơn vị sao cho nhóm điều trị và nhóm đối chứng đã được tái trọng số thỏa mãn một tập hợp lớn các điều kiện cân bằng đã được xác định trước, trong đó tích hợp thông tin về các khoảnh khắc mẫu đã biết. Cân bằng entropy do đó điều chỉnh chính xác sự bất bình đẳng trong đại diện liên quan đến các khoảnh khắc thứ nhất, thứ hai và có thể là các khoảnh khắc cao hơn của các phân phối biến. Những cải tiến về cân bằng này có thể giảm phụ thuộc vào mô hình cho ước lượng hiệu ứng điều trị tiếp theo. Phương pháp này đảm bảo rằng sự cân bằng cải thiện với tất cả các khoảnh khắc biến được đưa vào tái trọng số. Nó cũng loại bỏ nhu cầu kiểm tra cân bằng liên tục và tìm kiếm lặp đi lặp lại trên các mô hình điểm số xác suất có thể làm cân bằng một cách ngẫu nhiên các khoảnh khắc biến. Chúng tôi chứng minh việc sử dụng cân bằng entropy qua các mô phỏng Monte Carlo và các ứng dụng thực nghiệm.

Suy diễn nguyên nhân mà không cần kiểm tra sự cân bằng: Kỹ thuật đối sánh chính xác thô Dịch bởi AI
Tập 20 Số 1 - Trang 1-24 - 2012
Stefano M. Iacus, Gary King, Giuseppe Porro

Chúng tôi thảo luận về một phương pháp cải thiện suy diễn nguyên nhân được gọi là "Đối sánh chính xác thô" (CEM), và lớp phương pháp đối sánh mới "Giới hạn mất cân bằng đơn điệu" (MIB) từ đó CEM được suy ra. Chúng tôi tóm tắt những gì đã biết về CEM và MIB, suy diễn và minh họa một số tính chất thống kê mới mong muốn của CEM, và sau đó đề xuất nhiều mở rộng hữu ích. Chúng tôi cho thấy CEM sở hữu một loạt các tính chất thống kê mà hầu hết các phương pháp đối sánh khác không có, nhưng cùng lúc đó lại cực kỳ dễ dàng để hiểu và sử dụng. Chúng tôi tập trung vào mối liên hệ giữa các tính chất lý thuyết và ứng dụng thực tế. Chúng tôi cũng cung cấp phần mềm mã nguồn mở dễ sử dụng cho R, StataSPSS thực hiện tất cả các đề xuất của chúng tôi.

Estimating Latent Structure Models with Categorical Variables: One-Step Versus Three-Step Estimators
Tập 12 Số 1 - Trang 3-27 - 2004
Annabel Bolck, Marcel A. Croon, Jacques A. Hagenaars

We study the properties of a three-step approach to estimating the parameters of a latent structure model for categorical data and propose a simple correction for a common source of bias. Such models have a measurement part (essentially the latent class model) and a structural (causal) part (essentially a system of logit equations). In the three-step approach, a stand-alone measurement model is first defined and its parameters are estimated. Individual predicted scores on the latent variables are then computed from the parameter estimates of the measurement model and the individual observed scoring patterns on the indicators. Finally, these predicted scores are used in the causal part and treated as observed variables. We show that such a naive use of predicted latent scores cannot be recommended since it leads to a systematic underestimation of the strength of the association among the variables in the structural part of the models. However, a simple correction procedure can eliminate this systematic bias. This approach is illustrated on simulated and real data. A method that uses multiple imputation to account for the fact that the predicted latent variables are random variables can produce standard errors for the parameters in the structural part of the model.

Ước lượng hiệu quả các biến không thay đổi theo thời gian và hiếm khi thay đổi trong phân tích bảng mẫu hữu hạn với hiệu ứng cố định theo đơn vị Dịch bởi AI
Tập 15 Số 2 - Trang 124-139 - 2007
Thomas Plümper, Vera E. Troeger
Bài báo này đề xuất một quy trình ba giai đoạn để ước lượng các biến không thay đổi theo thời gian và hiếm khi thay đổi trong các mô hình dữ liệu bảng có hiệu ứng đơn vị. Giai đoạn đầu tiên của ước lượng đề xuất chạy một mô hình hiệu ứng cố định để thu được các hiệu ứng đơn vị, giai đoạn thứ hai phân tách các hiệu ứng đơn vị thành một phần được giải thích bởi các biến không thay đổi theo thời gian và/hoặc hiếm khi thay đổi và một hạng mục sai số, và giai đoạn thứ ba tái ước tính giai đoạn đầu tiên bằng phương pháp OLS kết hợp (với hoặc không có điều chỉnh tự tương quan và với hoặc không có SE điều chỉnh theo bảng) bao gồm các biến không thay đổi theo thời gian cùng với hạng mục sai số ở giai đoạn 2, từ đó giải thích cho phần không được giải thích của các hiệu ứng đơn vị. Chúng tôi sử dụng các mô phỏng Monte Carlo để so sánh các tính chất mẫu hữu hạn của ước lượng của chúng tôi với các tính chất mẫu hữu hạn của các ước lượng cạnh tranh. Qua đó, chúng tôi chứng minh rằng kỹ thuật được đề xuất của chúng tôi cung cấp các ước lượng đáng tin cậy nhất dưới một loạt các đặc điểm thường gặp trong dữ liệu thực tế.
#biến không thay đổi theo thời gian #hiệu ứng cố định #ước lượng OLS #mô hình dữ liệu bảng #mô phỏng Monte Carlo
Mô Hình Động cho Các Lý Thuyết Động: Những Vấn Đề và Giải Quyết Liên Quan đến Biến Phụ Thuộc Trễ Dịch bởi AI
Tập 14 Số 2 - Trang 186-205 - 2006
Luke Keele, Nathan J. Kelly

Biến phụ thuộc trễ trong hồi quy OLS thường được sử dụng như một phương tiện để nắm bắt các tác động động trong các quy trình chính trị và như một phương pháp để loại bỏ hồi quy tự chéo. Tuy nhiên, công trình nghiên cứu gần đây cho rằng định nghĩa biến phụ thuộc trễ quá phức tạp để sử dụng trong hầu hết các tình huống. Cụ thể hơn, nếu có sự hiện diện của hồi quy tự chéo của phần dư, thì biến phụ thuộc trễ sẽ làm cho các hệ số của các biến giải thích bị thiên lệch về phía dưới. Chúng tôi sử dụng phân tích Monte Carlo để đánh giá thực nghiệm mức độ thiên lệch hiện diện khi sử dụng biến phụ thuộc trễ trong một loạt các tình huống khác nhau. Trong phân tích của chúng tôi, chúng tôi so sánh hiệu suất của mô hình biến phụ thuộc trễ với một số mô hình chuỗi thời gian khác. Chúng tôi cho thấy rằng trong khi biến phụ thuộc trễ không phù hợp trong một số tình huống, nó vẫn là một mô hình thích hợp cho các lý thuyết động thường được kiểm tra bởi các nhà phân tích ứng dụng. Từ phân tích này, chúng tôi phát triển một số đề xuất thực tiễn về khi nào và cách sử dụng các biến phụ thuộc trễ ở phía bên phải của một mô hình.

Ước Lượng Các Mô Hình Hồi Quy Trong Đó Biến Phụ Thuộc Dựa Trên Các Ước Tính Dịch bởi AI
Tập 13 Số 4 - Trang 345-364 - 2005
Jeffrey B. Lewis, Drew A. Linzer

Các nhà nghiên cứu thường sử dụng các đại lượng ước lượng từ các tập dữ liệu hỗ trợ làm biến phụ thuộc. Các mô hình biến phụ thuộc ước lượng (EDV) xuất hiện, chẳng hạn, trong các nghiên cứu khi đơn vị phân tích là các quận hoặc bang và biến phụ thuộc là một giá trị trung bình ước lượng, tỷ lệ, hoặc hệ số hồi quy. Các học giả khi điều chỉnh mô hình EDV thường nhận thức rằng độ biến thiên trong phương sai lấy mẫu của các quan sát đối với biến phụ thuộc sẽ gây ra tính không đồng nhất phương sai (heteroscedasticity). Chúng tôi chỉ ra rằng phương pháp phổ biến nhất để giải quyết vấn đề này, bình phương nhỏ nhất có trọng số (weighted least squares), thường dẫn đến các ước lượng không hiệu quả và tiêu chuẩn sai bị ước lượng thấp hơn. Trong nhiều trường hợp, OLS với các sai số chuẩn nhất quán của White hoặc Efron sẽ cho kết quả tốt hơn. Chúng tôi cũng đề xuất hai phương pháp FGLS thay thế đơn giản hơn, hiệu quả hơn và mang lại các ước lượng sai số chuẩn nhất quán. Cuối cùng, chúng tôi áp dụng các ước lượng thay thế khác nhau vào việc sao chép nghiên cứu quốc tế của Cohen (2004) về sự phê duyệt tổng thống.

So Sánh Các Phản Hồi Khảo Sát Không Thể So Sánh: Đánh Giá và Chọn Lựa Các Vignettes Neo Định Hướng Dịch bởi AI
Tập 15 Số 1 - Trang 46-66 - 2007
Gary King, Jonathan Wand

Khi các đối tượng khảo sát sử dụng các loại hình phản hồi thứ bậc trong các câu hỏi khảo sát tiêu chuẩn theo những cách khác nhau, độ tin cậy của các phân tích dựa trên dữ liệu thu được có thể bị thiên lệch. Các vignette neo định hướng là một kỹ thuật thiết kế khảo sát, được giới thiệu bởi King và cộng sự (2004, Nâng cao độ tin cậy và khả năng so sánh liên văn hóa của phép đo trong nghiên cứu khảo sát.American Political Science Review94 [Tháng 2]: 191–205), nhằm khắc phục một số vấn đề này. Chúng tôi phát triển các phương pháp mới để đánh giá và chọn lựa các vignette neo định hướng, cũng như để phân tích dữ liệu thu được. Thông qua các cuộc khảo sát về nhiều chủ đề khác nhau tại nhiều quốc gia, chúng tôi minh họa cách mà các phương pháp đề xuất của chúng tôi có thể cải thiện khả năng của các vignettes neo định hướng trong việc khai thác thông tin từ dữ liệu khảo sát, cũng như tiết kiệm chi phí quản lý khảo sát.

Phân Tích Dữ Liệu Bị Kiểm Duyệt và Chọn Mẫu Bằng Mô Hình Tobit và Heckit Dịch bởi AI
Tập 8 Số 2 - Trang 167-182 - 1999
Lee Sigelman, Langche Zeng

Các nhà khoa học chính trị đang ngày càng sử dụng nhiều mô hình Tobit và Heckit. Bài báo này đề cập đến một số vấn đề phổ biến trong việc ứng dụng và diễn giải các mô hình này. Thông qua các thí nghiệm số và phân tích lại dữ liệu từ một nghiên cứu của Romer và Snyder (1994), chúng tôi minh họa những hệ quả của việc sử dụng mô hình Tobit chuẩn, vốn giả định một điểm kiểm duyệt tại zero, trong trường hợp các giá trị bằng zero không phải do cơ chế kiểm duyệt hoặc khi việc kiểm duyệt thực tế không nằm ở zero. Ở trường hợp sau, chúng tôi cũng chỉ ra rằng các kết quả nổi tiếng của Greene (1981) về hướng và kích thước của thiên lệch của ước lượng OLS trong mô hình Tobit chuẩn không nhất thiết phải đúng. Vì mô hình Heckit thường được dùng như một sự thay thế cho Tobit, chúng tôi xem xét các giả định của mô hình này và thảo luận về cách diễn giải đúng đắn kết quả ước lượng Heckit/Tobit bằng mô hình Heckit về dữ liệu đóng góp cho chiến dịch của Grier và các đồng nghiệp (1994). Các phân tích độ nhạy của kết quả ước lượng Heckit gợi ý một số kết luận khá khác biệt so với những gì mà Grier et al. đã đạt được.

#Tobit; Heckit; kiểm duyệt; thiên lệch; điều chỉnh dữ liệu