
Political Analysis
SCOPUS (1989-1993,2004-2023)SSCI-ISI
1047-1987
1476-4989
Anh Quốc
Cơ quản chủ quản: CAMBRIDGE UNIV PRESS , Cambridge University Press
Các bài báo tiêu biểu
Chúng tôi xem xét các sự đánh đổi liên quan đến việc sử dụng
We study rare events data, binary dependent variables with dozens to thousands of times fewer ones (events, such as wars, vetoes, cases of political activism, or epidemiological infections) than zeros (“nonevents”). In many literatures, these variables have proven difficult to explain and predict, a problem that seems to have at least two sources. First, popular statistical procedures, such as logistic regression, can sharply underestimate the probability of rare events. We recommend corrections that outperform existing methods and change the estimates of absolute and relative risks by as much as some estimated effects reported in the literature. Second, commonly used data collection strategies are grossly inefficient for rare events data. The fear of collecting data with too few events has led to data collections with huge numbers of observations but relatively few, and poorly measured, explanatory variables, such as in international conflict data with more than a quarter-million dyads, only a few of which are at war. As it turns out, more efficient sampling designs exist for making valid inferences, such as sampling all available events (e.g., wars) and a tiny fraction of nonevents (peace). This enables scholars to save as much as 99% of their (nonfixed) data collection costs or to collect much more meaningful explanatory variables. We provide methods that link these two results, enabling both types of corrections to work simultaneously, and software that implements the methods developed.
Bài báo này đề xuất phương pháp cân bằng entropy, một phương pháp tiền xử lý dữ liệu nhằm đạt được sự cân bằng biến trong các nghiên cứu quan sát với các điều trị nhị phân. Cân bằng entropy phụ thuộc vào một sơ đồ tái trọng số tối đa entropy, điều chỉnh trọng số của từng đơn vị sao cho nhóm điều trị và nhóm đối chứng đã được tái trọng số thỏa mãn một tập hợp lớn các điều kiện cân bằng đã được xác định trước, trong đó tích hợp thông tin về các khoảnh khắc mẫu đã biết. Cân bằng entropy do đó điều chỉnh chính xác sự bất bình đẳng trong đại diện liên quan đến các khoảnh khắc thứ nhất, thứ hai và có thể là các khoảnh khắc cao hơn của các phân phối biến. Những cải tiến về cân bằng này có thể giảm phụ thuộc vào mô hình cho ước lượng hiệu ứng điều trị tiếp theo. Phương pháp này đảm bảo rằng sự cân bằng cải thiện với tất cả các khoảnh khắc biến được đưa vào tái trọng số. Nó cũng loại bỏ nhu cầu kiểm tra cân bằng liên tục và tìm kiếm lặp đi lặp lại trên các mô hình điểm số xác suất có thể làm cân bằng một cách ngẫu nhiên các khoảnh khắc biến. Chúng tôi chứng minh việc sử dụng cân bằng entropy qua các mô phỏng Monte Carlo và các ứng dụng thực nghiệm.
Chúng tôi thảo luận về một phương pháp cải thiện suy diễn nguyên nhân được gọi là "Đối sánh chính xác thô" (CEM), và lớp phương pháp đối sánh mới "Giới hạn mất cân bằng đơn điệu" (MIB) từ đó CEM được suy ra. Chúng tôi tóm tắt những gì đã biết về CEM và MIB, suy diễn và minh họa một số tính chất thống kê mới mong muốn của CEM, và sau đó đề xuất nhiều mở rộng hữu ích. Chúng tôi cho thấy CEM sở hữu một loạt các tính chất thống kê mà hầu hết các phương pháp đối sánh khác không có, nhưng cùng lúc đó lại cực kỳ dễ dàng để hiểu và sử dụng. Chúng tôi tập trung vào mối liên hệ giữa các tính chất lý thuyết và ứng dụng thực tế. Chúng tôi cũng cung cấp phần mềm mã nguồn mở dễ sử dụng cho
We study the properties of a three-step approach to estimating the parameters of a latent structure model for categorical data and propose a simple correction for a common source of bias. Such models have a measurement part (essentially the latent class model) and a structural (causal) part (essentially a system of logit equations). In the three-step approach, a stand-alone measurement model is first defined and its parameters are estimated. Individual predicted scores on the latent variables are then computed from the parameter estimates of the measurement model and the individual observed scoring patterns on the indicators. Finally, these predicted scores are used in the causal part and treated as observed variables. We show that such a naive use of predicted latent scores cannot be recommended since it leads to a systematic underestimation of the strength of the association among the variables in the structural part of the models. However, a simple correction procedure can eliminate this systematic bias. This approach is illustrated on simulated and real data. A method that uses multiple imputation to account for the fact that the predicted latent variables are random variables can produce standard errors for the parameters in the structural part of the model.
Biến phụ thuộc trễ trong hồi quy OLS thường được sử dụng như một phương tiện để nắm bắt các tác động động trong các quy trình chính trị và như một phương pháp để loại bỏ hồi quy tự chéo. Tuy nhiên, công trình nghiên cứu gần đây cho rằng định nghĩa biến phụ thuộc trễ quá phức tạp để sử dụng trong hầu hết các tình huống. Cụ thể hơn, nếu có sự hiện diện của hồi quy tự chéo của phần dư, thì biến phụ thuộc trễ sẽ làm cho các hệ số của các biến giải thích bị thiên lệch về phía dưới. Chúng tôi sử dụng phân tích Monte Carlo để đánh giá thực nghiệm mức độ thiên lệch hiện diện khi sử dụng biến phụ thuộc trễ trong một loạt các tình huống khác nhau. Trong phân tích của chúng tôi, chúng tôi so sánh hiệu suất của mô hình biến phụ thuộc trễ với một số mô hình chuỗi thời gian khác. Chúng tôi cho thấy rằng trong khi biến phụ thuộc trễ không phù hợp trong một số tình huống, nó vẫn là một mô hình thích hợp cho các lý thuyết động thường được kiểm tra bởi các nhà phân tích ứng dụng. Từ phân tích này, chúng tôi phát triển một số đề xuất thực tiễn về khi nào và cách sử dụng các biến phụ thuộc trễ ở phía bên phải của một mô hình.
Các nhà nghiên cứu thường sử dụng các đại lượng ước lượng từ các tập dữ liệu hỗ trợ làm biến phụ thuộc. Các mô hình biến phụ thuộc ước lượng (EDV) xuất hiện, chẳng hạn, trong các nghiên cứu khi đơn vị phân tích là các quận hoặc bang và biến phụ thuộc là một giá trị trung bình ước lượng, tỷ lệ, hoặc hệ số hồi quy. Các học giả khi điều chỉnh mô hình EDV thường nhận thức rằng độ biến thiên trong phương sai lấy mẫu của các quan sát đối với biến phụ thuộc sẽ gây ra tính không đồng nhất phương sai (heteroscedasticity). Chúng tôi chỉ ra rằng phương pháp phổ biến nhất để giải quyết vấn đề này, bình phương nhỏ nhất có trọng số (weighted least squares), thường dẫn đến các ước lượng không hiệu quả và tiêu chuẩn sai bị ước lượng thấp hơn. Trong nhiều trường hợp, OLS với các sai số chuẩn nhất quán của White hoặc Efron sẽ cho kết quả tốt hơn. Chúng tôi cũng đề xuất hai phương pháp FGLS thay thế đơn giản hơn, hiệu quả hơn và mang lại các ước lượng sai số chuẩn nhất quán. Cuối cùng, chúng tôi áp dụng các ước lượng thay thế khác nhau vào việc sao chép nghiên cứu quốc tế của Cohen (2004) về sự phê duyệt tổng thống.
Khi các đối tượng khảo sát sử dụng các loại hình phản hồi thứ bậc trong các câu hỏi khảo sát tiêu chuẩn theo những cách khác nhau, độ tin cậy của các phân tích dựa trên dữ liệu thu được có thể bị thiên lệch. Các vignette neo định hướng là một kỹ thuật thiết kế khảo sát, được giới thiệu bởi King và cộng sự (2004, Nâng cao độ tin cậy và khả năng so sánh liên văn hóa của phép đo trong nghiên cứu khảo sát.
Các nhà khoa học chính trị đang ngày càng sử dụng nhiều mô hình Tobit và Heckit. Bài báo này đề cập đến một số vấn đề phổ biến trong việc ứng dụng và diễn giải các mô hình này. Thông qua các thí nghiệm số và phân tích lại dữ liệu từ một nghiên cứu của Romer và Snyder (1994), chúng tôi minh họa những hệ quả của việc sử dụng mô hình Tobit chuẩn, vốn giả định một điểm kiểm duyệt tại zero, trong trường hợp các giá trị bằng zero không phải do cơ chế kiểm duyệt hoặc khi việc kiểm duyệt thực tế không nằm ở zero. Ở trường hợp sau, chúng tôi cũng chỉ ra rằng các kết quả nổi tiếng của Greene (1981) về hướng và kích thước của thiên lệch của ước lượng OLS trong mô hình Tobit chuẩn không nhất thiết phải đúng. Vì mô hình Heckit thường được dùng như một sự thay thế cho Tobit, chúng tôi xem xét các giả định của mô hình này và thảo luận về cách diễn giải đúng đắn kết quả ước lượng Heckit/Tobit bằng mô hình Heckit về dữ liệu đóng góp cho chiến dịch của Grier và các đồng nghiệp (1994). Các phân tích độ nhạy của kết quả ước lượng Heckit gợi ý một số kết luận khá khác biệt so với những gì mà Grier et al. đã đạt được.