Political Analysis
Công bố khoa học tiêu biểu
* Dữ liệu chỉ mang tính chất tham khảo
Chúng tôi xem xét các phương pháp truyền thống để loại bỏ sự thiên lệch do phụ thuộc nội sinh trong các mô hình hồi quy, bao gồm mô hình hồi quy tuyến tính và mô hình probit. Được biết rằng quy trình hai bước của Heckman thường không nên sử dụng trong mô hình probit: từ góc độ lý thuyết, điều này không thỏa mãn và các phương pháp dự đoán có khả năng cho kết quả tốt hơn. Tuy nhiên, có những vấn đề nghiêm trọng trong tính toán xảy ra khi các phần mềm tiêu chuẩn cố gắng tối đa hóa hàm khả năng của biprobit, ngay cả khi số lượng biến điều chỉnh là nhỏ. Chúng tôi đưa ra kết luận cho thực tiễn thống kê. Cuối cùng, chúng tôi chứng minh các điều kiện mà dưới đó các tham số trong mô hình có thể nhận diện được. Các điều kiện nhận diện là rất tinh tế; chúng tôi tin rằng những kết quả này là mới.
Nghiên cứu này phân tích chương trình chính trị của phiên họp toàn thể Nghị viện Châu Âu (EP), cách mà nó đã phát triển theo thời gian, và cách mà các Nghị sĩ Nghị viện Châu Âu (MEPs) đã phản ứng với các yếu tố kích thích bên ngoài và bên trong khi phát biểu trong phiên họp toàn thể. Để làm rõ chương trình nghị sự của phiên họp toàn thể và phát hiện các chủ đề tiềm ẩn trong các bài phát biểu lập pháp qua thời gian, nội dung bài phát biểu của các MEP được phân tích bằng cách sử dụng phương pháp mô hình chủ đề động mới dựa trên hai lớp phân tích ma trận không âm (NMF). Phương pháp này được áp dụng cho một tập hợp dữ liệu mới về tất cả các bài phát biểu lập pháp bằng tiếng Anh trong phiên họp toàn thể của EP từ năm 1999 đến 2014. Các phát hiện của chúng tôi cho thấy NMF hai lớp là một lựa chọn có giá trị cho các phương pháp mô hình chủ đề động hiện có được tìm thấy trong tài liệu, và có thể làm rõ các chủ đề ngách và từ vựng liên quan mà các phương pháp hiện tại không nắm bắt được. Về mặt nội dung, các phát hiện của chúng tôi đề xuất rằng chương trình chính trị của EP tiến hóa đáng kể theo thời gian và phản ứng với các sự kiện bên ngoài như cuộc trưng cầu dân ý về Hiệp ước EU và sự xuất hiện của cuộc khủng hoảng đồng Euro. Đóng góp của các MEP cho chương trình nghị sự toàn thể cũng bị ảnh hưởng bởi hành vi bỏ phiếu và cấu trúc ủy ban của Nghị viện.
Bài báo này đề xuất phương pháp cân bằng entropy, một phương pháp tiền xử lý dữ liệu nhằm đạt được sự cân bằng biến trong các nghiên cứu quan sát với các điều trị nhị phân. Cân bằng entropy phụ thuộc vào một sơ đồ tái trọng số tối đa entropy, điều chỉnh trọng số của từng đơn vị sao cho nhóm điều trị và nhóm đối chứng đã được tái trọng số thỏa mãn một tập hợp lớn các điều kiện cân bằng đã được xác định trước, trong đó tích hợp thông tin về các khoảnh khắc mẫu đã biết. Cân bằng entropy do đó điều chỉnh chính xác sự bất bình đẳng trong đại diện liên quan đến các khoảnh khắc thứ nhất, thứ hai và có thể là các khoảnh khắc cao hơn của các phân phối biến. Những cải tiến về cân bằng này có thể giảm phụ thuộc vào mô hình cho ước lượng hiệu ứng điều trị tiếp theo. Phương pháp này đảm bảo rằng sự cân bằng cải thiện với tất cả các khoảnh khắc biến được đưa vào tái trọng số. Nó cũng loại bỏ nhu cầu kiểm tra cân bằng liên tục và tìm kiếm lặp đi lặp lại trên các mô hình điểm số xác suất có thể làm cân bằng một cách ngẫu nhiên các khoảnh khắc biến. Chúng tôi chứng minh việc sử dụng cân bằng entropy qua các mô phỏng Monte Carlo và các ứng dụng thực nghiệm.
Khi các đối tượng khảo sát sử dụng các loại hình phản hồi thứ bậc trong các câu hỏi khảo sát tiêu chuẩn theo những cách khác nhau, độ tin cậy của các phân tích dựa trên dữ liệu thu được có thể bị thiên lệch. Các vignette neo định hướng là một kỹ thuật thiết kế khảo sát, được giới thiệu bởi King và cộng sự (2004, Nâng cao độ tin cậy và khả năng so sánh liên văn hóa của phép đo trong nghiên cứu khảo sát.
Chúng tôi xem xét các sự đánh đổi liên quan đến việc sử dụng
Các nhà nghiên cứu thường sử dụng các đại lượng ước lượng từ các tập dữ liệu hỗ trợ làm biến phụ thuộc. Các mô hình biến phụ thuộc ước lượng (EDV) xuất hiện, chẳng hạn, trong các nghiên cứu khi đơn vị phân tích là các quận hoặc bang và biến phụ thuộc là một giá trị trung bình ước lượng, tỷ lệ, hoặc hệ số hồi quy. Các học giả khi điều chỉnh mô hình EDV thường nhận thức rằng độ biến thiên trong phương sai lấy mẫu của các quan sát đối với biến phụ thuộc sẽ gây ra tính không đồng nhất phương sai (heteroscedasticity). Chúng tôi chỉ ra rằng phương pháp phổ biến nhất để giải quyết vấn đề này, bình phương nhỏ nhất có trọng số (weighted least squares), thường dẫn đến các ước lượng không hiệu quả và tiêu chuẩn sai bị ước lượng thấp hơn. Trong nhiều trường hợp, OLS với các sai số chuẩn nhất quán của White hoặc Efron sẽ cho kết quả tốt hơn. Chúng tôi cũng đề xuất hai phương pháp FGLS thay thế đơn giản hơn, hiệu quả hơn và mang lại các ước lượng sai số chuẩn nhất quán. Cuối cùng, chúng tôi áp dụng các ước lượng thay thế khác nhau vào việc sao chép nghiên cứu quốc tế của Cohen (2004) về sự phê duyệt tổng thống.
Biến phụ thuộc trễ trong hồi quy OLS thường được sử dụng như một phương tiện để nắm bắt các tác động động trong các quy trình chính trị và như một phương pháp để loại bỏ hồi quy tự chéo. Tuy nhiên, công trình nghiên cứu gần đây cho rằng định nghĩa biến phụ thuộc trễ quá phức tạp để sử dụng trong hầu hết các tình huống. Cụ thể hơn, nếu có sự hiện diện của hồi quy tự chéo của phần dư, thì biến phụ thuộc trễ sẽ làm cho các hệ số của các biến giải thích bị thiên lệch về phía dưới. Chúng tôi sử dụng phân tích Monte Carlo để đánh giá thực nghiệm mức độ thiên lệch hiện diện khi sử dụng biến phụ thuộc trễ trong một loạt các tình huống khác nhau. Trong phân tích của chúng tôi, chúng tôi so sánh hiệu suất của mô hình biến phụ thuộc trễ với một số mô hình chuỗi thời gian khác. Chúng tôi cho thấy rằng trong khi biến phụ thuộc trễ không phù hợp trong một số tình huống, nó vẫn là một mô hình thích hợp cho các lý thuyết động thường được kiểm tra bởi các nhà phân tích ứng dụng. Từ phân tích này, chúng tôi phát triển một số đề xuất thực tiễn về khi nào và cách sử dụng các biến phụ thuộc trễ ở phía bên phải của một mô hình.
Các nhà khoa học chính trị đang ngày càng sử dụng nhiều mô hình Tobit và Heckit. Bài báo này đề cập đến một số vấn đề phổ biến trong việc ứng dụng và diễn giải các mô hình này. Thông qua các thí nghiệm số và phân tích lại dữ liệu từ một nghiên cứu của Romer và Snyder (1994), chúng tôi minh họa những hệ quả của việc sử dụng mô hình Tobit chuẩn, vốn giả định một điểm kiểm duyệt tại zero, trong trường hợp các giá trị bằng zero không phải do cơ chế kiểm duyệt hoặc khi việc kiểm duyệt thực tế không nằm ở zero. Ở trường hợp sau, chúng tôi cũng chỉ ra rằng các kết quả nổi tiếng của Greene (1981) về hướng và kích thước của thiên lệch của ước lượng OLS trong mô hình Tobit chuẩn không nhất thiết phải đúng. Vì mô hình Heckit thường được dùng như một sự thay thế cho Tobit, chúng tôi xem xét các giả định của mô hình này và thảo luận về cách diễn giải đúng đắn kết quả ước lượng Heckit/Tobit bằng mô hình Heckit về dữ liệu đóng góp cho chiến dịch của Grier và các đồng nghiệp (1994). Các phân tích độ nhạy của kết quả ước lượng Heckit gợi ý một số kết luận khá khác biệt so với những gì mà Grier et al. đã đạt được.
We study the properties of a three-step approach to estimating the parameters of a latent structure model for categorical data and propose a simple correction for a common source of bias. Such models have a measurement part (essentially the latent class model) and a structural (causal) part (essentially a system of logit equations). In the three-step approach, a stand-alone measurement model is first defined and its parameters are estimated. Individual predicted scores on the latent variables are then computed from the parameter estimates of the measurement model and the individual observed scoring patterns on the indicators. Finally, these predicted scores are used in the causal part and treated as observed variables. We show that such a naive use of predicted latent scores cannot be recommended since it leads to a systematic underestimation of the strength of the association among the variables in the structural part of the models. However, a simple correction procedure can eliminate this systematic bias. This approach is illustrated on simulated and real data. A method that uses multiple imputation to account for the fact that the predicted latent variables are random variables can produce standard errors for the parameters in the structural part of the model.
- 1
- 2