Statistics in Medicine

Công bố khoa học tiêu biểu

* Dữ liệu chỉ mang tính chất tham khảo

Sắp xếp:  
The bootstrap and identification of prognostic factors via cox's proportional hazards regression model
Statistics in Medicine - Tập 4 Số 1 - Trang 39-46 - 1985
Chen‐Hsin Chen, Stephen L. George
Abstract

This paper describes the use of the bootstrap,1,2 a new computer‐based statistical methodology, to help validate a regression model resulting from the fitting of Cox's proportional hazards model3 to a set of censored survival data. As an example, we define a prognostic model for outcome in childhood acute lymphocytic leukemia with the Cox model and use of a training set of 224 patients. To validate the accuracy of the model, we use a bootstrap resampling technique to mimic the population under study in two stages. First, we select the important prognostic factors via a stepwise regression procedure with 100 bootstrap samples. Secondly we estimate the corresponding regression parameters for these important factors with 400 bootstrap samples. The bootstrap result suggests that the model constructed from the training set is reasonable.

Hướng Tới Thực Hành Tốt Nhất Khi Sử Dụng Cân Bằng Xác Suất Đối Sử (IPTW) Dựa Trên Điểm Khuynh Hướng Để Ước Lượng Hiệu Ứng Đối Sử Nhân Quả Trong Nghiên Cứu Quan Sát
Statistics in Medicine - Tập 34 Số 28 - Trang 3661-3679 - 2015
Peter C. Austin, Elizabeth A. Stuart
Điểm khuynh hướng được định nghĩa là xác suất của đối tượng đối với việc chọn lựa điều trị, dựa trên các biến cơ bản được quan sát. Cân bằng đối tượng theo xác suất nghịch đảo của điều trị nhận được sẽ tạo ra một mẫu tổng hợp trong đó việc phân bổ điều trị độc lập với các biến cơ bản được đo lường. Cân bằng xác suất đối sử nghịch đảo (IPTW) dựa trên điểm khuynh hướng cho phép người ta thu được ước lượng không thiên vị của hiệu ứng điều trị trung bình. Tuy nhiên, các ước lượng này chỉ có giá trị nếu không có sự khác biệt có hệ thống còn sót lại trong các đặc điểm cơ bản đã quan sát giữa các đối tượng được điều trị và đối chứng trong mẫu được cân bằng bởi xác suất nghịch đảo điều trị ước tính. Chúng tôi báo cáo về một đánh giá hệ thống tài liệu, trong đó chúng tôi đã phát hiện rằng việc sử dụng IPTW đã gia tăng nhanh chóng trong những năm gần đây, nhưng trong năm gần nhất, phần lớn nghiên cứu không kiểm tra chính thức liệu rằng việc cân bằng đã cân bằng các biến số giữa các nhóm điều trị hay không. Sau đó, chúng tôi tiến hành mô tả một tập hợp các phương pháp định lượng và định tính cho phép người ta đánh giá liệu các biến cơ bản được đo lường có được cân bằng giữa các nhóm điều trị trong mẫu đã cân bằng hay không. Các phương pháp định lượng sử dụng sự khác biệt tiêu chuẩn hóa có trọng số để so sánh tiêu chuẩn, tỷ lệ ưu tiên, các khoảnh khắc bậc cao hơn, và các sự tương tác. Các phương pháp định tính sử dụng các phương pháp đồ hoạ để so sánh phân phối của các biến cơ bản liên tục giữa các đối tượng điều trị và đối chứng trong mẫu đã cân bằng. Cuối cùng, chúng tôi minh họa việc áp dụng các phương pháp này trong một nghiên cứu trường hợp thực nghiệm. Chúng tôi đề xuất một bộ chuẩn đo lường cân bằng chính thức góp phần vào khái niệm 'thực hành tốt nhất' đang phát triển khi sử dụng IPTW để ước lượng hiệu ứng điều trị nhân quả bằng dữ liệu quan sát. © 2015 Các Tác Giả. Statistics in Medicine Được xuất bản bởi John Wiley & Sons Ltd.
#điểm khuynh hướng #cân bằng xác suất đối sử nghịch đảo #hiệu ứng điều trị trung bình #kiểm tra cân bằng #nghiên cứu quan sát
Nhiều lần ước lượng dữ liệu khuyết với phương trình xích: Các vấn đề và hướng dẫn thực hành
Statistics in Medicine - Tập 30 Số 4 - Trang 377-399 - 2011
Ian R. White, Patrick Royston, Angela Wood
Tóm tắt

Nhiều lần ước lượng dữ liệu khuyết bằng phương trình xích là một cách tiếp cận linh hoạt và thiết thực để xử lý dữ liệu bị mất. Chúng tôi mô tả các nguyên tắc của phương pháp này và trình bày cách ước lượng dữ liệu cho các biến số phân loại và định lượng, bao gồm cả các biến số phân phối lệch. Chúng tôi đưa ra hướng dẫn về cách chỉ định mô hình ước lượng và số lần ước lượng cần thiết. Chúng tôi mô tả việc phân tích thực tế các dữ liệu đã được ước lượng nhiều lần, bao gồm cả quá trình xây dựng mô hình và kiểm tra mô hình. Chúng tôi nhấn mạnh những hạn chế của phương pháp và thảo luận các khả năng gặp phải sai lầm. Chúng tôi minh họa các ý tưởng bằng một bộ dữ liệu trong lĩnh vực sức khỏe tâm thần, kèm theo các đoạn mã Stata. Bản quyền © 2010 John Wiley & Sons, Ltd.

#ước lượng dữ liệu khuyết #phương trình xích #mô hình ước lượng #phân tích dữ liệu #sức khỏe tâm thần
Xác định mối liên hệ nhân quả trong dịch tễ học bằng cách sử dụng gen như công cụ: Phương pháp hoán vị Mendel
Statistics in Medicine - Tập 27 Số 8 - Trang 1133-1163 - 2008
Debbie A. Lawlor, Roger Harbord, Jonathan A C Sterne, Nicholas J. Timpson, George Davey Smith
Tóm tắt

Các nghiên cứu dịch tễ học quan sát thường gặp nhiều xung đột tiềm ẩn, từ nhiễu đồng biến và do mối nhân quả ngược, điều này hạn chế khả năng xác định mạnh mẽ mối quan hệ nhân quả của chúng. Đã có nhiều tình huống nổi bật trong đó các thử nghiệm kiểm soát ngẫu nhiên của chính xác các can thiệp đã được khảo sát trong các nghiên cứu quan sát đã cho ra kết quả khác biệt rõ rệt. Trong các lĩnh vực khoa học quan sát khác, việc sử dụng các phương pháp biến công cụ (IV - Instrumental Variable) là một phương án tiếp cận để củng cố các suy luận nhân quả trong các tình huống không thực nghiệm. Sử dụng các biến đổi gen mầm uỷ để làm các công cụ cho các tiếp xúc có thể điều chỉnh môi trường là một dạng phân tích IV có thể thực hiện trong các nghiên cứu dịch tễ học quan sát. Phương pháp này được gọi là 'hoán vị Mendel', và có thể được coi như tương tự với các thử nghiệm kiểm soát ngẫu nhiên. Bài viết này giới thiệu phương pháp hoán vị Mendel, làm nổi bật sự tương đồng với các phương pháp IV, cung cấp ví dụ về việc thực hiện phương pháp này và thảo luận các hạn chế của phương pháp cũng như một số phương pháp để giải quyết những vấn đề này. Bản quyền © 2007 John Wiley & Sons, Ltd.

#dịch tễ học #hoán vị Mendel #biến công cụ (IV) #suy luận nhân quả #kiểm soát ngẫu nhiên #biến đổi gen mầm uỷ
Probabilistic forecasting in infectious disease epidemiology: the 13th Armitage lecture
Statistics in Medicine - Tập 36 Số 22 - Trang 3443-3460 - 2017
Leonhard Held, Sebastian Meyer, Johannes Bracher
Practical recommendations for reporting<scp>F</scp>ine‐<scp>G</scp>ray model analyses for competing risk data
Statistics in Medicine - Tập 36 Số 27 - Trang 4391-4400 - 2017
Peter C. Austin, Jason P. Fine

In survival analysis, a competing risk is an event whose occurrence precludes the occurrence of the primary event of interest. Outcomes in medical research are frequently subject to competing risks. In survival analysis, there are 2 key questions that can be addressed using competing risk regression models: first, which covariates affect the rate at which events occur, and second, which covariates affect the probability of an event occurring over time. The cause‐specific hazard model estimates the effect of covariates on the rate at which events occur in subjects who are currently event‐free. Subdistribution hazard ratios obtained from the Fine‐Gray model describe the relative effect of covariates on the subdistribution hazard function. Hence, the covariates in this model can also be interpreted as having an effect on the cumulative incidence function or on the probability of events occurring over time. We conducted a review of the use and interpretation of the Fine‐Gray subdistribution hazard model in articles published in the medical literature in 2015. We found that many authors provided an unclear or incorrect interpretation of the regression coefficients associated with this model. An incorrect and inconsistent interpretation of regression coefficients may lead to confusion when comparing results across different studies. Furthermore, an incorrect interpretation of estimated regression coefficients can result in an incorrect understanding about the magnitude of the association between exposure and the incidence of the outcome. The objective of this article is to clarify how these regression coefficients should be reported and to propose suggestions for interpreting these coefficients.

A threshold‐free summary index of prediction accuracy for censored time to event data
Statistics in Medicine - Tập 37 Số 10 - Trang 1671-1681 - 2018
Yan Yuan, Qian M. Zhou, Bingying Li, Hengrui Cai, Eric J. Chow, Gregory T. Armstrong

Prediction performance of a risk scoring system needs to be carefully assessed before its adoption in clinical practice. Clinical preventive care often uses risk scores toscreenasymptomatic population. The primary clinical interest is to predict the risk of having an event by a prespecifiedfuturetimet0. Accuracy measures such as positive predictive values have been recommended for evaluating the predictive performance. However, for commonly used continuous or ordinal risk score systems, these measures require a subjective cutoff threshold value that dichotomizes the risk scores. The need for a cutoff value created barriers for practitioners and researchers. In this paper, we propose a threshold‐free summary index of positive predictive values that accommodates time‐dependent event status and competing risks. We develop a nonparametric estimator and provide an inference procedure for comparing this summary measure between 2 risk scores for censored time to event data. We conduct a simulation study to examine the finite‐sample performance of the proposed estimation and inference procedures. Lastly, we illustrate the use of this measure on a real data example, comparing 2 risk score systems for predicting heart failure in childhood cancer survivors.

Evaluating health risk models
Statistics in Medicine - Tập 29 Số 23 - Trang 2438-2452 - 2010
Alice S. Whittemore
Abstract

Interest in targeted disease prevention has stimulated development of models that assign risks to individuals, using their personal covariates. We need to evaluate these models and quantify the gains achieved by expanding a model to include additional covariates. This paper reviews several performance measures and shows how they are related. Examples are used to show that appropriate performance criteria for a risk model depend upon how the model is used. Application of the performance measures to risk models for hypothetical populations and for US women at risk of breast cancer illustrate two additional points. First, model performance is constrained by the distribution of risk‐determining covariates in the population. This complicates the comparison of two models when applied to populations with different covariate distributions. Second, all summary performance measures obscure model features of relevance to its utility for the application at hand, such as performance in specific subgroups of the population. In particular, the precision gained by adding covariates to a model can be small overall, but large in certain subgroups. We propose new ways to identify these subgroups and to quantify how much they gain by measuring the additional covariates. Those with largest gains could be targeted for cost‐efficient covariate assessment. Copyright © 2010 John Wiley & Sons, Ltd.

Multiple imputation: review of theory, implementation and software
Statistics in Medicine - Tập 26 Số 16 - Trang 3057-3077 - 2007
Ofer Harel, Xiao‐Hua Zhou
Abstract

Missing data is a common complication in data analysis. In many medical settings missing data can cause difficulties in estimation, precision and inference. Multiple imputation (MI) (Multiple Imputation for Nonresponse in Surveys. Wiley: New York, 1987) is a simulation‐based approach to deal with incomplete data. Although there are many different methods to deal with incomplete data, MI has become one of the leading methods. Since the late 1980s we observed a constant increase in the use and publication of MI‐related research. This tutorial does not attempt to cover all the material concerning MI, but rather provides an overview and combines together the theory behind MI, the implementation of MI, and discusses increasing possibilities of the use of MI using commercial and free software. We illustrate some of the major points using an example from an Alzheimer disease (AD) study. In this AD study, while clinical data are available for all subjects, postmortem data are only available for the subset of those who died and underwent an autopsy. Analysis of incomplete data requires making unverifiable assumptions. These assumptions are discussed in detail in the text. Relevant S‐Plus code is provided. Copyright © 2007 John Wiley & Sons, Ltd.

Statistical and ethical issues in monitoring clinical trials
Statistics in Medicine - Tập 12 Số 15-16 - Trang 1459-1469 - 1993
Stuart J. Pocock
Abstract

Most randomized clinical trials require periodic monitoring of the accumulating data. While the efficiency of trial management is enhanced by data monitoring, ethical reasons should primarily dictate the need to terminate or change a trial in response to interim findings.

This article focuses on the ethical dilemma of when to stop a clinical trial and places statistical stopping rules in the context of such ethical decision making. Other issues include the organization of data monitoring committees and the problems of premature publication and exaggerated estimation in trials that stop early. Several topical examples are used to convey the relevance of these issues to current practice.

Tổng số: 138   
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 10