Nội dung được dịch bởi AI, chỉ mang tính chất tham khảo
Các chương trình sinh chẩn đoán phân biệt: Đánh giá các chương trình máy tính hiện có
Tóm tắt
Các chương trình sinh chẩn đoán phân biệt (DDX) là các phần mềm máy tính tạo ra một danh sách chẩn đoán phân biệt dựa trên các dữ liệu lâm sàng khác nhau. Chúng tôi đã xác định các tiêu chí đánh giá thông qua sự đồng thuận, áp dụng các tiêu chí này để mô tả các đặc điểm của các chương trình DDX, và kiểm tra hiệu suất của chúng bằng cách sử dụng các tình huống từ Tạp chí Y học New England (NEJM©) và Chương trình Đánh giá Kiến thức Y khoa Tự học (MKSAP©). Đầu tiên, chúng tôi xác định các tiêu chí đánh giá bằng sự đồng thuận. Sau đó, chúng tôi đã thực hiện tìm kiếm trên Google® và Pubmed để nhận diện các chương trình DDX. Để được đưa vào danh sách, các chương trình DDX phải thực hiện các điều sau: tạo ra một danh sách các chẩn đoán khả thi thay vì các tài liệu hoặc tham khảo bài viết; xếp hạng hoặc chỉ ra các chẩn đoán quan trọng cần được xem xét hoặc loại bỏ; chấp nhận ít nhất hai dấu hiệu, triệu chứng hoặc đặc điểm bệnh lý; cung cấp khả năng so sánh các biểu hiện lâm sàng của các chẩn đoán; và cung cấp chẩn đoán trong y học tổng quát. Các tiêu chí đánh giá sau đó được áp dụng cho các chương trình DDX được đưa vào danh sách. Cuối cùng, hiệu suất của các chương trình DDX được kiểm tra bằng cách dựa trên các phát hiện từ 20 trường hợp thử nghiệm. Hiệu suất của từng trường hợp được chấm điểm từ một đến năm, với điểm số năm cho thấy sự hiện diện của chẩn đoán chính xác. Điểm trung bình và khoảng tin cậy được tính toán. Ban đầu có hai mươi ba chương trình được xác định và bốn trong số đó đáp ứng các tiêu chí đưa vào. Bốn chương trình này đã được đánh giá bằng cách sử dụng các tiêu chí đồng thuận, bao gồm các yếu tố sau: phương pháp đầu vào; truy cập trên di động; lọc và tinh chỉnh; giá trị xét nghiệm, thuốc và địa lý như các yếu tố chẩn đoán; nội dung y học dựa trên bằng chứng (EBM); tài liệu tham khảo; và nguồn thông tin về thuốc. Điểm trung bình (Khoảng tin cậy 95%) từ kiểm tra hiệu suất trên thang điểm năm được ghi nhận là Isabel© 3.45 (2.53, 4.37), DxPlain® 3.45 (2.63–4.27), Diagnosis Pro® 2.65 (1.75–3.55) và PEPID™ 1.70 (0.71–2.69). Số lượng các chẩn đoán chính xác so với điểm trung bình cho thấy sự tương quan. Các tiêu chí đồng thuận để đánh giá các chương trình DDX đã được phát triển. Việc áp dụng các tiêu chí này cũng như kiểm tra hiệu suất ủng hộ việc sử dụng DxPlain® và Isabel© hơn các chương trình DDX khác hiện có.
Từ khóa
#Chẩn đoán phân biệt #phần mềm y khoa #đánh giá hiệu suất #y học dựa trên bằng chứng #thuật toán chẩn đoánTài liệu tham khảo
CRICO Harvard Risk Management Foundation. High Risk Areas: 26% of claims are in the category of diagnosis. Accessed May 30th, 2011, at http://www.rmf.harvard.edu/high-risk-areas.
Brown TW, McCarthy ML, Kelen GD, Levy F. An epidemiologic study of closed emergency department malpractice claims in a national database of physician malpractice insurers. Acad Emerg Med. 2010;17(5):553–560.
Croskerry P. Clinical cognition and diagnostic error: applications of a dual process model of reasoning Advances In Health Sciences Education. Theory And Practice. 2009;14(Suppl 1):27–35.
Schiff, G. D., Kim, S., Abrams, R., Cosby, K., Lambert, B. L., Elstein, A. S., Hasler, S., et al., Diagnosing Diagnosis Errors: Lessons from a Multi-institutional Collaborative Project. Advances in Patient Safety: From Research to Implementation. Volumes 2, AHRQ Publication Nos. 050021 (Vols 1–4). February 2005. Agency for Healthcare Research and Quality, Rockville, MD. Accessed May 30, 2011, at http://www.ahrq.gov/qual/advances/.
Schiff GD, Bates DW. Can Electronic Clinical Documentation Help Prevent Diagnostic Errors? N Engl J Med. 2010;362(12):1066–1069.
Barnett GO, Cimino JJ, Hupp JA, Hoffer EP. DXplain An evolving diagnostic decision-support system. JAMA. 1987;258(1):67–74.
Berner ES, Webster GD, Shugerman AA, Jackson JR, Algina J, Baker AL, Ball EV, et al. Performance of four computer-based diagnostic systems. N Engl J Med. 1994;330(25):1792–1796.
Kassirer JP. A report card on computer-assisted diagnosis–the grade: C. N Engl J Med. 1994;330(25):1824–1825.
Graber ML, Mathew A. Performance of a web-based clinical diagnosis support system for internists. J Gen Intern Med. 2008;23(Suppl 1):37–40.
Ramnarayan P, Cronje N, Brown R, Negus R, Coode B, Moss P, Hassan T, et al. Validation of a diagnostic reminder system in emergency medicine: a multi-centre study. Emerg Med J. 2007;24(9):619–624.
Musen, M. A., Shahar, Y. and Shortliffe, E. H., Clinical Decision Support Systems, In: Shortliffe, E. H. and Cimino, J. J. (eds), Biomedical Informatics: Computer Applications in Health Care and New York: Springer, 2006, pp. 698–736.
Wyatt, J. and Spiegelhalter, D., Field trials of medical decision-aids: potential problems and solutions. , Proceedings of the Annual Symposium on Computer Application in Medical Care, 1991, pp. 3–7.
Kassirer J, Wong J, Kopelman R. Learning Clinical Reasoning. Philadelphia: Lippincott Williams and Wilkins; 2009.
Datena, S., Lifecom DARES Approach to Problem Based Learning and Improvement (Personal Communication of Unpublished White Paper describing the Lifecom DARES System), 2010.
Bowen JL. Educational strategies to promote clinical diagnostic reasoning. N Engl J Med. 2006;355(21):2217–2225.
Wolpaw T, Papp KK, Bordage G. Using SNAPPS to facilitate the expression of clinical reasoning and uncertainties: a randomized comparison group trial. Acad Med. 2009;84(4):517–524.
O'Malley PG, Kroenke K, Ritter J, Dy N, Pangaro L. What learners and teachers value most in ambulatory educational encounters: a prospective, qualitative study. Acad Med. 1999;74(2):186–191.
Graber ML, Tompkins D, Holland JJ. Resources medical students use to derive a differential diagnosis. Med Teach. 2009;31(6):522–527.