Nội dung được dịch bởi AI, chỉ mang tính chất tham khảo
Đánh giá độ sâu của vết bỏng bằng cách sử dụng đặc trưng học sâu
Tóm tắt
Việc đánh giá độ sâu của vết bỏng là một nhiệm vụ cứu sống tính mạng và rất thách thức, đòi hỏi các kỹ thuật khách quan để hoàn thành. Mặc dù đánh giá bằng mắt là phương pháp thường được các bác sĩ phẫu thuật sử dụng nhất, nhưng độ chính xác và độ tin cậy của nó chỉ dao động từ 60 đến 80%, và mang tính chủ quan, thiếu các hướng dẫn tiêu chuẩn. Hiện tại, cơ sở tiêu chuẩn duy nhất để đánh giá lâm sàng về độ sâu của vết bỏng là Hình ảnh Doppler Laser (LDI), đo lường vi tuần hoàn trong mô da và cung cấp thời gian hồi phục tiềm năng của các vết bỏng tương ứng với độ sâu của chấn thương với độ chính xác đạt tới 100%. Tuy nhiên, việc sử dụng LDI bị hạn chế bởi nhiều yếu tố, bao gồm chi phí cao và chi phí chẩn đoán, độ chính xác của nó bị ảnh hưởng bởi sự di chuyển, điều này làm cho việc đánh giá bệnh nhân thiếu niên trở nên khó khăn, và yêu cầu mức độ chuyên môn cao từ con người để vận hành thiết bị, cũng như chỉ có thể đạt độ chính xác 100% sau 72 giờ. Những thiếu sót này làm nổi bật sự cần thiết của một kỹ thuật khách quan và có khả năng chi trả. Trong nghiên cứu này, chúng tôi tận dụng kỹ thuật học sâu chuyển giao bằng cách sử dụng hai mô hình đã được đào tạo trước là ResNet50 và VGG16 để trích xuất các mẫu hình ảnh (ResFeat50 và VggFeat16) từ một tập dữ liệu bỏng gồm 2080 hình ảnh RGB bao gồm da khỏe mạnh, vết bỏng độ một, độ hai và độ ba được phân phối đồng đều. Sau đó, chúng tôi sử dụng Máy vector hỗ trợ Nhị phân (SVM) cho việc dự đoán đa lớp và đã được đào tạo bằng cách sử dụng 10 lần kiểm tra chéo để đạt được sự cân bằng tối ưu giữa thiên lệch và phương sai. Phương pháp đề xuất cho độ chính xác dự đoán tối đa đạt 95.43% khi sử dụng ResFeat50 và 85.67% khi sử dụng VggFeat16. Độ hồi phục, độ chính xác trung bình và F1-score lần lượt đạt 95.50%, 95.50%, 95.50% cho cả ResFeat50 và VggFeat16 và 85.75%, 86.25%, 85.75% đối với VggFeat16. Quy trình đề xuất đã đạt được độ chính xác dự đoán tiên tiến và điều thú vị là cho thấy quyết định có thể được đưa ra trong vòng chưa đến một phút về việc liệu chấn thương có cần can thiệp phẫu thuật như ghép da hay không.
Từ khóa
#Đánh giá độ sâu vết bỏng #Hình ảnh Doppler Laser #Học sâu #Mô hình ResNet50 #Mô hình VGG16 #Dự đoán đa lớp #Máy vector hỗ trợ Nhị phânTài liệu tham khảo
Stone, I., et al. (2018). Advancements in regenerative strategies through the continuum of burn care. Frontiers in Pharmacology, 9, 672.
Pencle, F. J., Zulfiqar, H., & Waseem, M. (2019). First degree burn. Treasure Island: StatPearls.
Mirdell, R. (2019). Blood flow dynamics in burns. Linköping: Linköping University Electronic Press.
Ponticorvo, A., et al. (2020). Spatial Frequency Domain Imaging (SFDI) of clinical burns: A case report. Burns Open.
Ponticorvo, A., et al. (2019). Evaluating clinical observation versus spatial frequency domain imaging (SFDI), laser speckle imaging (LSI) and thermal imaging for the assessment of burn depth. Burns, 45(2), 450–460.
Niazi, Z., et al. (1993). New laser Doppler scanner, a valuable adjunct in burn depth assessment. Burns, 19(6), 485–489.
Burke-Smith, A., Collier, J., & Jones, I. (2015). A comparison of non-invasive imaging modalities: Infrared thermography, spectrophotometric intracutaneous analysis and laser Doppler imaging for the assessment of adult burns. Burns, 41(8), 1695–1707.
Mirdell, R., et al. (2020). Using blood flow pulsatility to improve the accuracy of laser speckle contrast imaging in the assessment of burns. Burns. https://doi.org/10.1016/j.burns.2020.03.008
Hoeksema, H., et al. (2014). A new, fast LDI for assessment of burns: A multi-centre clinical evaluation. Burns, 40(7), 1274–1282.
Mirdell, R., et al. (2018). Accuracy of laser speckle contrast imaging in the assessment of pediatric scald wounds. Burns, 44(1), 90–98.
Heeman, W., et al. (2019). Clinical applications of laser speckle contrast imaging: A review. Journal of Biomedical Optics, 24(8), 080901.
Mirdell, R., et al. (2016). Microvascular blood flow in scalds in children and its relation to duration of wound healing: A study using laser speckle contrast imaging. Burns, 42(3), 648–654.
Jilani, S. K., et al. (2017). A machine learning approach for ethnic classification: The British Pakistani face. In: 2017 international conference on cyberworlds (CW). 2017. IEEE.
Elmahmudi, A., & Ugail, H. (2018). Experiments on deep face recognition using partial faces. In: 2018 international conference on cyberworlds (CW). 2018. IEEE.
Polat, K., & Koc, K. O. (2020). Detection of skin diseases from dermoscopy image using the combination of convolutional neural network and one-versus-all. Journal of Artificial Intelligence and Systems, 2(1), 80–97.
Abubakar, A., & Ugail, H. (2019). Discrimination of human skin burns using machine learning. Cham: Springer.
Abubakar, A., Ugail, H., & Bukar, A. M. (2019a). Can machine learning be used to discriminate between burns and pressure ulcer? Proceedings of SAI intelligent systems conference. Berlin: Springer.
Abubakar, A., Ugail, H., & Bukar, A. M. (2019b). Noninvasive assessment and classification of human skin burns using images of Caucasian and African patients. Journal of Electronic Imaging, 29(4), 041002.
Abubakar, A., Ugail, H., & Bukar, A. M. (2020). Assessment of human skin burns: A deep transfer learning approach. Journal of Medical and Biological Engineering. https://doi.org/10.1007/s40846-020-00520-z
Abubakar, A., Ajuji, M., & Usman Yahya, I. (2020). Comparison of deep transfer learning techniques in human skin burns discrimination. Applied System Innovation, 3(2), 20.
Kuan, P., et al. (2017). A comparative study of the classification of skin burn depth in human. Journal of Telecommunication, Electronic and Computer Engineering, 9(2–10), 15–23.
Yadav, D., et al. (2019). Feature extraction based machine learning for human burn diagnosis from burn images. IEEE Journal of Translational Engineering in Health and Medicine, 7, 1–7.
Khan, F. A., et al. (2020). Computer-aided diagnosis for burnt skin images using deep convolutional neural network. Multimedia Tools and Applications. https://doi.org/10.1007/s11042-020-08768-y
Gill, P. J. (2013). The critical evaluation of laser Doppler imaging in determining burn depth. International Journal of Burns and Trauma, 3(2), 72.
Gu, J., et al. (2018). Recent advances in convolutional neural networks. Pattern Recognition, 77, 354–377.
Bukar, A. M. (2019). Automatic age progression and estimation from faces, 2019, University of Bradford.
Jilani, S., Ugail, H., & Logan, A. (2019). The computer nose best. In: 2019 13th international conference on software, knowledge, information management and applications (SKIMA). 2019. IEEE.
Simonyan, K., & Zisserman, A. (2014). Very deep convolutional networks for large-scale image recognition. arXiv preprint https://arxiv.org/1409.1556.
Deng, J., et al. (2009). Imagenet: A large-scale hierarchical image database. in 2009 IEEE conference on computer vision and pattern recognition. 2009. IEEE.
He, K., et al. (2016). Deep residual learning for image recognition. In: Proceedings of the IEEE conference on computer vision and pattern recognition. 2016.
Mahmood, A., et al. (2020). ResFeats: Residual network based features for underwater image classification. Image and Vision Computing, 93, 103811.
Dindorf, C., et al. (2020). Interpretability of input representations for gait classification in patients after total hip arthroplasty. Sensors, 20, 4385.
Vapnik, V. (2013). The nature of statistical learning theory. New York: Springer.
Blanco, V., Japón, A., & Puerto, J. (2018). Optimal arrangements of hyperplanes for multiclass classification. arXiv preprint https://arxiv.org/1810.09167.
Ragab, D. A., et al. (2019). Breast cancer detection using deep convolutional neural networks and support vector machines. PeerJ, 7, e6201.
Zhang, C., et al. (2020). Received signal strength-based indoor localization using hierarchical classification. Sensors, 20(4), 1067.
Mahfouz, A. M., Venugopal, D., & Shiva, S. G. (2020). Comparative analysis of ML classifiers for network intrusion detection. Fourth international congress on information and communication technology. Berlin: Springer.
Alabi, R. O., et al. (2020). Comparison of supervised machine learning classification techniques in prediction of locoregional recurrences in early oral tongue cancer. International Journal of Medical Informatics, 136, 104068.
Soleymani, R., Granger, E., & Fumera, G. (2020). F-measure curves: A tool to visualize classifier performance under imbalance. Pattern Recognition, 100, 107146.