Truy xuất thông tin nội dung sâu cho việc phát hiện COVID-19 từ các quét CT màu sắc

Arabian Journal for Science and Engineering - Tập 48 - Trang 1935-1945 - 2022
Ameni Sassi1, Wael Ouarda2, Chokri Ben Amar1,3
1ReGIM-Lab, Research Groups in Intelligent Machines, LR11ES48, National School of Engineering of Sfax, Sfax, Tunisia
2Digital Research Center of Sfax, CRNS, Sfax, Tunisia
3Department of Computer Engineering, College of Computers and Information Technology, Taif University, Taif, Saudi Arabia

Tóm tắt

Trong bài báo này, chúng tôi điều tra vai trò của thông tin sắc màu trong các quét CT đối với việc phát hiện COVID-19 và chúng tôi nhằm xác nhận sự bao gồm của các phát hiện từ trí tuệ nhân tạo trong việc hỗ trợ chuẩn đoán COVID-19. Bài báo này đề xuất một mạng nơ-ron tích chập dựa trên phương pháp đông lạnh, sử dụng biến đổi hình thái của hình ảnh CT để phân loại các nhóm bệnh nhân COVID-19 nhằm hỗ trợ trong việc dự đoán và giám sát bệnh viêm phổi. Các thí nghiệm tiến hành trên các hình ảnh CT được thu thập từ các công trình trước đây đã chứng minh đây là một công cụ mạnh mẽ để nhận diện các tổn thương trong hình ảnh CT với độ chính xác và tốc độ cao hơn hẳn. Kiến trúc CNN được đề xuất đã phản ánh sự phát triển của virus trong các bệnh nhân bị nhiễm bệnh và đạt được độ chính xác là 87,56%, cao hơn 3% so với phương pháp cơ bản trên cơ sở dữ liệu hình ảnh CT hiện có.

Từ khóa

#COVID-19 #phát hiện #quét CT màu sắc #mạng nơ-ron tích chập #trí tuệ nhân tạo #giám sát bệnh viêm phổi

Tài liệu tham khảo

Guido, B.; Bracci, C.; de Dominicis, A.: Laghi, Chest CT features of Covid-19 in Rome, Italy, Radiology 201237, pMID: 32243238. https://doi.org/10.1148/radiol.2020201237. Bai, H. X.; Hsieh, B.; Xiong, Z.; Halsey, K.; Choi, J. W.; Tran, T. M. L.; Pan, I.; Shi, L.-B.; Wang, D.-C.; Mei, J.; Jiang, X.-L.; Zeng, Q.-H. ; Egglin, T. K.; Hu, P.-F.; Agarwal, S.; Xie, F.; Li, S.; Healey, T.; Atalay, M. K.; Liao, W.-H.: Performance of radiologists in differentiating covid-19 from viral pneumonia on chest CT, Radiology 200823, pMID: 32155105. https://doi.org/10.1148/radiol.2020200823. Zu, Z.Y.; Jiang, M.D.; Xu, P.P.; Chen, W.; Ni, Q.Q.; Lu, G.M.; Zhang, L.J.: Coronavirus disease 2019 (covid-19): A perspective from china, Radiology 200490, pMID: 32083985. https://doi.org/10.1148/radiol.2020200490. Fang, Y.; Li, W.; Li, K.; et al.: CT image visual quantitative evaluation and clinical classification of coronavirus disease (covid-19), Eur. Radiol. (2020). https://doi.org/10.1007/s00330-020-06817-6. Islam, N.; Ebrahimzadeh, S.; Salameh, J-P.; Kazi, S.; Fabiano, N.; Treanor, L.; Absi, M.; Hallgrimson, Z.; Leeflang, MMG.; Hooft, L.; van der Pol, CB.; Prager, R.; Hare, SS.; Dennie, C.; Spijker, R.; Deeks, JJ.; Dinnes, J.; Jenniskens, K.; Korevaar, DA.; Cohen, JF.; Van den Bruel, A.; Takwoingi, Y.; van de Wijgert, J.; Damen, JAAG.; Wang, J.; McInnes, MDF.: Thoracic imaging tests for the diagnosis of COVID-19. Cochrane Database of Systematic Reviews (3), CD013639. (2021). https://doi.org/10.1002/14651858.CD013639.pub4. Accessed 16 April 2022 Deng, Dong, W.; Socher, R.; Li, L.; Li, Kai.; Fei-Fei, Li.: Imagenet: A large-scale hierarchical image database, In: 2009 IEEE conference on computer vision and pattern recognition, pp. 248-255 (2009) Islam, M.Z.; Islam, M.M.; Asraf, A.: A combined deep CNN-LSTM network for the detection of novel coronavirus (COVID-19) using X-ray images, Inform. Med. Unlocked, 20, 100412 (2020). ISSN 2352-9148. https://doi.org/10.1016/j.imu.2020.100412 Aslan, M.F.; Unlersen, M.F.; Sabanci, K.; Durdu, A.: CNN-based transfer learning-BiLSTM network: A novel approach for COVID-19 infection detection, Applied Soft Computing, 98, 106912 (2021). ISSN 1568-4946, https://doi.org/10.1016/j.asoc.2020.106912 Monshi, M.M.A.; Poon, J.; Chung, V.; Monshi, F.M.: CovidXrayNet: Optimizing data augmentation and CNN hyperparameters for improved COVID-19 detection from CXR, Computers in Biology and Medicine, 133, 104375 (2021) ISSN 0010-4825. https://doi.org/10.1016/j.compbiomed.2021.104375 Krizhevsky, A.; Sutskever, I.; Hinton, G.E.: Imagenet classification with deep convolutional neural networks. In: Pereira, F., Burges, C.J.C., Bottou, L., Weinberger, K.Q. (eds.) Advances in Neural Information Processing Systems, pp. 1097–1105. Curran Associates Inc, Red Hook, NY, USA (2012) Shaziya, H.; Shyamala, K.; Zaheer, R.: Automatic lung segmentation on thoracic CT scans using u-net convolutional network, In: 2018 international conference on communication and signal processing (ICCSP), (2018), pp. 0643-0647 Sousa, P.; Galdran, A.; Costa, P.; Campilho, A.: Learning to segment the lung volume from CT scans based on semi-automatic ground-truth, In: 2019 IEEE 16th international symposium on biomedical imaging (ISBI 2019), pp. 1202–1206 (2019) Larbi, K.; Ouarda, W.; Drira, H.; Ben Amor, B.; Ben Amar, C.: Deepcolorfasd: Face anti spoofing solution using a multi channeled color spaces cnn, In: 2018 IEEE international conference on systems, man, and cybernetics (SMC), (2018), pp. 4011-4016. Paul, R.; Hall, L.; Goldgof, D.; Schabath, M.; Gillies, R.: Predicting nodule malignancy using a CNN ensemble approach, In: 2018 international joint conference on neural networks (IJCNN), pp. 1-8 (2018) Basly, H.; Ouarda, W.; Sayadi, F.E.; Ouni, B.; Alimi. A.M.: 2022. DTR-HAR: deep temporal residual representation for human activity recognition. Vis. Comput. 38(3) 993-1013 (2022). https://doi.org/10.1007/s00371-021-02064-y Iandola, F. N.; Han, S.; Moskewicz, M. W.; Ashraf, K.; Dally, W. J.; Keutzer, K.: Squeezenet: Alexnet-level accuracy with 50x fewer parameters and<0.5mb model size, arXiv:1602.07360 (2016). Simonyan, K.; Zisserman, A.: Very deep convolutional networks for large-scale image recognition, in: Y. Bengio, Y. LeCun (Eds.), 3rd international conference on learning representations, ICLR 2015, San Diego, CA, 2015, Conference Track Proceedings, (2015). http://arxiv.org/abs/1409.1556 Simonyan, K.; Zisserman, A.: Very deep convolutional networks for large-scale image recognition (2014). arXiv:1409.1556. Szegedy, C.; Liu, W.; Jia, Y.; Sermanet, P.; Reed, S. E.; Anguelov, D.; Erhan, D.; Vanhoucke, V.; Rabinovich, A.: Going deeper with convolutions, CoRR abs/1409.4842 (2014). arXiv:1409.4842. http://arxiv.org/abs/1409.4842 Kaiming, He., et al.: Deep residual learning for image recognition. In: Proceedings of the IEEE conference on computer vision and pattern recognition. (2016). He, K.; Zhang, X.; Ren, S.; Sun, J.: Deep residual learning for image recognition, CoRR abs/1512.03385 (2015). arXiv:1512.03385. http://arxiv.org/abs/1512.03385 Zhao, J.; Zhang, Y.; He, X.; Xie, P.: Covid-CT-dataset: a CT scan dataset about Covid-19, Preprint arXiv:2003.13865 (2020). LeCun, Y.; Bengio, Y.; Hinton, G.: Deep learning. Nature (521), 436–444 (2015). https://doi.org/10.1038/nature14539 Sassi, A.; Ouarda, W.; Ben Amar, C.; Miguet, S.: Neural Approach for Context Scene Image Classification Based on Geometric, Texture and Color Information. In: Chen, L., Ben Amor, B., Ghorbel, F. (eds) Representations, Analysis and Recognition of Shape and Motion from Imaging Data. RFMI 2017. Communications in Computer and Information Science, 842. Springer, Cham. (2019) https://doi.org/10.1007/978-3-030-19816-9-9 Sassi, Ameni; Ouarda, Wael; Amar, Chokri Ben; Miguet, Serge: Sky-CNN: A CNN-based learning approach for skyline scene understanding. Int. J. Intell. Syst. Appl. 4, 14–25 (2019) Sassi, A.; Ouarda, W.; Amar, C.B.; Miguet, S.: Hierarchical two-pathway autoencoders neural networks for skyline context conceptualisation. Int. J. Inf. Decis. Sci. 12(4), 299–327 (2020) Kingma, D. P.; Ba, J.: Adam: A method for stochastic optimization, in: Y. Bengio, Y. LeCun (Eds.), 3rd international conference on learning representations, ICLR 2015, San Diego, CA, 2015, Conference Track Proceedings, (2015). http://arxiv.org/abs/1412.6980