Nội dung được dịch bởi AI, chỉ mang tính chất tham khảo
LandmarkNet: một bộ ước lượng điểm mốc hình ảnh X-quang kỹ thuật số 2D cho việc đăng ký
Tóm tắt
Liệu pháp bức xạ yêu cầu độ chính xác cao để nhắm mục tiêu và gia tăng liều ở các vùng bị ảnh hưởng trong khi giảm thiểu mô bình thường lân cận tiếp xúc với các liều bức xạ cao. Hướng dẫn hình ảnh đã trở thành nghệ thuật tiên tiến trong quá trình điều trị. Việc đăng ký giữa các hình ảnh X-quang kỹ thuật số megavoltage (MV-DRs) và hình ảnh X-quang kỹ thuật số kilovoltage (KV-DRRs) là khó khăn do chất lượng kém của MV-DRs. Chúng tôi đơn giản hóa vấn đề bằng cách đăng ký giữa các điểm mốc thay vì toàn bộ thông tin hình ảnh, từ đó chúng tôi đề xuất một mô hình để ước lượng điểm mốc một cách chính xác. Sau khi phân tích của các bác sĩ, điều này được chứng minh là hiệu quả khi đăng ký thông qua một số đặc điểm sinh lý như mỏm gai, nhánh khí quản và góc Louis. Chúng tôi đề xuất LandmarkNet, một kiến trúc ước lượng điểm mốc mới, có thể tự động phát hiện các điểm mốc trong các hình ảnh y tế bị mờ. Phương pháp này áp dụng ý tưởng của Mạng Đặc Trưng Kim Tự Tháp (FPN) hai lần để gộp các đặc điểm xuyên quy mô và xuyên lớp để trích xuất đặc điểm và ước lượng điểm mốc liên tiếp. Giám sát trung gian được sử dụng ở cuối FPN đầu tiên để đảm bảo rằng các tham số cơ bản được cập nhật theo cách bình thường. Mạng này cuối cùng tạo ra bản đồ nhiệt để hiển thị vị trí gần đúng của các điểm mốc và chúng tôi đạt được ước lượng vị trí chính xác sau khi xử lý không cực đại (NMS). Phương pháp của chúng tôi có thể đạt được ước lượng điểm mốc chính xác trong tập dữ liệu do một số bệnh viện ung thư cung cấp và được gán nhãn bởi chúng tôi. Tỷ lệ phần trăm điểm mốc chính xác (PCK) trong vòng 8 pixel của ước lượng cho mỏm gai, nhánh khí quản và góc Louis lần lượt là 81.24%, 98.95% và 85.61%. Đối với ba điểm mốc trên, độ lệch trung bình giữa vị trí dự đoán của mỗi điểm mốc và sự thật mặt đất tương ứng lần lượt là 2.38, 0.98 và 2.64 pixel. Ước lượng điểm mốc dựa trên LandmarkNet có độ chính xác cao cho các loại điểm mốc khác nhau. Mô hình của chúng tôi ước lượng vị trí của nhánh khí quản đặc biệt chính xác bởi vì các đặc điểm rõ rệt của nó. Đối với mỏm gai, mô hình của chúng tôi hoạt động tốt về ước lượng số lượng cũng như ước lượng vị trí. Ứng dụng rộng rãi của phương pháp này hỗ trợ các bác sĩ trong liệu pháp bức xạ hướng dẫn bằng hình ảnh (IGRT) và cung cấp khả năng điều trị chính xác theo đúng nghĩa.
Từ khóa
#liệu pháp bức xạ #X-quang kỹ thuật số #đăng ký hình ảnh #LandmarkNet #ước lượng điểm mốc #hình ảnh y tếTài liệu tham khảo
Zitová B, Flusser J. Image registration methods: a survey. Image Vis Comput. 2003; 21(11):977–1000.
Cong L, Miao H, M L. Synthesizing kv-drrs from mv-drs with fractal hourglass convolutional network. Electron Lett. 2018; 54(12):762–4.
Lan T, Li Y, Murugi JK, Ding Y, Qin Z. Run: Residual u-net for computer-aided detection of pulmonary nodules without candidate selection. arXiv preprint arXiv:1805.11856. 2018; 1805(11856):1–12.
Cootes TF, Taylor CJ, Cooper DH, Graham J. Active shape models-their training and application. Comp Vision Image Underst. 1995; 61(1):38–59.
Edwards GJ, Cootes TF, Taylor CJ. Face recognition using active appearance models. In: European Conference on Computer Vision. Springer: 1998. p. 581–95.
Cootes TF, Edwards GJ, Taylor CJ. Active appearance models. IEEE Trans Pattern Anal Mach Intell. 2001; 6:681–5.
Dollár P, Welinder P, Perona P. Cascaded pose regression. In: 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE: 2010. p. 1078–85.
Sun Y, Wang X, Tang X. Deep convolutional network cascade for facial point detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. IEEE: 2013. p. 3476–3483.
Zhou E, Fan H, Cao Z, Jiang Y, Yin Q. Extensive facial landmark localization with coarse-to-fine convolutional network cascade. In: Proceedings of the IEEE International Conference on Computer Vision Workshops. IEEE: 2013. p. 386–391.
Zhang Z, Luo P, Loy CC, Tang X. Facial landmark detection by deep multi-task learning. In: European Conference on Computer Vision. Springer: 2014. p. 94–108.
Wu Y, Hassner T, Kim K, Medioni G, Natarajan P. Facial landmark detection with tweaked convolutional neural networks. IEEE Trans Pattern Anal Mach Intell. 2018; 40(12):3067–74.
Zhang K, Zhang Z, Li Z, Qiao Y. Joint face detection and alignment using multitask cascaded convolutional networks. IEEE Signal Process Lett. 2016; 23(10):1499–1503.
Kowalski M, Naruniec J, Trzcinski T. Deep alignment network: A convolutional neural network for robust face alignment. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. IEEE: 2017. p. 88–97.
Pfister T, Charles J, Zisserman A. Flowing convnets for human pose estimation in videos. In: Proceedings of the IEEE International Conference on Computer Vision. IEEE: 2015. p. 1913–21.
Newell A, Yang K, Deng J. Stacked hourglass networks for human pose estimation. In: European Conference on Computer Vision. Springer: 2016. p. 483–99.
Kocabas M, Karagoz S, Akbas E. Multiposenet: Fast multi-person pose estimation using pose residual network. In: Proceedings of the European Conference on Computer Vision (ECCV). ECCV: 2018. p. 417–433.
Lin T-Y, Dollár P, Girshick R, He K, Hariharan B, Belongie S. Feature pyramid networks for object detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. IEEE: 2017. p. 2117–25.
Nibali A, He Z, Morgan S, Prendergast L. Numerical coordinate regression with convolutional neural networks. arXiv preprint. 2018; 1801(07372):1–8.
Chen L-C, Papandreou G, Schroff F, Adam H. Rethinking atrous convolution for semantic image segmentation. arXiv preprint arXiv:1706.05587. 2017; 1706(05587):1–12.
Yang W, Li S, Ouyang W, Li H, Wang X. Learning feature pyramids for human pose estimation. In: Proceedings of the IEEE International Conference on Computer Vision. IEEE: 2017. p. 1281–1290.