Saltar para:
Logótipo
Você está em: Início > Publicações > Visualização > A Two-Stage U-Net framework for Interactive Segmentation of lung nodules in CT scans

A Two-Stage U-Net framework for Interactive Segmentation of lung nodules in CT scans

Título
A Two-Stage U-Net framework for Interactive Segmentation of lung nodules in CT scans
Tipo
Artigo em Revista Científica Internacional
Ano
2025
Autores
Fernandes, L
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Pereira, T
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Revista
Título: IEEE AccessImportada do Authenticus Pesquisar Publicações da Revista
Vol. 13
ISSN: 2169-3536
Editora: IEEE
Indexação
Publicação em Scopus Scopus - 0 Citações
Outras Informações
ID Authenticus: P-018-RZ2
Abstract (EN): Segmentation of lung nodules in CT images is an important step during the clinical evaluation of patients with lung cancer. Furthermore, early assessment of the cancer is crucial to increase the overall survival chances of patients with such disease, and the segmentation of lung nodules can help detect the cancer in its early stages. Consequently, there are many works in the literature that explore the use of neural networks for the segmentation of lung nodules. However, these frameworks tend to rely on accurate labelling of the nodule centre to then crop the input image. Although such works are able to achieve remarkable results, they do not take into account that the healthcare professional may fail to correctly label the centre of the nodule. Therefore, in this work, we propose a new framework based on the U-Net model that allows to correct such inaccuracies in an interactive fashion. It is composed of two U-Net models in cascade, where the first model is used to predict a rough estimation of the lung nodule location and the second model refines the generated segmentation mask. Our results show that the proposed framework is able to be more robust than the studied baselines. Furthermore, it is able to achieve state-of-the-art performance, reaching a Dice of 91.12% when trained and tested on the LIDC-IDRI public dataset. © 2013 IEEE.
Idioma: Inglês
Tipo (Avaliação Docente): Científica
Documentos
Não foi encontrado nenhum documento associado à publicação.
Publicações Relacionadas

Dos mesmos autores

Exploring the differences between Multi-task and Single-task with the use of hxplainable AI for lung nodule classification (2024)
Artigo em Livro de Atas de Conferência Internacional
Fernandes, L; Pereira, T; Oliveira, HP

Da mesma revista

Understanding Business Models for the Adoption of Electric Vehicles and Charging Stations: Challenges and Opportunities in Brazil (2023)
Outra Publicação em Revista Científica Internacional
Bitencourt, L; Dias, B; Soares, T; Borba, B; Quirós Tortós, J; Costa, V
Space Imaging Point Source Detection and Characterization (2024)
Outra Publicação em Revista Científica Internacional
Ribeiro, FSF; P. J. V. Garcia; Silva, M; Jaime S Cardoso
Key Indicators to Assess the Performance of LiDAR-Based Perception Algorithms: A Literature Review (2023)
Outra Publicação em Revista Científica Internacional
José Machado da Silva; K. Chiranjeevi; Correia, M. V.
IEEE ACCESS SPECIAL SECTION EDITORIAL: SOFT COMPUTING TECHNIQUES FOR IMAGE ANALYSIS IN THE MEDICAL INDUSTRY - CURRENT TRENDS, CHALLENGES AND SOLUTIONS (2018)
Outra Publicação em Revista Científica Internacional
D. Jude Hemanth; Lipo Wang; João Manuel R. S. Tavares; Fuqian Shi; Vania Vieira Estrela
Generating Synthetic Missing Data: A Review by Missing Mechanism (2019)
Outra Publicação em Revista Científica Internacional
Santos, MS; Pereira, RC; Costa, AF; Soares, JP; Santos, J; Pedro Henriques Abreu

Ver todas (109)

Recomendar Página Voltar ao Topo
Copyright 1996-2025 © Faculdade de Medicina Dentária da Universidade do Porto  I Termos e Condições  I Acessibilidade  I Índice A-Z
Página gerada em: 2025-09-09 às 14:06:17 | Política de Privacidade | Política de Proteção de Dados Pessoais | Denúncias | Livro Amarelo Eletrónico