Saltar para:
Logótipo
Comuta visibilidade da coluna esquerda
Você está em: Início > Publicações > Visualização > Deep Feature-Based Automated Chest Radiography Compliance Assessment

Publicações

Deep Feature-Based Automated Chest Radiography Compliance Assessment

Título
Deep Feature-Based Automated Chest Radiography Compliance Assessment
Tipo
Artigo em Livro de Atas de Conferência Internacional
Ano
2023
Autores
Costa, M
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Pereira, SC
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Pedrosa, J
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Ana Maria Mendonça
(Autor)
FEUP
Aurélio Campilho
(Autor)
FEUP
Ver página pessoal Sem permissões para visualizar e-mail institucional Pesquisar Publicações do Participante Ver página do Authenticus Sem ORCID
Ata de Conferência Internacional
Páginas: 64-67
IEEE 7th Portuguese Meeting on Bioengineering (ENBENG)
Porto, PORTUGAL, JUN 22-23, 2023
Indexação
Publicação em ISI Web of Knowledge ISI Web of Knowledge - 0 Citações
Publicação em Scopus Scopus - 0 Citações
Outras Informações
ID Authenticus: P-00Y-P07
Abstract (EN): Chest radiography is one of the most common imaging exams, but its interpretation is often challenging and timeconsuming, which has motivated the development of automated tools for pathology/abnormality detection. Deep learning models trained on large-scale chest X-ray datasets have shown promising results but are highly dependent on the quality of the data. However, these datasets often contain incorrect metadata and non-compliant or corrupted images. These inconsistencies are ultimately incorporated in the training process, impairing the validity of the results. In this study, a novel approach to detect non-compliant images based on deep features extracted from a patient position classification model and a pre-trained VGG16 model are proposed. This method is applied to CheXpert, a widely used public dataset. From a pool of 100 images, it is shown that the deep feature-based methods based on a patient position classification model are able to retrieve a larger number of non-compliant images (up to 81% of non-compliant images), when compared to the same methods but based on a pretrained VGG16 (up to 73%) and the state of the art uncertainty-based method (50%).
Idioma: Inglês
Tipo (Avaliação Docente): Científica
Nº de páginas: 4
Documentos
Não foi encontrado nenhum documento associado à publicação.
Recomendar Página Voltar ao Topo
Copyright 1996-2025 © Faculdade de Direito da Universidade do Porto  I Termos e Condições  I Acessibilidade  I Índice A-Z
Página gerada em: 2025-10-02 às 12:04:58 | Política de Privacidade | Política de Proteção de Dados Pessoais | Denúncias | Livro Amarelo Eletrónico