Saltar para:
Logótipo
Comuta visibilidade da coluna esquerda
Você está em: Início > Publicações > Visualização > Understanding the decisions of CNNs: An in-model approach

Publicações

Understanding the decisions of CNNs: An in-model approach

Título
Understanding the decisions of CNNs: An in-model approach
Tipo
Artigo em Revista Científica Internacional
Ano
2020
Autores
Rio Torto, I
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Ver página do Authenticus Sem ORCID
Fernandes, K
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Revista
Vol. 133
Páginas: 373-380
ISSN: 0167-8655
Editora: Elsevier
Outras Informações
ID Authenticus: P-00R-YM7
Abstract (EN): With the outstanding predictive performance of Convolutional Neural Networks on different tasks and their widespread use in real-world scenarios, it is essential to understand and trust these black-box models. While most of the literature focuses on post-model methods, we propose a novel in-model joint architecture, composed by an explainer and a classifier. This architecture outputs not only a class label, but also a visual explanation of such decision, without the need for additional labelled data to train the explainer besides the image class. The model is trained end-to-end, with the classifier taking as input an image and the explainer's resulting explanation, thus allowing for the classifier to focus on the relevant areas of such explanation. Moreover, this approach can be employed with any classifier, provided that the necessary connections to the explainer are made. We also propose a three-phase training process and two alternative custom loss functions that regularise the produced explanations and encourage desired properties, such as sparsity and spatial contiguity. The architecture was validated in two datasets (a subset of ImageNet and a cervical cancer dataset) and the obtained results show that it is able to produce meaningful image- and class-dependent visual explanations, without direct supervision, aligned with intuitive visual features associated with the data. Quantitative assessment of explanation quality was conducted through iterative perturbation of the input image according to the explanation heatmaps. The impact on classification performance is studied in terms of average function value and AOPC (Area Over the MoRF (Most Relevant First) Curve). For further evaluation, we propose POMPOM (Percentage of Meaningful Pixels Outside the Mask) as another measurable criteria of explanation goodness. These analyses showed that the proposed method outperformed state-of-the-art post-model methods, such as LRP (Layer-wise Relevance Propagation).
Idioma: Inglês
Tipo (Avaliação Docente): Científica
Nº de páginas: 8
Documentos
Não foi encontrado nenhum documento associado à publicação.
Publicações Relacionadas

Da mesma revista

Special issue - Selected papers from the 11th Portuguese Conference on Pattern Recognition - RECPAD2000 - Preface (2001)
Outra Publicação em Revista Científica Internacional
Campilho, AC; Mendonca, AM
Editorial of the special section on CIARP 2021 (2022)
Outra Publicação em Revista Científica Internacional
Papa, JP; João Manuel R. S. Tavares
Video object matching across multiple independent views using local descriptors and adaptive learning (2009)
Artigo em Revista Científica Internacional
Luis F Teixeira; Luis Corte Real
Support vector machines with different norms: motivation, formulations and results (2001)
Artigo em Revista Científica Internacional
Pedroso, JP; Murata, N
Special Issue of the 11th Portuguese Conference on Pattern Recognition (PRL-RECPAD2000) (2001)
Artigo em Revista Científica Internacional
Aurélio Campilho; Ana Maria Mendonça

Ver todas (16)

Recomendar Página Voltar ao Topo
Copyright 1996-2025 © Faculdade de Direito da Universidade do Porto  I Termos e Condições  I Acessibilidade  I Índice A-Z
Página gerada em: 2025-07-23 às 04:52:05 | Política de Privacidade | Política de Proteção de Dados Pessoais | Denúncias