Saltar para:
Logótipo
Comuta visibilidade da coluna esquerda
Você está em: Início > Publicações > Visualização > Towards a Joint Approach to Produce Decisions and Explanations Using CNNs

Publicações

Towards a Joint Approach to Produce Decisions and Explanations Using CNNs

Título
Towards a Joint Approach to Produce Decisions and Explanations Using CNNs
Tipo
Artigo em Livro de Atas de Conferência Internacional
Ano
2020
Autores
Isabel Rio-Torto
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Ver página do Authenticus Sem ORCID
Kelwin Fernandes
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Ata de Conferência Internacional
Páginas: 3-15
9th Iberian Conference on Pattern Recognition and Image Analysis, IbPRIA 2019
1 July 2019 through 4 July 2019
Indexação
Outras Informações
ID Authenticus: P-00R-FAP
Resumo (PT):
Abstract (EN): Convolutional Neural Networks, as well as other deep learning methods, have shown remarkable performance on tasks like classification and detection. However, these models largely remain black-boxes. With the widespread use of such networks in real-world scenarios and with the growing demand of the right to explanation, especially in highly-regulated areas like medicine and criminal justice, generating accurate predictions is no longer enough. Machine learning models have to be explainable, i.e., understandable to humans, which entails being able to present the reasons behind their decisions. While most of the literature focuses on post-model methods, we propose an in-model CNN architecture, composed by an explainer and a classifier. The model is trained end-to-end, with the classifier taking as input not only images from the dataset but also the explainer¿s resulting explanation, thus allowing for the classifier to focus on the relevant areas of such explanation. We also developed a synthetic dataset generation framework, that allows for automatic annotation and creation of easy-to-understand images that do not require the knowledge of an expert to be explained. Promising results were obtained, especially when using L1 regularisation, validating the potential of the proposed architecture and further encouraging research to improve the proposed architecture¿s explainability and performance. © 2019, Springer Nature Switzerland AG.
Idioma: Inglês
Tipo (Avaliação Docente): Científica
Nº de páginas: 13
Documentos
Não foi encontrado nenhum documento associado à publicação.
Recomendar Página Voltar ao Topo
Copyright 1996-2025 © Faculdade de Direito da Universidade do Porto  I Termos e Condições  I Acessibilidade  I Índice A-Z
Página gerada em: 2025-09-28 às 15:53:41 | Política de Privacidade | Política de Proteção de Dados Pessoais | Denúncias | Livro Amarelo Eletrónico