Saltar para:
Logótipo
Comuta visibilidade da coluna esquerda
Você está em: Início > Publicações > Visualização > A robust fingerprint presentation attack detection method against unseen attacks through adversarial learning

Publicações

A robust fingerprint presentation attack detection method against unseen attacks through adversarial learning

Título
A robust fingerprint presentation attack detection method against unseen attacks through adversarial learning
Tipo
Artigo em Livro de Atas de Conferência Internacional
Ano
2020
Autores
Pereira, JA
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Sequeira, AF
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Ver página do Authenticus Sem ORCID
Jaime S Cardoso
(Autor)
FEUP
Ata de Conferência Internacional
Páginas: 183-190
19th International Conference of the Biometrics Special Interest Group, BIOSIG 2020
16 September 2020 through 18 September 2020
Outras Informações
ID Authenticus: P-00S-ZMP
Abstract (EN): Fingerprint presentation attack detection (PAD) methods present a stunning performance in current literature. However, the fingerprint PAD generalisation problem is still an open challenge requiring the development of methods able to cope with sophisticated and unseen attacks as our eventual intruders become more capable. This work addresses this problem by applying a regularisation technique based on an adversarial training and representation learning specifically designed to to improve the PAD generalisation capacity of the model to an unseen attack. In the adopted approach, the model jointly learns the representation and the classifier from the data, while explicitly imposing invariance in the high-level representations regarding the type of attacks for a robust PAD. The application of the adversarial training methodology is evaluated in two different scenarios: i) a handcrafted feature extraction method combined with a Multilayer Perceptron (MLP); and ii) an end-to-end solution using a Convolutional Neural Network (CNN). The experimental results demonstrated that the adopted regularisation strategies equipped the neural networks with increased PAD robustness. The adversarial approach particularly improved the CNN models' capacity for attacks detection in the unseen-attack scenario, showing remarkable improved APCER error rates when compared to state-of-the-art methods in similar conditions.
Idioma: Inglês
Tipo (Avaliação Docente): Científica
Nº de páginas: 5
Documentos
Não foi encontrado nenhum documento associado à publicação.
Recomendar Página Voltar ao Topo
Copyright 1996-2025 © Faculdade de Direito da Universidade do Porto  I Termos e Condições  I Acessibilidade  I Índice A-Z
Página gerada em: 2025-07-23 às 10:45:56 | Política de Privacidade | Política de Proteção de Dados Pessoais | Denúncias