Saltar para:
Logótipo
Comuta visibilidade da coluna esquerda
Você está em: Início > Publicações > Visualização > Analyzing the Footprint of Classifiers in Adversarial Denial of Service Contexts

Publicações

Analyzing the Footprint of Classifiers in Adversarial Denial of Service Contexts

Título
Analyzing the Footprint of Classifiers in Adversarial Denial of Service Contexts
Tipo
Artigo em Livro de Atas de Conferência Internacional
Ano
2019-08-30
Autores
Nuno Martins
(Autor)
Outra
Ver página pessoal Sem permissões para visualizar e-mail institucional Pesquisar Publicações do Participante Sem AUTHENTICUS Sem ORCID
José Magalhães Cruz
(Autor)
FEUP
Pedro Henriques Abreu
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Tiago Cruz
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Ata de Conferência Internacional
Páginas: 256-267
19th EPIA Conference on Artificial Intelligence, EPIA 2019
3 September 2019 through 6 September 2019
Outras Informações
Resumo (PT):
Abstract (EN): Adversarial machine learning is an area of study that examines both the generation and detection of adversarial examples, which are inputs specially crafted to deceive classifiers, and has been extensively researched specifically in the area of image recognition, where humanly imperceptible modifications are performed on images that cause a classifier to perform incorrect predictions. The main objective of this paper is to study the behavior of multiple state of the art machine learning algorithms in an adversarial context. To perform this study, six different classification algorithms were used on two datasets, NSL-KDD and CICIDS2017, and four adversarial attack techniques were implemented with multiple perturbation magnitudes. Furthermore, the effectiveness of training the models with adversaries to improve recognition is also tested. The results show that adversarial attacks successfully deteriorate the performance of all the classifiers between 13% and 40%, with the Denoising Autoencoder being the technique with highest resilience to attacks.
Idioma: Inglês
Tipo (Avaliação Docente): Científica
Nº de páginas: 12
Documentos
Não foi encontrado nenhum documento associado à publicação com acesso permitido.
Publicações Relacionadas

Dos mesmos autores

Adversarial Machine Learning Applied to Intrusion and Malware Scenarios: A Systematic Review (2020)
Artigo em Revista Científica Internacional
Nuno Martins; José Magalhães Cruz; Tiago Cruz; Pedro Henriques Abreu
Recomendar Página Voltar ao Topo
Copyright 1996-2025 © Faculdade de Direito da Universidade do Porto  I Termos e Condições  I Acessibilidade  I Índice A-Z
Página gerada em: 2025-07-24 às 06:23:00 | Política de Privacidade | Política de Proteção de Dados Pessoais | Denúncias