Saltar para:
Logótipo
Comuta visibilidade da coluna esquerda
Você está em: Início > Publicações > Visualização > Hybrid time-spatial video saliency detection method to enhance human action recognition systems

Publicações

Hybrid time-spatial video saliency detection method to enhance human action recognition systems

Título
Hybrid time-spatial video saliency detection method to enhance human action recognition systems
Tipo
Artigo em Revista Científica Internacional
Ano
2024
Autores
Abdorreza Alavi Gharahbagh
(Autor)
Outra
Ver página pessoal Sem permissões para visualizar e-mail institucional Pesquisar Publicações do Participante Sem AUTHENTICUS Sem ORCID
Vahid Hajihashemi
(Autor)
Outra
Ver página pessoal Sem permissões para visualizar e-mail institucional Pesquisar Publicações do Participante Sem AUTHENTICUS Sem ORCID
Marta Campos Ferreira
(Autor)
FEUP
J.J.M. Machado
(Autor)
FEUP
João Manuel R. S. Tavares
(Autor)
FEUP
Revista
Vol. 83
Páginas: 74053 -74073
ISSN: 1380-7501
Editora: Springer Nature
Indexação
Publicação em ISI Web of Knowledge ISI Web of Knowledge - 0 Citações
Publicação em ISI Web of Science ISI Web of Science
Clarivate Analytics
Classificação Científica
CORDIS: Ciências Tecnológicas
FOS: Ciências da engenharia e tecnologias
Outras Informações
ID Authenticus: P-00Z-Z8H
Abstract (EN): Since digital media has become increasingly popular, video processing has expanded in recent years. Video processing systems require high levels of processing, which is one of the challenges in this field. Various approaches, such as hardware upgrades, algorithmic optimizations, and removing unnecessary information, have been suggested to solve this problem. This study proposes a video saliency map based method that identifies the critical parts of the video and improves the system's overall performance. Using an image registration algorithm, the proposed method first removes the camera's motion. Subsequently, each video frame's color, edge, and gradient information are used to obtain a spatial saliency map. Combining spatial saliency with motion information derived from optical flow and color-based segmentation can produce a saliency map containing both motion and spatial data. A nonlinear function is suggested to properly combine the temporal and spatial saliency maps, which was optimized using a multi-objective genetic algorithm. The proposed saliency map method was added as a preprocessing step in several Human Action Recognition (HAR) systems based on deep learning, and its performance was evaluated. Furthermore, the proposed method was compared with similar methods based on saliency maps, and the superiority of the proposed method was confirmed. The results show that the proposed method can improve HAR efficiency by up to 6.5% relative to HAR methods with no preprocessing step and 3.9% compared to the HAR method containing a temporal saliency map.
Idioma: Inglês
Tipo (Avaliação Docente): Científica
Nº de páginas: 21
Documentos
Nome do Ficheiro Descrição Tamanho
s11042-024-18126-x-2 Paper 2732.91 KB
Publicações Relacionadas

Dos mesmos autores

Binaural Acoustic Scene Classification Using Wavelet Scattering, Parallel Ensemble Classifiers and Nonlinear Fusion (2022)
Artigo em Revista Científica Internacional
Vahid Hajihashemi; Abdorreza Alavi Gharahbagh; Pedro Miguel Cruz; Marta Campos Ferreira; José J. M. Machado; João Manuel R. S. Tavares
Best Frame Selection to Enhance Training Step Efficiency in Video-Based Human Action Recognition (2022)
Artigo em Revista Científica Internacional
Abdorreza Alavi Gharahbagh; Vahid Hajihashemi; Marta Campos Ferreira; José J. M. Machado; João Manuel R. S. Tavares

Da mesma revista

A systematic review on the use of immersive virtual reality to train professionals (2021)
Outra Publicação em Revista Científica Internacional
Narciso, D; Melo, M; Rodrigues, S; Cunha, JPS; Vasconcelos Raposo, J; Bessa, M
Virtual reality in training: an experimental study with firefighters (2020)
Artigo em Revista Científica Internacional
Narciso, D; Melo, M; Raposo, JV; Cunha, JPS; Bessa, M
Successive refinement of side information for multi-view distributed video coding (2010)
Artigo em Revista Científica Internacional
Lucian Ciobanu; Luís Corte-Real
Successive refinement of side information for multi-view distributed video coding (2010)
Artigo em Revista Científica Internacional
Ciobanu, L; Luís Corte-Real
Sprite-based generation of side information for multi-view Distributed Video Coding (2012)
Artigo em Revista Científica Internacional
Ciobanu, L; Luís Corte-Real

Ver todas (22)

Recomendar Página Voltar ao Topo
Copyright 1996-2025 © Faculdade de Direito da Universidade do Porto  I Termos e Condições  I Acessibilidade  I Índice A-Z
Página gerada em: 2025-08-22 às 04:26:26 | Política de Privacidade | Política de Proteção de Dados Pessoais | Denúncias