Saltar para:
Logótipo
Você está em: Início > Publicações > Visualização > Hybrid time-spatial video saliency detection method to enhance human action recognition systems

Hybrid time-spatial video saliency detection method to enhance human action recognition systems

Título
Hybrid time-spatial video saliency detection method to enhance human action recognition systems
Tipo
Artigo em Revista Científica Internacional
Ano
2024
Autores
Gharahbagh, AA
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Hajihashemi, V
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Marta Campos Ferreira
(Autor)
FEUP
Machado, JJM
(Autor)
FEUP
Tavares, JMRS
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Sem AUTHENTICUS Sem ORCID
Revista
Vol. 83
ISSN: 1380-7501
Editora: Springer Nature
Indexação
Publicação em ISI Web of Knowledge ISI Web of Knowledge - 0 Citações
Outras Informações
ID Authenticus: P-00Z-Z8H
Abstract (EN): Since digital media has become increasingly popular, video processing has expanded in recent years. Video processing systems require high levels of processing, which is one of the challenges in this field. Various approaches, such as hardware upgrades, algorithmic optimizations, and removing unnecessary information, have been suggested to solve this problem. This study proposes a video saliency map based method that identifies the critical parts of the video and improves the system's overall performance. Using an image registration algorithm, the proposed method first removes the camera's motion. Subsequently, each video frame's color, edge, and gradient information are used to obtain a spatial saliency map. Combining spatial saliency with motion information derived from optical flow and color-based segmentation can produce a saliency map containing both motion and spatial data. A nonlinear function is suggested to properly combine the temporal and spatial saliency maps, which was optimized using a multi-objective genetic algorithm. The proposed saliency map method was added as a preprocessing step in several Human Action Recognition (HAR) systems based on deep learning, and its performance was evaluated. Furthermore, the proposed method was compared with similar methods based on saliency maps, and the superiority of the proposed method was confirmed. The results show that the proposed method can improve HAR efficiency by up to 6.5% relative to HAR methods with no preprocessing step and 3.9% compared to the HAR method containing a temporal saliency map.
Idioma: Inglês
Tipo (Avaliação Docente): Científica
Nº de páginas: 21
Documentos
Não foi encontrado nenhum documento associado à publicação.
Publicações Relacionadas

Dos mesmos autores

Abnormal Action Recognition in Social Media Clips Using Deep Learning to Analyze Behavioral Change (2024)
Artigo em Livro de Atas de Conferência Internacional
Gharahbagh, AA; Hajihashemi, V; Marta Campos Ferreira; Machado, JJM; Tavares, JMRS

Da mesma revista

A systematic review on the use of immersive virtual reality to train professionals (2021)
Outra Publicação em Revista Científica Internacional
Narciso, D; Melo, M; Rodrigues, S; Cunha, JPS; Vasconcelos Raposo, J; Bessa, M
Virtual reality in training: an experimental study with firefighters (2020)
Artigo em Revista Científica Internacional
Narciso, D; Melo, M; Raposo, JV; Cunha, JPS; Bessa, M
Successive refinement of side information for multi-view distributed video coding (2010)
Artigo em Revista Científica Internacional
Lucian Ciobanu; Luís Corte-Real
Successive refinement of side information for multi-view distributed video coding (2010)
Artigo em Revista Científica Internacional
Ciobanu, L; Luís Corte-Real
Sprite-based generation of side information for multi-view Distributed Video Coding (2012)
Artigo em Revista Científica Internacional
Ciobanu, L; Luís Corte-Real

Ver todas (21)

Recomendar Página Voltar ao Topo
Copyright 1996-2024 © Faculdade de Arquitectura da Universidade do Porto  I Termos e Condições  I Acessibilidade  I Índice A-Z  I Livro de Visitas
Página gerada em: 2024-11-08 às 18:45:46 | Política de Utilização Aceitável | Política de Proteção de Dados Pessoais | Denúncias