Saltar para:
Logótipo
Comuta visibilidade da coluna esquerda
Você está em: Início > Publicações > Visualização > Fusion of Time-of-Flight Based Sensors with Monocular Cameras for a Robotic Person Follower

Publicações

Fusion of Time-of-Flight Based Sensors with Monocular Cameras for a Robotic Person Follower

Título
Fusion of Time-of-Flight Based Sensors with Monocular Cameras for a Robotic Person Follower
Tipo
Artigo em Revista Científica Internacional
Ano
2024
Autores
Sarmento, J
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Ver página do Authenticus Sem ORCID
Aguiar, AS
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Ver página do Authenticus Sem ORCID
Filipe, V
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Ver página do Authenticus Sem ORCID
Valente, A
(Autor)
Outra
A pessoa não pertence à instituição. A pessoa não pertence à instituição. A pessoa não pertence à instituição. Ver página do Authenticus Sem ORCID
Revista
Vol. 110
Página Final: 30
ISSN: 0921-0296
Editora: Springer Nature
Outras Informações
ID Authenticus: P-00Z-WKH
Abstract (EN): Human-robot collaboration (HRC) is becoming increasingly important in advanced production systems, such as those used in industries and agriculture. This type of collaboration can contribute to productivity increase by reducing physical strain on humans, which can lead to reduced injuries and improved morale. One crucial aspect of HRC is the ability of the robot to follow a specific human operator safely. To address this challenge, a novel methodology is proposed that employs monocular vision and ultra-wideband (UWB) transceivers to determine the relative position of a human target with respect to the robot. UWB transceivers are capable of tracking humans with UWB transceivers but exhibit a significant angular error. To reduce this error, monocular cameras with Deep Learning object detection are used to detect humans. The reduction in angular error is achieved through sensor fusion, combining the outputs of both sensors using a histogram-based filter. This filter projects and intersects the measurements from both sources onto a 2D grid. By combining UWB and monocular vision, a remarkable 66.67% reduction in angular error compared to UWB localization alone is achieved. This approach demonstrates an average processing time of 0.0183s and an average localization error of 0.14 meters when tracking a person walking at an average speed of 0.21 m/s. This novel algorithm holds promise for enabling efficient and safe human-robot collaboration, providing a valuable contribution to the field of robotics.
Idioma: Inglês
Tipo (Avaliação Docente): Científica
Nº de páginas: 14
Documentos
Não foi encontrado nenhum documento associado à publicação.
Publicações Relacionadas

Da mesma revista

Special Issue on Autonomous Robot Systems (2015)
Outra Publicação em Revista Científica Internacional
reis, lp; calado, jmf; rocha, rp
Autonomous Robot Systems (2016)
Outra Publicação em Revista Científica Internacional
Luis Almeida; Marques, L
Active Perception Fruit Harvesting Robots - A Systematic Review (2022)
Outra Publicação em Revista Científica Internacional
Magalhaes, SA; António Paulo Moreira; Filipe Neves Santos; Dias, J
6D Localization and Kicking for Humanoid Robotic Soccer (2021)
Artigo em Revista Científica Internacional
Miguel Abreu; Tiago Silva; Henrique Teixeira; Luís Paulo Reis; Nuno Lau
Using Pre-Computed Knowledge for Goal Allocation in Multi-Agent Planning (2020)
Artigo em Revista Científica Internacional
António Paulo Moreira

Ver todas (27)

Recomendar Página Voltar ao Topo
Copyright 1996-2025 © Faculdade de Direito da Universidade do Porto  I Termos e Condições  I Acessibilidade  I Índice A-Z
Página gerada em: 2025-09-13 às 13:05:39 | Política de Privacidade | Política de Proteção de Dados Pessoais | Denúncias | Livro Amarelo Eletrónico