中文版 | English
Title

双分支特征融合网络的步态识别算法

Alternative Title
Dual branch feature fusion network based gait recognition algorithm
Author
Publication Years
2022
Source Title
ISSN
1006-8961
Volume27Issue:7Pages:2263-2273
Abstract
目的 在步态识别算法中,基于外观的方法准确率高且易于实施,但对外观变化敏感;基于模型的方法对外观变化更加鲁棒,但建模困难且准确率较低.为了使步态识别算法在获得高准确率的同时对外观变化具有更好的鲁棒性,提出了一种双分支网络融合外观特征和姿态特征,以结合两种方法的优点.方法 双分支网络模型包含外观和姿态两条分支,外观分支采用GaitSet网络从轮廓图像中提取外观特征;姿态分支采用5层卷积网络从姿态骨架中提取姿态特征.在此基础上构建特征融合模块,融合外观特征和姿态特征,并引入通道注意力机制实现任意尺寸的特征融合,设计的模块结构使其能够在融合过程中抑制特征中的噪声.最后将融合后的步态特征应用于识别行人身份.结果 实验在CASIA-B(Institute of Automation,Chinese Academy of Sciences,Gait Dataset B)数据集上通过跨视角和不同行走状态两种实验设置与目前主流的步态识别算法进行对比,并以Rank-1准确率作为评价指标.在跨视角实验设置的MT(medium-sample training)划分中,该算法在3种行走状态下的准确率分别为93.4%、84.8%和70.9%,相比性能第2的算法分别提升了1.4%、0.5%和8.4%;在不同行走状态实验设置中,该算法在两种行走状态下的准确率分别为94.9%和90.0%,获得了最佳性能.结论 在能够同时获取外观数据和姿态数据的场景下,该算法能够有效地融合外观信息和姿态信息,在获得更丰富的步态特征的同时降低了外观变化对步态特征的影响,提高了步态识别的性能.
Keywords
URL[Source Record]
Language
Chinese
SUSTech Authorship
Others
Funding Project
国家重点研发计划 ; 国家自然科学基金 ; 安徽省重点研究与开发计划项目
Data Source
WanFang
WanFangID
zgtxtxxb-a202207015
Document TypeJournal Article
Identifierhttp://kc.sustech.edu.cn/handle/2SGJ60CL/401927
DepartmentCollege of Engineering
Affiliation
1.安徽大学电子信息工程学院,合肥 230601
2.南方科技大学工学院,深圳 518055
Recommended Citation
GB/T 7714
徐硕,郑锋,唐俊,等. 双分支特征融合网络的步态识别算法[J]. 中国图象图形学报,2022,27(7):2263-2273.
APA
徐硕,郑锋,唐俊,&鲍文霞.(2022).双分支特征融合网络的步态识别算法.中国图象图形学报,27(7),2263-2273.
MLA
徐硕,et al."双分支特征融合网络的步态识别算法".中国图象图形学报 27.7(2022):2263-2273.
Files in This Item:
There are no files associated with this item.
Related Services
Recommend this item
Bookmark
Usage statistics
Export to Endnote
Export to Excel
Export to Csv
Altmetrics Score
Google Scholar
Similar articles in Google Scholar
[徐硕]'s Articles
[郑锋]'s Articles
[唐俊]'s Articles
Baidu Scholar
Similar articles in Baidu Scholar
[徐硕]'s Articles
[郑锋]'s Articles
[唐俊]'s Articles
Bing Scholar
Similar articles in Bing Scholar
[徐硕]'s Articles
[郑锋]'s Articles
[唐俊]'s Articles
Terms of Use
No data!
Social Bookmark/Share
No comment.

Items in the repository are protected by copyright, with all rights reserved, unless otherwise indicated.