DDGCN: A Dynamic Directed Graph Convolutional Network for Action Recognition
作者 | Matthew Korban, Xin Li
单位 | 路易斯安那州立大学
论文地址 | https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123650749.pdf
会议 | ECCV 2020
摘要
提出了一种动态有向图卷积网络(DDGCN),从人体行为的骨架表示出发,对人体行为的时空特征进行建模
DDGCN由三个新的特征建模模块组成:
- 动态卷积采样(DCS)
- 动态卷积权重(DCW)
- 有向图时空(DGST)特征提取
DCS和DCW模块可以有效地捕捉动态的非相邻关节之间的时空相关性
DSTG特征提取模块,通过包含时空的有序信息来增强动作的特征
网络架构
动态卷积采样(DCS)
人体非相邻的子部分在人类行为中往往是相互关联的,且这种关联是动态的
DCS算法可以总结如下
- 按照骨架模板初始化静态图$G_S$,并相应地初始化所有节点的索引
初始化邻居采样:对于∀vi∈GS,分两步创建其初始有序近邻集合pi(B(Vi))
- 创建包括图中所有其他节点的有序节点集合Oi,该有序节点集合Oi包括根据图到vi的图距离排序的图中的所有其他节点。 当两个节点Vj和Vr具有相同的图距离(例如,都离Vi有r跳距离)时,则根据它们的初始化索引对它们进行排序
- 给定核大小r,从Oi中选取前r个节点,这些节点在此步骤pi(B(Vi))中形成有序的邻集
- 更新采样邻域:∀vi,通过学习减少识别损失的最优偏移量∆pi来更新索引偏移量和邻域采样
最后,在$G_{ST}$上,通过如下公式(1)的图形卷积计算特征图$f_{ST}$
$$ f_{S T}\left(v_{i}\right)=\sum_{v_{j} \in B\left(v_{i}\right)} w\left(v_{i}\right) \cdot\left(p_{i}\left(v_{j}\right)+\Delta p_{i}\left(v_{j}\right)\right) $$
其中i和j分别是中心采样节点和相邻采样节点的索引,B是动态相邻采样节点集合,w是动态权重函数,pi是动态相邻采样函数,∆pi是偏移采样函数
动态卷积权重(DCW)
DCW权重分配模块动态地将权重$w_i$分配给$v_i$的相邻节点
使用动态时间规整(DTW)算法来计算$P_v=DTW_{path} (W,B(v))$
$P_v$中的第一列定义了W中元素的排序索引,第二列表示所选元素及其在$B(V)$中的顺序
有向时空图(DSTG)特征
骨骼特征 $f_{i}^{B}=\\overline{f_{i-1} f_{i}}=f_{i-1}-f_{i}$
时间特征 $f_{i}^{T}=f_{i}^{t}-f_{i}^{t-1}$
串联得到节点v_i的特征向量 $F_{i}=\\left\\{f_{i}^{J}, f_{i}^{B}, f_{i}^{T}\\right\\}$
实验
在NTURGB-D 60和Kinetics数据集上性能均优于其他方法
消融实验
DSTG模块对于性能提升最大,完整的DDC模块可得到最高的准确率
识别不完整的动作
对丢失帧的动作识别进行的实验,分为以下3中情况
- 运动开始时丢失帧
- 运动结束时丢失帧
- 序列中随机丢失的帧
结论是运动开始时的序列存在大部分特征
总结
提出了一种基于骨架图的动态有向图卷积网络(DDGCN)动作识别算法
DDGCN由三个新模块组成,动态卷积抽样(DCS)、动态卷积权重分配(DCW)和有向图时空(DGST)特征提取
这些新模块有助于更好地捕捉时空依赖关系,骨架的层次结构和时序特征。 实验表明,DDGCN在多个公共数据集上的动作识别准确率优于最先进的算法
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。