当前位置:   article > 正文

GNN手绘草图识别新架构:Multi-Graph Transformer 网络

multi-graph transformer for free-hand sketch recognition

点击我爱计算机视觉标星,更快获取CVML新技术


本文介绍一篇比较小众但非常有意思的手绘草图识别的新文章《Multi-Graph Transformer for Free-Hand Sketch Recognition》,其实质是提出了一种新颖的 Transformer 网络。

该文作者信息:

作者均来自南洋理工大学。

Ⅰ 研究动机 

通常,Transformer 的输入是序列化输入形式,若给定一个句子作为输入,Transformer 允许句子 中的全部词之间建立相互关联的 attention 关系。所以,本质上讲,Transformer 把输入的每个句子看作一个全连接的图(fully-connected graph),Transformer 也算是一种特殊的图神经网络 (GNN)。然而, 如何能为 Transformer 注入先验知识去引导它更精细化地学习图上的结构模式,是一个值得思考的问 题。该文提出以手绘草图作为一种 GNN 的实验床,探索新颖的 Transformer 网络。

手绘草图(free-hand sketch)是一种特殊数据,本质上是一种动态的序列化的数据形式。因为,手绘的过程本身就是一个“连点成线”的过程(如下图 1(b)所示)。

图 1: 手绘草图的离散化理解示意图

已有的手绘草图研究工作均在欧氏空间中对手绘草图进行建模,手绘草图被理解为静态图片输入 到 CNN 中,或者被理解为笔画的关键点的坐标序列输入到 RNN 中。

然而,在实时性要求较高的人机交互场景中,存储和传输图片会引起较大的开销,存储和传输笔画的关键点的坐标是更好的选择。文本的主要动机就是将手绘草图表示为稀疏图,将笔画的关键点理解为结点(node),且在几何空间中使用 Transformer 对其进行建模,从更具普适性的角度去理解并表示手绘草图。

通过实验,该文发现且证实了,原版的 Transformer(Vanilla Transformer)并不能对手绘草图进行合理地表示。所以,该文提出了一种新颖的图神经网络,即 Multi-Graph Transformer(MGT)网络结构,将每一张手绘草图表示为多个图结构(multiple graph structure),并且这些图结构中融入了手绘草图的领域知识(domain knowledge)(如上图 1(b)和 1(c)所示)。

该文所提出的 Multi-Graph Transformer 网络也可以用于其他结构化且序列化的数据建模当中。

Ⅱ Multi-Graph Transformer (MGT) 

该文所提出的网络结构可分为三个部分:

(1)网络的输入层;

(2)网络的主干,即多层的Multi-Graph Transformer 结构;

(3)网络的输出层,即分类器。 

2.1 Multi-Modal Input Layer

该文采用 Google QuickDraw 数据,对每一张手绘草图都取前 100 个笔画关键点,对多于 100 个关键点或者少于 100 个关键点的手绘草图进行截断(truncation)或者补零(padding)操作。每个结点被表示为 4 维的向量,前两位是该结点在画布上的横纵坐标,第三位是用于描述画笔状态的标志位,第四位是位置编码。横纵坐标通过线性层进行升维,标志位和位置编码通过 embedding layer 进行升维, 它们升维之后拼接(concatenate)起来构成 MGT 的输入。

图 2: Multi-Graph Transformer 网络结构图

2.2 Multi-Graph Transformer 

如图 2所示,整体上看,该文所提出的 Multi-Graph Transformer(MGT)是一个 L 层的结构,每层由两个子层构成,分别是 Multi-Graph Multi-Head Attention(MGMHA)sub-layer 和 position-wise fully connected Feed-Forward (FF)sub-layer。 

该文所提出的 MGMHA 子层是一个多路并行结构,每一路都是一个基于图结构的 Multi-Head Attention 模块。这里的“图”结构是由该文基于手绘草图的领域知识所定义的图结构,也就是在原文中所定义的多种邻接矩阵。使用这些邻接矩阵来描述每张手绘草图上结点间的连通性。

进而,在 Multi-Head Attention 操作中,使用邻接矩阵所描述的连通性来控制注意力分数矩阵中的连通性,允许或者屏蔽掉特定结点间的注意力关系。 

FF 子层主要进行残差连接和 BN 等操作,这里不做赘述。 

2.3 Sketch Embedding and Classification Layer 

给定一张草图,经过 MGT 后,其每个结点都会被表示为一个向量,将这些结点的表示向量加起来作为该张草图的向量表示。加和过程中,不考虑数据预处理过程中 padding 操作所引入的额外结点。网络尾端的分类器由多层感知器来实现,使用 softmax 交叉熵损失函数。 

Ⅲ 实验 

文中提供了 MGT 与众多经典的 RNN 结构和 CNN 网络的性能比较,同时也提供了详细的消融实验结果及可视化结果。尽管数据预处理环节的截断操作决定了 CNN 是 MGT 的性能上界,但是 MGT 所取得的识别准确率不仅远高于基于 LSTM 和 GRU 的网络,而且还超越了众多经典 CNN 网络,仅低于 Incetpion V3 和 MobileNet V2,但差距很微小。

表 1:  Test set performance of MGT vs. the state-of-the-art RNN and CNN architectures. The 1 st/2 nd/3 rd best results per column are indicated in red/blue/magenta.

下图给出了可视化的分析,将一张闹钟的草图输入到训练好的 MGT 中,其经过每一层后得到相应的注意力权重(attention heads),这里选取了其中一些有代表性的 heads。可以看到初始层的 heads 中,结点会更多地关注局部,消息传递是沿着笔画展开的,高层的 heads 中,局部的注意力在逐渐淡 化,模型正在从全局地角度对图上的关系进行聚合。

同时,基于全局图结构先验知识所学到的 attention heads 对跨笔画的消息传递也很重要,例如可以捕获闹钟的 body 和 feet 间的关系。

图 3: 注意力权重可视化

Ⅳ 结论 

该文提出了一种新颖的图神经网络,即 Multi-Graph Transformer (MGT),同时也为手绘草图提出了一种新颖的表示方法,即把每一张手绘草图表示为多张稀疏连接的图。文本所提出的 MGT 网络的主要特性包括:

(1)可以同时对手绘草图中的几何结构信息和笔画时序信息进行建模;

(2)通过预 定义的多种图结构为 Transformer 结构注入了领域知识;

(3)充分利用了手绘草图的全局和局部图结 构,即笔画内的、笔画之间的多重图结构。 

希望文本可以帮助手绘草图领域的学者们从图的角度对手绘数据在更具普适性的几何空间中进行建模,同时帮助图神经网络领域的学者们把手绘数据作为一种新型的实验数据床。

论文链接:

https://arxiv.org/pdf/1912.11258.pdf 

代码链接:

https://github.com/PengBoXiangShang/multigraph_transformer


手绘草图识别交流群

为给国内从事手绘草图草图识别相关研究或者感兴趣的同学提供一个更加专业的交流平台,CV君邀请了该文作者建立了一个交流群,欢迎扫码添加CV君拉你入群,(如已为CV君其他账号好友请直接私信)

(请务必注明:手绘草图)

喜欢在QQ交流的童鞋,可以加52CV官方QQ群:805388940。

(不会时时在线,如果没能及时通过验证还请见谅)


长按关注我爱计算机视觉

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/264092
推荐阅读
相关标签
  

闽ICP备14008679号