Li J, Lu G, Wu Z, et al. Multi-view representation model based on graph autoencoder[J]. Information Sciences, 2023, 632: 439-453.
摘要导读:
当一些数据的标签缺失的时候,图自编码器和图变分自编码器往往在节点聚类和连接划分的任务重能显示较为出色的性能。然而,现存的图表示学习忽略了数据多个模态之间的特征,将节点和图结构特征作为了一个视图。此外,大多数图自编码器只重构节点的特征矩阵或邻接矩阵,使其无法全面的挖掘隐藏的特征表示。因此,在本文中,作者提出了一个基于图自编码器的多视图表示学习模型,该模型可以同时应用全局结构拓扑、潜在的局部拓扑以及特征相关性。在后续阶段,作者添加了解码器来重构节点特征矩阵。实验结果验证了模型的有效性。
虽然论文的标题叫多视图表示模型,但其实这里是针对的是单视图数据。具体来说,通过引入不同的关系矩阵,构造不同的关系矩阵以确保全面的利用节点特征和结构信息。
模型浅析
按照笔者的理解,可以将该框架分为红色框的多个视图表示的编码过程,以及后续的解码过程。
- GCN编码过程
获得的三种视图为:特征相似视图,全局拓扑视图以及局部拓扑视图。按照作者的说法,全局拓扑结构可帮助图自编码器聚合高阶近邻的特征信息和更多的拓扑结构;局部拓扑结构可以聚合低阶近邻的特征信息。最后,添加了额外的特征相似视图来补充节点特征信息。通过三个单独的图卷积编码器,可以学习到三个表示矩阵。因此,从模型图上看,其实比较重要的是三个邻接矩阵的计算。而GCNs则是使用了两层的GCN,并且这里的GCN之间并没有共享。那么在这部分重点介绍不同类型的邻接矩阵的介绍。
1 特征相似视图:直接计算两个样本特征的相似度
2 全局拓扑视图: 使用Personalized PageRank 算法来获取扩散(或传播)矩阵
3 局部拓扑结构:原始的邻接矩阵
通过GCN层,可以得到三个表示。最后将得到的表示通过非线性映射,并且利用可学习的注意力向量
- 双解码
分别重构特诊矩阵和邻接矩阵。对应的损失为: - 对抗模块
判别器充当二元分类器,用于区分潜在变量是来自先验分布(真实样本)还是来自多视图图编码器(虚假样本)。这里使用的也是传统的判别损失
从模型生成的角度来看,具体的实施方案中加入对抗损失是为了更好的使得模型学习的中间层表示更加贴合真实的先验分布,使得到的模型不是进行机械的特征记忆。但是笔者有个疑问,如果说是为了更好的生成样本,那么在为什么在前序的学习中不使用VGAE来进一步强化模型的生成能力?好像在实验的部分也没有针对这部分进行消融。这里的解释和创新感觉有点不太清楚(应该是我自己的问题,以后再来看看。