当前位置: 首页>大数据>正文

论文粗读“Multi-view representation model based on graph autoencoder”

Li J, Lu G, Wu Z, et al. Multi-view representation model based on graph autoencoder[J]. Information Sciences, 2023, 632: 439-453.

摘要导读:

当一些数据的标签缺失的时候,图自编码器和图变分自编码器往往在节点聚类和连接划分的任务重能显示较为出色的性能。然而,现存的图表示学习忽略了数据多个模态之间的特征,将节点和图结构特征作为了一个视图。此外,大多数图自编码器只重构节点的特征矩阵或邻接矩阵,使其无法全面的挖掘隐藏的特征表示。因此,在本文中,作者提出了一个基于图自编码器的多视图表示学习模型,该模型可以同时应用全局结构拓扑、潜在的局部拓扑以及特征相关性。在后续阶段,作者添加了解码器来重构节点特征矩阵。实验结果验证了模型的有效性。

虽然论文的标题叫多视图表示模型,但其实这里是针对的是单视图数据。具体来说,通过引入不同的关系矩阵,构造不同的关系矩阵以确保全面的利用节点特征和结构信息。

模型浅析
论文粗读“Multi-view representation model based on graph autoencoder”,第1张

按照笔者的理解,可以将该框架分为红色框的多个视图表示的编码过程,以及后续的解码过程。

  • GCN编码过程
    获得的三种视图为:特征相似视图论文粗读“Multi-view representation model based on graph autoencoder”,(S^{feat}, X),第2张,全局拓扑视图论文粗读“Multi-view representation model based on graph autoencoder”,(S^{ppr}, X),第3张以及局部拓扑视图论文粗读“Multi-view representation model based on graph autoencoder”,(A, X),第4张。按照作者的说法,全局拓扑结构可帮助图自编码器聚合高阶近邻的特征信息和更多的拓扑结构;局部拓扑结构可以聚合低阶近邻的特征信息。最后,添加了额外的特征相似视图来补充节点特征信息。通过三个单独的图卷积编码器,可以学习到三个表示矩阵。因此,从模型图上看,其实比较重要的是三个邻接矩阵的计算。而GCNs则是使用了两层的GCN,并且这里的GCN之间并没有共享。那么在这部分重点介绍不同类型的邻接矩阵的介绍。
    1 特征相似视图:直接计算两个样本特征的相似度
    论文粗读“Multi-view representation model based on graph autoencoder”,第5张

    2 全局拓扑视图: 使用Personalized PageRank 算法来获取扩散(或传播)矩阵
    论文粗读“Multi-view representation model based on graph autoencoder”,第6张
    其中论文粗读“Multi-view representation model based on graph autoencoder”,\alpha,第7张是随机游走的概率;
    论文粗读“Multi-view representation model based on graph autoencoder”,第8张

    3 局部拓扑结构:原始的邻接矩阵论文粗读“Multi-view representation model based on graph autoencoder”,A,第9张
    通过GCN层,可以得到三个表示论文粗读“Multi-view representation model based on graph autoencoder”,Z^{ppr}, Z^{feat},Z^A,第10张。最后将得到的表示通过非线性映射,并且利用可学习的注意力向量
    论文粗读“Multi-view representation model based on graph autoencoder”,第11张
    来获得注意力得分:
    论文粗读“Multi-view representation model based on graph autoencoder”,第12张
    最终的注意力权重为:
    论文粗读“Multi-view representation model based on graph autoencoder”,第13张
    然后通过加权融合的操作得到最终的论文粗读“Multi-view representation model based on graph autoencoder”,Z,第14张:
    论文粗读“Multi-view representation model based on graph autoencoder”,第15张
  • 双解码
    分别重构特诊矩阵论文粗读“Multi-view representation model based on graph autoencoder”,X,第16张和邻接矩阵论文粗读“Multi-view representation model based on graph autoencoder”,A,第9张。对应的损失为:
    论文粗读“Multi-view representation model based on graph autoencoder”,第18张
  • 对抗模块
    判别器充当二元分类器,用于区分潜在变量是来自先验分布(真实样本)还是来自多视图图编码器(虚假样本)。这里使用的也是传统的判别损失
    论文粗读“Multi-view representation model based on graph autoencoder”,第19张
    该损失和图中的对应关系也不是特别清楚。按照笔者的理解,所谓的论文粗读“Multi-view representation model based on graph autoencoder”,G(X,A),第20张应该指的是中间隐藏变量的生成过程,因此也叫做生成器部分。而论文粗读“Multi-view representation model based on graph autoencoder”,D,第21张应该是共用的判别器部分。总的来说,就是从原始数据分布论文粗读“Multi-view representation model based on graph autoencoder”,P_Z,第22张中采样论文粗读“Multi-view representation model based on graph autoencoder”,Z,第14张,然后和生成器生成的中间表示论文粗读“Multi-view representation model based on graph autoencoder”,Z,第14张一起输入到判别器论文粗读“Multi-view representation model based on graph autoencoder”,D,第21张中(其实就是2分类器,最后使用sigmoid激活,使得输输出0或1)。一般来说,在实现的时候使用的是先验分布都为高斯分布。

从模型生成的角度来看,具体的实施方案中加入对抗损失是为了更好的使得模型学习的中间层表示更加贴合真实的先验分布,使得到的模型不是进行机械的特征记忆。但是笔者有个疑问,如果说是为了更好的生成样本,那么在为什么在前序的学习中不使用VGAE来进一步强化模型的生成能力?好像在实验的部分也没有针对这部分进行消融。这里的解释和创新感觉有点不太清楚(应该是我自己的问题,以后再来看看。


https://www.xamrdz.com/bigdata/7tu1994654.html

相关文章: