论文信息

论文标题:Multi-view Contrastive Graph Clustering
论文作者:Erlin Pan、Zhao Kang
论文来源:2021, NeurIPS
论文地址:download
论文代码:download

1 介绍

   本文贡献:

    • 使用Graph Filter 过滤了高阶噪声数据;  
    • 提出 Graph Contrastive Regularizer 改善了视图的质量;  

2 方法

2.1 定义

  将多视图图数据定义为 G={V,E1,,EV,X1,,XV},其中 V 表示 N 个节点的集合,eijEv 表示第 v 个视图中节点 i 与节点 j 的关系,Xv={x1v,,xNv} 为特征矩阵。邻接矩阵 {A~v}v=1V 描述了初始图的结构。{Dv}v=1V 表示不同视图中的度矩阵。归一化邻接矩阵 Av=(Dv)12(A~v+I)(Dv)12 和相应的图拉普拉斯算子 Lv=IAv

2.2 Graph Filtering

  N 个节点的特征矩阵 XRN×d 可以被视为 dN 维图信号。根据底层图,一个自然信号在附近的节点上应该是平滑的。平滑信号 H 可以通过解决以下优化问题来实现:

    minHHXF2+sTr(HLH)(1)

  其中,s>0是一个平衡参数,L 是与 X 相关的拉普拉斯矩阵,可以通过对 Eq.1 求导得到 H

    H=(I+sL)1X(2)

  为了避免求矩阵转置,我们用它的一阶泰勒级数展开式来近似 H,即 H=(IsL)X。一般来说,第 m 阶图滤波可以写成

    H=(IsL)mX(3)

  其中 m 是一个非负整数。图滤波可以在保留图的几何特征的同时,过滤出不良的高频噪声。

推导过程

  HXF2+sTR(HLH)

   

  (HX)(HX)+S(HLH)=(HX)(HX)+SHLH=HHHXXH+XX+SHLH

  此外

      (HHHXXH+XX+sHLH)H=HHHHXHXHH+XXH+sHLHH=2HXX+s(LH+LH)=2H2X+sLH+sLH=(2+SL+SL)H2X

  2(I+SL)H=2XH=(I+SL)1X

回忆:

  AF=injnaij2

  泰勒展开 (IA)1=I+A+A2+A3+(ρ(A)<1)

2.3 Graph Learning

  为从平滑的表示 H 中学习到一个优化的图 S,这里考虑使用自表达模型( self-expression)【每个数据点都可以用其他数据样本的线性组合来表示】去表示:

    minSHHSF2+αSF2(4)

  其中,SRN×N 为图矩阵,α>0 为权衡参数。

  第一项是重构损失,第二项是作为一个正则化项,以避免平凡解。许多其他的正则化器也可以被应用,如核范数,稀疏1范数。

  为了处理多视图数据,我们可以为每个视图计算一个平滑表示的 Hv,并扩展 Eq.4  通过引入一个加权因子来区分不同观点的贡献。

    minS,λvv=1Vλv(HvHvSF2+αSF2)+v=1V(λv)γ(5)

  其中,λv 为第 v 个视图的权值,γ 为平滑参数。Eq.5  学习了一个由所有视图共享的 Consensus Graph S。为了学习更有鉴别性的 S,我们在本文中引入了一种新的正则化器。

2.4 Graph Contrastive Regularizer

  本文选择将每个节点及其 k 个近邻(KNN)视为正对。然后,我们通过在图矩阵 S 上应用对比正则化器,而不是使用节点特征,从而在图级上进行对比学习。它可以表示为

    J=i=1NjNivlogexp(Sij)piNexp(Sip)(6)

  其中,Niv 表示第 v 个视图中节点 ik 个最近邻。

  Eq.6 是将邻居拉近,并将非邻居分开,以提高图的质量。最终,我们提出的多视点对比图聚类(MCGC)模型可以表述为:

    minS,λvv=1Vλv(HvHvSF2+αi=1NjNivlogexp(Sij)piNexp(Sip))+v=1V(λv)γ(7)

  与现有的多视图聚类方法不同,MCGC从多视图属性和多个结构图中探索整体信息。此外,它从平滑信号而不是原始数据构建一个 consensus graph。

2.5 Optimization

  在等式中有两组 Eq.7 ,很难直接解决它们。为了优化它们,我们采用了一种交替优化策略,即每次更新一个变量并固定所有其他变量。

  固定 λv , 优化 S

  因为 λv  是固定的,所以我们的目标函数可以表示为:

    minSv=1Vλv(HvHvSF2+αi=1NjNivlogexp(Sij)piNexp(Sip))(8)

  S 可以用梯度下降法简单地求解,它在 t 时代的导数可以记为

    1(t)+α2(t)(9)

  第一个项是:

    1(t)=2v=1Vλv([HvHv]ij+[HvHvS(t1)]ij)(10)

  定义:K(t1)=piNexp(Sip(t1))n为所有邻居的数目,因此第二项为:

    2(t)={v=1Vλv(1+nexp(Sij(t1))K(t1)), if j in Nivv=1Vλv(nexp(Sij(t1))K(t1)), otherwise (11)

  然后采用 Adam 优化策略来更新 S。为了提高收敛速度,我们用 S 初始化 S,其中 SEq.5  的解。

  固定 S , 优化 λv

  对于每个视图 v,我们定义了 Mv=HvHvSF2+αJ。然后,将损失函数简化为

    minλvv=1VλvMv+vV(λv)γ(12)

  通过将它的导数设为零,我们得到

    λv=(Mvγ)1γ1(13)

  我们交替优化 Sλv 直到收敛。完整的过程在 Algorithm 1 中概述。

  

  最后一步使用K-Means进行聚类。

3 Experiments

3.1 Datasets and Metrics

  数据集

  

  评价指标

    • Accuracy (ACC)  
    • normalized Mutual Information (NMI)  
    • Adjusted Rand Index (ARI)  
    • F1 score  

3.2 Results

  

  

  结果分析

    • 与单视图的 GAE 方法相比,MCGC 在ACM、DBLP、IMDB上的ACC改善效果分别提高了 9%、4%、19%以上,虽然使用深度神经网络,但它不能探索视图的互补性;
    • 与 PMNE 相比,ACC、NMI、ARI、F1 平均提高了 16%、20%、20%、12% ;
    • 对 LINE、RMSC、SwMC的改善更为显著。这可以归因于在MCGC中对特征信息和结构信息的探索;
    • 尽管O2MA、O2MAC和MAGCN都捕获了属性和结构信息,但MCGC的性能仍然大大优于它们。具体来说,MCGC 在 ACC、NMI 和 F1 上的 O2MAC 性能平均分别提高了近 6%、9%、11%。关于 MAGCN,所有指标的改进都超过了20%。与基于学习的对比方法相比,我们的改进也令人印象深刻;
    • 特别是,与 COMPLETER 相比,在 Amazon 数据集上的改进超过了 30%,这说明 MCGC 受益于图结构信息。MCGC 还将 MVGRL 的性能提高了20%。通过比较 MCGC 和 MCGC* 的结果,我们可以看到选择邻居的策略确实对性能有影响;

4 Ablation Study

4.1 The Effect of Contrastive Loss

  

  验证 Contrastive regularizer 的有效性:

    • 在所有数据集上,没有对比损失导致性能急剧下降。MCGC 在 DBLP、ACM、IMDB、Amazon 数据集上的 ACC 性能分别提高了16%、8%、5% 和 12% ;

4.2 The Effect of Multi-View Learning

  为了演示多视图学习的效果,本文评估了以下单视图模型的性能

    minSHHSF2+αi=1NjNilogexp(Sij)piNexp(Sip)(14)

  

  结果分析:

    • 可以观察到,当合并所有视图时,总是能达到最佳的性能。此外,不同视图的性能有很大差异。这就证明了在 Eq.7 中使用 λv 的必要性。因此,探索多视角信息的互补性是有益的;

4.3 The Effect of Graph Filtering

  为了理解 graph filtering 的贡献,本文进行了另一组实验。如果没有 graph filtering ,我们的目标函数就变成了

    minS,λνv=1Vλv(XvXvSF2+αi=1NjNivlogexp(Sij)piNexp(Sip))+v=1V(λv)γ(15)

  

  结果分析:

  将这个模型表示为 MCGC-。MCGC、ACC对ACM、DBLP、IMDB的ACC分别下降了 0.8%、1.3% 和 0.8%。这表明图滤波对我们的模型有积极的影响。对于其他指标,MCGC在大多数情况下也优于 MCGC-。

5 Conclusion

  在本文中,我们提出了一种新的方法(MCGC),不仅利用属性内容,而且利用图的结构信息。特别地,引入 Graph Filtering 来滤除噪声分量,并采用对比正则化器来进一步提高学习图的质量。

 

 

 

 

相关论文

2018—IJCAI——Scalable Multiplex Network Embedding

2020—PMLR——A simple framework for contrastive learning of visual representations

2020—IJCAI——Multi-view attribute graph convolution networks for clustering

2019—IJCAI ——Multi-view spectral clustering network  

2021—AAAI——Contrastive clustering

 

posted @   别关注我了,私信我吧  阅读(1701)  评论(1编辑  收藏  举报
相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
历史上的今天:
2020-04-11 图论入门
2020-04-11 实数加法
2020-04-11 求 10000 以内 n 的阶乘
2020-04-11 大整数因子
2020-04-11 计算2的N次方
2020-04-11 大整数减法
2020-04-11 大整数加法
Live2D
点击右上角即可分享
微信分享提示