论文信息

论文标题:Deep Embedded Multi-View Clustering via Jointly Learning Latent Representations and Graphs
论文作者:Zongmo Huang、Yazhou Ren、Xiaorong Pu、Lifang He
论文来源:2022, ArXiv
论文地址:download
论文代码:download

1 Introduction

  隶属于多视图聚类(MVC)算法,本文出发点是同时考虑特征信息和结构信息。

2 Method

  问题声明:给定一个多视图数据集 X={Xv}v=1m,其中 Xv={x1v;x2v;;xnv}Rn×dvdv 是第 v 个视图中特征向量的维数,n 是实例数。我们的目标是将 n 个实例划分为 k 个簇。具体来说,我们的目标是通过联合学习不同视图之间的图结构和特征表示来更好地聚类结果。

  总体框架:

  

  模型包括四个模块:

    • representation learning auto-encoder
    • self-supervised GCN module
    • global weights computing module
    • embedding clustering layer

2.1 Representation Learning Auto-Encoder

  使用 fθvvgϕvv 来表示第 v 个视图的编码器和解码器,其中 θvϕv 是可学习的参数。自编码器过程可以写为:

    ziv=fθvv(xiv)Rdv(1)

    x^iv=gϕvv(ziv)Rdv(2)

  重构损失:

    Lrv=i=1nxivgϕvv(fθvv(xiv))22(3)

2.2 Self-Supervised GCN Module

  让 Zv={z1v;z2v;;znv}Rn×dv 表示第v$ 个视图中所有样本的潜在表示。

  该模块首先根据嵌入表示的距离,利用kNN算法对相邻矩阵进行构造。然后对嵌入表示使用类似图卷积操作进一步处理,因此改进的嵌入表示 z~iv 计算为:

    z~iv=(D~12A~D~12)2ziv(4)

  其中

    • A~=In+A
    • D~ii=jA~ij

2.3 Global Weights Computing Module

  为了减轻噪声样本的影响,我们引入了一个由多个视图的相邻图得到的全局样本加权向量 W=[w1,w2,,wn] 。具体来说,对于第 v 个视图中的第 i 个节点,它在细化的相邻矩阵 A~v 中的内度 ηiv 为:

    ηiv=iA~ijv(5)

  在2.2节模块中,A~v 是由kNN算法导出的,对于第 i 个节点,ηiv 的值表示在第 v 个视图中视其为邻居的节点数(包括自身)。不难看出,ηiv 较高的节点通常位于簇的中心附近,而度值很小的节点可能是噪声点。将此理论扩展到多个视图,那么 ηi=v=1mηiv 的值反映了第 i 个该样本的全局重要性。然后用一个简单的线性函数计算第 i 个实例 wi 的全局权值:

    wi=min(ηi/λ,1)(0,1](6)

  其中,λ 被设置为 η=[η(1),η(2),,η(n)] 的中值,确认至少有一半的样本被视为正常样本,并且所有的样本都可以参加训练。

2.4 Embedding Clustering Layer

  在得到改进的嵌入表示 Z~v={z~1v;z~2v;;z~nv}Rn×dv 后,应用嵌入聚类层 cμvv 计算第 v 个视图中样本的聚类分配,其中 μv 表示可学习的聚类质心。具体来说,基于深度嵌入聚类模型中广泛使用的 Student's  t-distribution,在第 v 个视图中,第 i 个例子属于第 j 个聚类的概率为:

    qijv=cμvv(z~iv)=(1+z~ivμjv2)1j(1+z~ivμjv2)1(7)

  设 Qv={q1v;q2v;;qnv}Rn×k 表示第 v 个视图中所有样本的聚类分配。在本模块中,我们采用对偶自监督方法,即通过最小化单视图集群分配 Qv 和全局伪标签 P 之间的差异来提高嵌入的特征在每个视图中的表示能力。

  具体地说,P 通过以下程序获得:首先,对于每个样本,将其嵌入的表示连接到所有视图中:

    z~i=[z~i1,z~i2,,z~im]Rv=1mdv(8)

  然后,我们应用加权 kmeans 生成全局聚类质心 cj

    minc1,c2,,cki=1nj=1kwiz~icj2(9)

  用 Student's t-distribution 计算每个全局嵌入和每个集群质心之间的软分配 sij

    sij=(1+z~icj2)1j(1+z~icj2)1(10)

  最后,通过以下方法计算全局伪标签 P

    pij=(sij2/isij)j(sij2/isij)(11)

  其中,Pij 表示第 i 个实例属于第 j 个簇的概率。

  在得到 P 后,我们将每个视图的聚类损失 Lcv 定义为伪标签 PQv 之间的Kullback-leibler散度(DKL):

    Lcv=DKL(PQv)=i=1nwij=1kpijlogpijqvij(12)

  通过优化 Eq.12,利用多个视图的信息提高每个视图嵌入自动编码器的表示能力,从而提高多视图聚类性能。

  使用样本权重 Eq.6 来细化重建损失 Eq.3,并与集群损失 Eq.12 联合,每个视图中DMVCJ的损失函数为:

    Lv=i=1nwi(xivgϕvv(fθvv(xiv))22+γj=1kpijlogpijqvij)(13)

  其中,γ 为一个趋势偏离系数。

2.5 Optimization

  在训练过程结束后,我们再次计算伪标签 P,并得到第 i 个样本的最终聚类分配 yi

    yi=argmaxj(Pij)(14)

  算法如下:

  

3 Experiement

多视图聚类

  

4 Conclusion

  了解一下多视图聚类。

 

修改历史

2022-06-15 创建文章

 

论文解读目录

posted @   别关注我了,私信我吧  阅读(374)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 25岁的心里话
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
· 零经验选手,Compose 一天开发一款小游戏!
· 通过 API 将Deepseek响应流式内容输出到前端
· 因为Apifox不支持离线,我果断选择了Apipost!
Live2D
点击右上角即可分享
微信分享提示