EGLN论文阅读笔记
Enhanced Graph Learning for Collaborative Filtering via Mutual Information Maximization论文阅读笔记
Abstract
在普遍存在的基于隐式反馈的CF中,用户未观察到的行为被视为用户-项二部图中的非链接边。由于用户未被观察到的行为与不喜欢和未知的积极偏好混合在一起,因此固定的图结构输入缺少潜在的积极偏好链接。在本文中,我们研究了如何更好地学习CF的增强图结构。我们认为节点嵌入学习和图结构学习可以相互增强,因为更新的节点嵌入是从以前的图结构学习的,反之亦然(即新更新的图结构基于当前的节点嵌入结果进行优化)。几乎所有的优化目标都试图从局部重构的角度来比较学习到的自适应图和原始图,在学习过程中是否对自适应图结构的全局属性进行建模仍然未知。为此,本文提出了一种通过互信息最大化实现的CF增强图学习网络(EGLN)方法。EGLN的关键思想有两个方面:首先,我们让增强的图学习模块和节点嵌入模块在不输入任何特征的情况下相互迭代学习。其次,我们设计了一个局部-全局一致性优化函数来捕获增强图学习过程中的全局属性。
Introduction
在大多数推荐场景中,用户更常见的情况是通过隐性反馈(例如,看电影、参观餐厅、渴望图片)来表达他们的偏好,而不是明确的评分。在内隐反馈的普遍存在下,用户有限的观察行为被表示为积极偏好集,而消极偏好和未观察到的积极偏好被混合在一起,形成一个大的未观察到的偏好集。因此,如何从基于内隐反馈的CF中学习用户的偏好已成为学术界和产业界的一个重要课题。
由于神经互信息的捕获结构信息技术的进步,研究人员提出通过最大化节点表示和相应的图结构的总结全局表示之间的互信息来学习图结构数据的节点嵌入。这些神经图模型在用户和项目嵌入学习中注入了图结构,并通过对图结构数据的互信息最大化来增强表示学习。
我们认为固定图的构造过程通过将所有未观察到的行为视为负反馈,忽略了内隐式反馈推荐的独特性质。在实践中,未观察到的行为与负反馈和未知的正反馈混合。简单地将所有未观察到的反馈视为用户-项二部图中没有连接的负边,而忽略了真负行为和假负行为之间的差异。这种默认的固定图结构明显有噪声,缺少假负交互,会导致性能次优,特别是当用户有稀疏的交互记录时。
在本文中,我们认为,我们不采用固定的用户项图结构来嵌入学习,我们还需要学习一个自适应的用户项图结构,以更好地服务于CF。这是一项非常重要的任务,因为我们不知道从用户未被观察到的行为中缺失的一个环节是真阴性还是假阴性。
为此,在本文中,我们提出了一种增强的CF图学习方法。我们用两个相互增强的部分来表示该方法:增强的图学习模块和节点嵌入学习模块。其原理是,我们可以设计一个更好的图学习模块,使用先前学习过的用户和项目嵌入,以及使用更新的自适应图结构进行更好的用户和项目嵌入学习。具体来说,我们首先让图学习模块和节点嵌入学习模块在没有任何特征输入的情况下相互迭代学习。由于用户观察到的行为是基本真实的积极偏好,而缺失的行为与假阴性(即未知的积极)偏好混合,图学习模块是一个残差图学习,以置信权值选择可能的未知偏好。接下来,我们设计了一个增强的图优化函数,并建模了增强的图的局部-全局一致性,以提供更好的图结构和节点嵌入学习。所提出的模型可以进行端到端进行训练。
Model
在本节中,我们将介绍所提出的增强图学习网络(EGLN)方法作为推荐方法。我们首先提出了所提出的模型的总体架构,然后是我们提出了我们提出的模型的两个关键组件:学习嵌入的增强图学习和增强图结构的节点嵌入学习。
本文模型结构如下:
Architecture
我们使用\([P,Q,U,V]=GCF(G)\)来表述基于图的CF方法,其中U,V代表用户节点的集合和物品节点的集合,P,Q分别代表可学习的用户嵌入矩阵和项目嵌入矩阵
以往基于图的推荐模型使用固定的图结构输入G进行用户和项目嵌入学习。在本研究中,我们认为固定图结构不是基于图的CF模型的最优输入。原因是,在基于内隐反馈的CF中,用户未观察到的行为与消极和未知的积极偏好混合在一起。然而,固定图结构将所有未知偏好的负偏好和未知偏好作为固定图结构上的缺失链接。因此,我们认为与其在CF中采用固定的用户-项目图结构来嵌入学习,我们还需要学习增强的用户-项目图结构,以更好地服务于CF。我们将增强的图结构表示为\(\mathcal{G}^E=\{U\cup V,\mathbf{A}^E\}\),其中\(A^E=A+A^R\),且\(\mathbf{A}^R\in\mathbb{R}^{(M+N)\times(M+N)}\)表示需要学习的残差非负边权矩阵。我们使用残差图学习结构作为原始用户-项目二部图中所有现有的边,表示用户的积极偏好,对用户和项目嵌入学习具有重要价值。通过使用残差图结构,修正后的图结构可能被隐藏在未观察到的行为中的未知的积极偏好所增强。
我们的目标是找到一个具有边权值矩阵的更好的残差图\(A^R\),这样我们就可以更好地服务于用户和项目嵌入学习,以提高CF性能。现在,基于图的CF由残差图学习和节点嵌入学习两个模块组成。这两个模块并不是孤立的,而是密切相关的。一方面,残差图学习模块需要依赖于当前学习到的用户和项目嵌入,以找到\(A_E\)的可能链接。由于我们可以根据学习到的用户和项目嵌入来预测用户的偏好,因此可能的未知残余链接矩阵\(A^R\)可以表述为:\(A^R=GL(P,Q,U,V)\),其中GL是基于图的CF模块输出的图学习模块。另一方面,在我们得到残差图结构后,我们可以使用基于图的CF模块找到更好的用户和项目嵌入,如:基于增强的图结构的[P,Q,U,V] =𝐺𝐶𝐹,A+A𝑅)。因此,这两个模块可以以迭代的方式执行,更好的基于图的CF模块有利于更好的图学习模块,以下是两个模块的详细结构。
利用学习的嵌入进行增强图学习
鉴于从之前基于图的CF模型中学习到的节点嵌入为: [P,Q,U,V] =𝐺𝐶𝐹(A + A𝑅),我们的目标是学习一个具有残差权矩阵A𝑅的残差图结构。由于残差图的结构也是一个用户-项二部图,因此权值矩阵a𝑅实际上被组成为
其中,S∈R𝑀×𝑁是需要学习的残差用户-物项偏好矩阵。我们计算用户-项目相似度矩阵S为:
\(s_{ai}=\sigma(\frac{<\mathbf{p}_a\times\mathbf{W}_1,\mathbf{q}_i\times\mathbf{W}_2>}{|\mathbf{p}_a\times\mathbf{W}_1||\mathbf{q}_i\times\mathbf{W}_2|}),\)
经过这个,我们有学习到的用户-项目相似度矩阵。然而,学习到的相似度矩阵S是密集的,难以用于图的卷积。与许多图构造模型相似,我们对学习到的相似矩阵进行稀疏的残差图构造。图的稀疏性一般有两种方法: L1归一化和阈值拦截。在本文中,我们使用阈值拦截,因为它可以灵活地控制学习图的边缘。在实践中,对于每个用户,我们保留具有top-K计算相似性的边。稀疏相似矩阵计算如下:
\(s_{ai}=\begin{cases}s_{ai},&s_{ai}\in topK(s_a)\\\quad0,&s_{ai}\notin topK(s_a),\end{cases}\)
用增强图结构进行嵌入学习
基于权重矩阵A𝐸具有增强的图结构,嵌入学习模块试图通过增强的图结构更好地学习用户和项目嵌入: [P,Q,U,V] =𝐺𝐶𝐹(A𝐸)。下面,我们将介绍节点嵌入学习模块的架构。
这部分就是介绍怎么卷积了,把公式列出来看一下
\(\begin{aligned}&\mathbf{p}_{a}^{k+1}=AGG(\mathbf{p}_{a}^{k},\{\mathbf{q}_{j}^{k}:j\in\mathbf{A}_{a}^{E}\})\\&\mathbf{q}_{i}^{k+1}=AGG(\mathbf{q}_{i}^{k},\{\mathbf{p}_{b}^{k}:b\in\mathbf{A}_{(M+i)}^{E}\})\end{aligned}\)
其中:
\(A_{a}^{E}=\{j|A_{aj}^{E}>0\}\subseteq V\)
\(A_{M+i}^{E}=\{b|A_{(M+i)b}^{E}>0\}\subseteq U\)
卷积的细节如下:
矩阵形式如下:
Optimization Design and Model Training
在这部分中,我们首先介绍了基于互信息最大化的增强图学习的整体优化函数设计。然后,我们将举例说明模型的训练过程。
增强图学习的互信息最大化
边级别上的约束
鉴于学习到的残差图结构A𝑅,一个自然的想法是使用基于重构的损失作为图学习模块的优化目标:
\(\arg\min_{\Theta_G}\mathcal{L}_s=||\mathrm{A}-\mathrm{A}^R||_F^2\)
上述欧氏距离最小化约束鼓励学习到的残差图从边缘水平接近于原始图。我们将原始图的边作为ground-truth的正反馈。因此,学习到的残差图应该保留这些边。然而,这种边缘约束只学习了单个链接的相关性,而不能捕获全局图的属性。下面,我们通过局部-全局一致性学习来引入全局图的性质。
图级别的约束
图形级别上的约束。给定每条边(𝑢𝑎,𝑣𝑖)的增强图G𝐸={𝑈∪𝑉,A𝐸},我们将以用户-项目对为中心的子图总结为局部表示。在实践中,我们使用节点嵌入学习模块输出的最终用户和项嵌入作为局部表示:
\(\mathbf{h}_{ai}=[\sigma(\mathbf{u}_a),\sigma(\mathbf{v}_i)],\)
我们所采用的组合方法是串联的。在获得局部表示之后,我们的目标是寻找全局表示来捕获整个图的信息。与现有的表示学习工作类似,我们通过利用一个读出函数来获得全局表示g,读出函数的维度变化为:\(\mathbb{R}^{Z\times2D}\to\mathbb{R}^{2D}\),𝑍是增强型图G上的边数,具体流程如下:
在得到局部表示和全局表示之后,我们将最大化它们之间的互信息,以保持局部-全局的一致性。与许多现有的关于互信息最大化的工作类似,我们使用一个鉴别器D来计算分配给一个具有双线性映射函数的<局部、全局>对的分数:
\(\mathcal{D}(\mathbf{h},\mathbf{g})=\mathbf{h}^\mathrm{T}\mathbf{W}_\mathrm{d}\mathbf{g}\)
为了对鉴别器D进行对比学习,我们需要负样本来进行鉴别器优化。设F表示图G𝐸的节点嵌入矩阵,则G𝐸可以描述为(A𝐸,F)。我们从数据增强的角度实现了三种负抽样\([\tilde{\mathbf{h}},\mathbf{g}]\)
-
假边。给定增强图(A𝐸,F),我们随机抽取一条假边(𝑢𝑎,𝑣𝑗),其中A𝐸𝑎𝑗=为0。然后,将伪边的局部表示˜h和全局表示g组合为一个负样本
-
特征洗牌。它通过随机打乱一定百分比的特征来生成一个损坏的图(a𝐸,˜F)。负样本是通过将(A𝐸,˜F)的局部表示˜h和(A𝐸,F)的全局表示g配对来实现的。
-
结构扰动。它通过随机添加或删除一定比例的边来生成一个损坏的图(˜a𝐸,F)。来自(˜A𝐸,F)的局部表示˜h将来自(A𝐸,F)的全局表示g组合起来,作为鉴别器D的负样本。
获得阳性和阴性样本后,阳性样本用1标记,阴性样本用0标记。局部-全局一致性互信息最大化试图正确区分正、负的局部-全局对。因此,我们使用二值交叉熵损失作为L𝑑:
模型训练
主推荐任务采用BPR损失函数\(L_r\)
总的损失函数为:\(\arg\min_{\Theta}\mathcal{L}=\mathcal{L}_{r}+\alpha\mathcal{L}_{s}+\beta\mathcal{L}_{d}\)
Conclusion
在本研究中,我们认为先前基于图结构的图结构的CF对于用户/项目嵌入学习是次优的。因此,我们提出了一种增强的图学习网络(EGLN)方法来更好地服务于CF。为了改进增强后的图结构,EGLN设计了两种方面:第一,增强后的图学习模块和节点嵌入模块在不进行特征输入的情况下迭代学习。其次,我们设计了一个局部-全局一致性优化函数,让增强的图捕获图学习过程中的全局属性。最后,在三个真实数据集上的大量实验结果清楚地证明了我们所提出的模型的优越性和有效性。