《A Semi-supervised Graph Attentive Network for Financial Fraud Detection》阅读笔记

A Semi-supervised Graph Attentive Network for Financial Fraud Detection

作者:Daixin Wang, Jianbin Lin, Peng Cui, Quanhui Jia, Zhen Wang, Yanming Fang, Quan Yu, Jun Zhou, Shuang Yang, Yuan Qi, Ant Financial Services Group, China, Department of Computer Science and Technology, Tsinghua University, China

Abstract

提出了半监督图注意力网络(SemiGNN),在多视图、标签、无标签数据上,应用于欺骗检测。

创新点:

  • 第一篇使用半监督图神经网络在欺骗检测上

  • 使用多等级的注意力机制去适应不同的邻接节点、不同的视图。

  • 使结果更具有解释性,可以得到对于欺骗检测的重要因素

  • 使用了支付宝的大量数据,得到一个目前最佳的效果

基于规则方法:

需要大量的先验知识,进行制定判定规则,并且容易被攻击破解

在图上进行学习:

不能够结合标签数据和无标签数据,并且没有充分利用的图的全部信息,没有使用多视图的结构。

Model

总体的结构如下:

image-20200824201543366

点层 注意网络:

首先先计算每个两个节点的注意力相关系数\(e^v_{ui}\) ,

\(e^v_{ui} = w_{ui}·M^v_i其中M_v∈R^{|n_v|·d}\)

\(R^{|n_v|·d}\)\(v\) 视图的一个向量空间

接下来将求出重要性系数,其中有包含特征向量和注意力相关系数

image-20200824202727783

求出经过注意力机制后的特征向量

image-20200824203009657

视图层 注意网络

通过上一层,学习到了一个点在特定视图下的特征向量,但是该特征并没有学习更加综合的知识,需要融合多个视图的信息

为了解决该问题,使用单独的多层感知器(MLP)将低级别特定于视图的用户特征嵌入到高级空间中,然后融合多视图的信息

image-20200824203547079

可以在整体框架中找到其对应位置,是点层 注意网络到视图层 注意网络的过渡。

接下来需要得到一个视图的重要性系数\(α\)

image-20200824203840486

其中 \(φ^v_u\) 是为每个用户引入一个视图偏好向量。 向量是随机初始化的,是在训练过程中学习的。

和GAT一样将对于具体视图的的特征向量进行拼接

image-20200824204041703

最后使用一个单层感知器,该感知器使用联合用户嵌入对输入进行细化以表示,然后可以获得用户 \(u\) 的最终高级嵌入,我们将其表示为\(a_u\)

损失函数:

定义分类损失:

image-20200824204406528

需要利用未标签数据,从标签点随机遍历周围节点,使用图损失函数

image-20200824204505974

最后将监督分类损失和无监督图损失结合起来,形成最终目标函数

image-20200824204714566

$L_{reg} =L2 \ \ \ regularization $

模型复杂度约为 \(O(M)\) 是边数量的线性级别、

Experiments

数据来自支付宝

用户是否为欺骗用户预测:

image-20200824200604936

用户属性预测:

image-20200824200643610

image-20200824200703834

不同视图的影响:

image-20200824200729734

参数敏感度:

image-20200824200756044

Conclusion

在本文中,提出了一种用于欺诈检测的半监督图注意力网络模型。

模型通过标签和未标签数据之间的社会关系将其链接起来,并且提出了一种分类器,该分类器通过提出分类损失,一方面与标记的数据的标签一致,另一方面通过提出基于图的损失,使相似顶点的分类结果相似。

提出了一种分层注意机制来更好地消除多视图图。 节点级别的注意力能够更好地关联邻居,而视图级别的注意力可以更好地整合不同的视图。

在实验上,与基准方法相比,该方法可获得更好的结果。 并且模型可以给出影响预测的的重要因素。

未来的工作可能集中在区分不同的社会关系上,以进一步完善该模型。将模型扩展到更多欺诈检测应用程序。

posted @ 2020-08-24 21:00  C_W_K  阅读(1087)  评论(0编辑  收藏  举报