论文信息

论文标题:Rumor Detection on Twitter with Claim-Guided Hierarchical Graph Attention Networks
论文作者:Erxue Min, Yu Rong, Yatao Bian, Tingyang Xu, Peilin Zhao, Junzhou Huang,Sophia Ananiadou
论文来源:2021,EMNLP 
论文地址:download 
论文代码:download

Background

  传播结构为谣言的真假提供了有用的线索,但是现有的谣言检测方法要么局限于用户相应关系,要么简化了对话结构。

  本文说的 Claim 代表的是 Source post ,即源帖。

1 Introduction

  如下为一个简单的 conversation thread 例子:

  

  本文提出的点:考虑兄弟之间的关系,如下图虚线部分。

  

2 Claim-guided Hierarchical Graph Attention Networks

  总体框架如下:

   

  本文的模型包括两个注意力模块:

    • A Graph Attention to capture the importance of different neighboring tweets
    • A claim-guided hierarchical attention to enhance post content understanding

2.1 Claim-guided Hierarchical Attention

  对于每个 tweet xi ,首先使用 Bi-LSTM 获得 Post 的特征矩阵 X=[c,x1,x2,,x|V|1] ,其中 c,xiRd

  为加强模型的主题一致性和语义推理:

Post-level Attention

  为了防止主题偏离和丢失 claim 的信息,本文采用 gate module 决定它应该接受 claim 多少信息,以更好地指导相关职位的重要性分配。claim-aware representation 具体如下:

    gcxi(l)=sigmoid(Wg(l)hxi(l)+Ug(l)hc(l))h~xi(l)=gcxi(l)hxi(l)+(1gcxi(l))hc(l)

  其中,gcxi(l) 是一个 gate vector,Wg(l)Ug(l) 是可学习参数。

  然后,将 claim-aware representation 与 original representation 拼接起来,作为 Eq.1 的输入去计算注意力权重:
    h^xi(l)=[h~xi(l)hxi(l)]α^i,j(l)=Atten(h^xi(l),h^xj(l))

2.2 Graph Attention Networks

  为了编码结构信息,本文使用 GAT encoder:
  输入H(l)=[hc(l),hx1(l),hx2(l),,hx|V|1(l)]
  过程
    αi,j(l)=Atten(hxi(l),hxj(l))=exp(ϕ(a[W(l)hxi(l)W(l)hxj(l)]))jNiexp(ϕ(a[W(l)hxi(l)W(l)hxj(l)]))

    hxi(l+1)=ReLU(jNiαi,j(l)W(l)hxj(l))

  考虑多头注意力:

    hxi(l+1)=k=1KReLU(jNiαi,j(l,k)Wk(l)hxj(l))

  替换输出层的表示向量:

    hxi(L)=ReLU(1Kk=1KjNiαi,j(l,k)Wk(l)hxj(l))

  输出:图表示

    s¯= mean-pooling (H(L))

Event-level Attention

  出发点:获得图表示的时候采用的 平均池化并不是一定有意义的,可能存在某些节点对于图分类来说更准确。

  受到 Natural Language Inference (NLI) 的影响,本文考虑对 GAT 最后一层的 hc(L) 和  hxi(L):1)  做如下处理 :

    1)concatenation [hc(L)hxi(L)]

    2)element-wise product hprod (L)=hc(L)hxi(L)

    3)absolute element-wise difference hdiff (L)=|hc(L)hxi(L)|

  接着获得一个联合表示:

    hxic=tanh(FC([hc(L)hxi(L)hprod (L)hdiff (L)]))

  通过使用该联合表示计算 Event-level Attention :

    bi=tanh(FC(hxic))βi=exp(bi)iexp(bi)s^=iβihxi(L)

  最后将其 S^ 与 GAT 最后一层的平均池化图表示 s¯ 拼接作为最终图表示,并进行分类:

    y^=softmax(FC([s^s¯]))

3 Experiments

3.1 Datasets

  

3.2 Rumor Classifification Performance 

TWITTER15 分类结果: 

   

PHEME 分类结果:

  

3.3 Ablation Study

  1) ClaHi-GAT/DT: Instead of the undirected interaction graph, we use the directed trees as the model input.

  2) GAT+EA+SC: We simply concatenate the features of the claim with the node features at each GAT layer, to replace the claim-aware representation.

  3) w/o EA: We discard the event-level (inference-based) attention as presented.

  4) w/o PA: We neglect the post-level (claim-aware) attention by leaving out the gating module introduced.

  5) GAT: The backbone model.

  6) GCN: The vanilla graph convolutional networks with no attention.

  

3.4 Evaluation of Undirected Interaction Graphs 

  1. ClaHi-GAT/DT Utilize the directional tree applied in past influential works as the modeling way instead of our proposed undirected interaction graph.
  2. ClaHi-GAT/DTS Based on the directional tree structure similar to ClaHi-GAT/DT but the explicit interactions between sibling nodes are taken into account.
  3. ClaHi-GAT/UD The modeling way is our undirected interaction topology but without considering the explicit correlations between sibling nodes that reply to the same target.
  4. ClaHi-GAT In this paper, we propose to model the conversation thread as an undirected interaction graph for our claim-guided hierarchical graph attention networks.

  

3.5 Early Rumor Detection

   

  关键点:随着 claim 的传播,或多或少会产生更多的语义信息和噪声,所以使用 claim 的信息至关重要。

  举例说明:false claim 的注意力分数得分图如下:

  

  言下之意:错误的 post x2 会被赋予较小的权重,这就是为什么该模型早期谣言检测比较稳定的原因。

posted @   别关注我了,私信我吧  阅读(453)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
历史上的今天:
2021-10-09 机器学习第一次作业
Live2D
点击右上角即可分享
微信分享提示