• 谣言检测——(GCAN)《GCAN: Graph-aware Co-Attention Networks for Explainable Fake News Detection on Social Media》


    论文信息

    论文标题:GCAN: Graph-aware Co-Attention Networks for Explainable Fake News Detection on Social Media
    论文作者:Yi-Ju Lu, Cheng-Te Li
    论文来源:2020, ACL
    论文地址:download 
    论文代码:download 

    1 Abstract 

      目的:预测源推文是否是假的,并通过突出显示可疑的转发者上的证据和他们所关心的词语来产生解释。

    2 Introduction

      我们预测一个源推文故事是否是假,根据它的短文内容和用户转发序列,以及用户个人资料。

      我们在三种设置下检测假新闻:   (a) short-text source tweet (b) no text of user comments (c) no network structures of social network and diffusion network.

      本文贡献:

      (1) 研究了一种新颖、更现实的社交媒体上的假新闻检测场景;

      (2) 为了准确的检测,我们开发了一个新的模型,GCAN,以更好地学习用户交互的表示、转发传播及其与源短文的相关性;

      (3) 本文的双重共同注意机制可以产生合理的解释;

      (4) 在真实数据集上进行的大量实验证明,与最先进的模型相比,GCAN具有良好的性能前景;

    3 Related Work

      

    4 Problem Statement

      

    5 GCAN Model

      总体框架如下:

      

      GCAN 包括五个部分:

      1. user characteristics extraction: creating features to quantify how a user participates in online social networking.
      2. new story encoding: generating the representation of words in the source tweet.
      3. user propagation representation : modeling and representing how the source tweet propagates by users using their extracted characteristics.
      4. dual co-attention mechanisms: capturing the correlation between the source tweet and users’ interactions/propagation.
      5. making prediction: generating the detection outcome by concatenating all learned representations.

    5.1 User Characteristics Extraction

      用户 ujuj 的特征为 xjRv

      (1) number of words in a user's self-description;
      (2) number of words in ujs screen name;
      (3) number of users who follows uj
      (4) number of users that uj is following;
      (5) number of created stories for uj
      (6) time elapsed after ujs first story;
      (7) whether the uj account is verified or not;
      (8) whether uj allows the geo-spatial positioning;
      (9) time difference between the source tweet's post time and ujs retweet time;
      (10) the length of retweet path between uj and the source tweet (1 if uj retweets the source tweet);

    5.2 Source Tweet Encoding

      输入是 story si 中每个单词的一个热向量。由于每个 source story 的长度都是不同的,所以在这里通过设置最大长度 m 来执行零填充。设 E=[e1,e2,,em]Rm 为 source story 的输入向量,其中 em 为第 m 个单词的独热编码。我们创建了一个完全连接的层来生成单词嵌入,V=[v1,v2,,vm]Rd×m,其中 d 是单词嵌入的维数。V 的推导方法为:

        V=tanh(WwE+bw)(1)

      其中,Ww 为可学习权值的矩阵,bc 为偏差项。然后,利用门控循环单元(GRU)从 v 学习单词序列表示。源推文表示学习可以用:st=GRU(vt),t{1,,m},其中 m 是 GRU 维数。将源推文表示为 S=[s1,s2,,sm]Rd×m

    5.3 User Propagation Representation

      随着时间的推移,源推文 si 的传播是由一系列的用户触发的。我们的目的是利用提取的用户特征向量 xj,以及用户序列扩展si,来学习用户传播表示。

      本文利用门控递归单元(GRU)和卷积神经网络(CNN)来学习传播表示。

      这里输入的是用户转发 si 的特征向量序列,用 PF(si)=x1,x2,,xt,,xn 表示,其中 n 是观察到的转发的固定长度。如果共享 si 的用户数量大于 n,我们取前 n 个用户。如果这个数字小于 n,我们在 PFsi 中重新采样用户,直到它的长度等于 n。 

    GRU-based Representation
      给定特征向量 PF(si)=,xt, 的序列,我们利用 GRU 来学习传播表示。每个 GRU 状态都有两个输入,当前的特征向量 xt 和前一个状态的输出向量 ht1,和一个输出向量 ht1。基于GRU的表示学习可以用: ht=GRU(xt),t{1,,n} 来表示,其中 n 是GRU的维数。我们通过平均池化生成最终的基于 GRUs 的用户传播嵌入 hRd,由 h=1nnt=1ht 给出。

    CNN-based Representation.

      本文利用一维卷积神经网络来学习 PF(si) 中用户特征的序列相关性。本文一次性考虑 λ 个连续用户来建模他们的序列相关性,即 xt,,xt+λ1。因此,过滤器被设置为Wf∈Rλ×v。然后输出表示向量 CRd×(t+λ1)

        C=ReLU(WfXt:t+λ1+bf)

      其中 Wf 为可学习参数的矩阵,ReLU 为激活函数,Xt:t+λ1 描述了第一行索引从 t=1t=nλ+1 的子矩阵,bf 为偏差项。

    5.4 Graph-aware Propagation Representation

      我们的目的是创建一个图来建模转发用户之间潜在的交互,想法是拥有特殊特征的用户之间的相关性对揭示源推文是否是假新闻能够起到作用。每个源推文 si 的转发用户集合 Ui 都被用来构建一个图 Gi=(Ui,Ei) 。由于用户间的真实交互是不清楚的,因而这个图是全连接的,也 就是任意节点相连, |Ei|=n×(n1)2 。结合用户特征,每条边 eαβEi 都被关联到 一个权重 wαβ,这个权重也就是节点用户特征向量 xαxβ 的余弦相似度,即 wαβ=xαxβxαxβ ,图的邻接矩阵 A=[wαβ]Rn×n

      然后使用 GCN 来学习用户交互表示。给定邻接矩阵 A 和用户特征矩阵 X ,新的 g 维节 点特征矩阵 H(l1)Rn×g 计算过程为:

        H(l+1)=ρ(˜AH(l)Wl)

      l  是层数,˜A=D12AD12Dii=jAij  是度矩阵,WlRd×g  是第  l  层的学习参数,  ρ  是激活函数。这里  H0=X  ,实验时选择堆叠两层  GCN  层,最终学习到的表示为  GRg×n

    5.5 Dual Co-attention Mechanism

      我们认为假新闻的证据可以通过调查源推文的哪些部分是由哪些类型的转发用户关注的来揭开,并且线索可以由转发用户之间如何互动来反映。因此,本文提出了 dual co-attention 机制,来建模:
      ① 源推文 (S=[s1,s2,,sm]) 与用户传播 Embedding (C=[c1,c2,,cnλ+1] ) 之间

      ② 源推文 (S=[s1,s2,,sm]) 与 graph-aware 的 Embedding 交互 (G=[g1,g2,,gn]) 之间

      通过 dual co-attention 的注意力权重,模型可以具有可解释性。

    Source-Interaction Co-attention

      首先计算一个相似性矩阵 FRm×n:

        F=tanh(STWsgG)

      这里 Wsg 是一个 d×g 的参数矩阵,接着按照以下方式得到 HsHg 。

        Hs=tanh(WsS+(WgG)F)Hg=tanh(WgG+(WsS)F)(4)

      这里  WsRk×dWgRk×g  ,这里的  F  和  FT  可以看做在做 user-interaction attention 空间和 source story word attention 空间的转换。接下来得到 attention 的权重:

        as=softmax(whsHs)ag=softmax(whgHg)(5)

      这里  asR1×magR1×nwhs,whgR1×k 是学习的参数。最后可以得到源倠文 和用户交互的 attention 向量:

        ˆs1=mi=1asisi,ˆg=nj=1agjgj(6)

      ˆs1ˆg 描述源推文中的单词是如何被用户参与互动的。

    Source-Propagation Co-attention.

      按照上述类似过程生成 SC 的 attention 向量 ˆs2ˆc

      注意基于 GRU 的传播表示没有用来学习与 S 的交互。这是因为对于假新闻的预测来说,转发序列的用户特征能够起到重要的作用。因此本文采用基于 GRU 和 CNN 的两种方式来学习传播表 示,其中基于 CNN 的传播表示被用来学习与 S 的交互,基于 GRU的传播表示在进行最终预测时 用作最终分类器的直接输入。

    5.6 Make Prediction

      最终使用 f=[ˆs1,ˆg,ˆs2,ˆc,h] 来进行假新闻检测: 

        ˆy=softmax(ReLU(fWf+bf))

      损失函数采用交叉熵损失:

        L(Θ)=ylog(ˆy1)(1y)log(1ˆy0)

    6 Experiments

    Baseline:

      

     

    假新闻早期检测
      GCAN也可以用于假新闻早期的检测,也就是在转发用户不多的时候进行检测,实验改动了使用的转发用户数量来进行验证:

      

     

    消融实验

      另外移除了一部分组件进行了消融实验,图中 -A,-R,-G,-C 分别代表 移除dual co-attention,基于GRU的表示,graph-aware的表示和基于CNN的表示:

      

     

       -S-A 代表既没有源推文 Embedding 也没有 dual co-attention,由于源推文提供了基本线索,因此 -S-A 有一个明显的性能下降。

    可解释性
      source-propagation co-attention 学习到的 attention 权重可以用来为预测假新闻提供证据,采用的方式就是标识出源推文中的重要的词和可疑的用户。注意,我们不考虑 source-interaction Co-attention 的可解释性,因为从构造的图中学到的用户交互特征不能直观地解释。

      下图是根据对源推文中的 attention 权重绘制的两个例子的词云(权重越大,词云中的词就越大):

      

      图中结果满足常识,也就是假新闻倾向于使用戏剧性和模糊的词汇,而真实新闻则是被证实和核实事实的相关词汇。

      另外我们希望利用传播中的转发顺序来揭示假新闻与真新闻的行为差异。下图采集并展示了三个假新闻和三个真新闻的传播序列 attention 的权重:

      

     

      结果表明,要确定一个新闻是否虚假,首先应该检查早期转发源推文的用户的特征。假新闻的用户 attention 权重可能在传播过程中均匀分布。

      source-propagation co-attention可以进一步解释可疑用户的特征及其关注的词语,举例如下图:

      

      可以发现,可疑用户在转发传播中的特征有:
      ①账号未被验证;
      ②账号创建时间较短;
      ③用户描述长度较短;
      ④距发布源推文用户的图路径长度较短。

      他们高度关注的词是“breaking”和“pipeline”这样的词。我们认为这样的解释有助于解读假新闻的检测,从而了解他们潜在的立场。

     

     


    __EOF__

  • 本文作者: Blair
  • 本文链接: https://www.cnblogs.com/BlairGrowing/p/16698050.html
  • 关于博主: I am a good person
  • 版权声明: 本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
  • 声援博主: 如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。
  • 相关阅读:
    职责链模式,非常容易被忽视的设计模式之一(设计模式与开发实践 P13)
    CSS - 弹性布局(flex)
    Keras深度学习实战(34)——构建聊天机器人
    C++ 字符串哈希(hush)讲解
    [LeetCode]链式二叉树相关题目(c语言实现)
    C++的智能指针 && RAII
    SpringCloud Gateway 3.x 响应头添加 Skywalking TraceId
    webp格式如何转成png?
    大数据-之LibrA数据库系统告警处理(ALM-12055 证书文件即将过期)
    magic API构建和基础实现
  • 原文地址:https://www.cnblogs.com/BlairGrowing/p/16698050.html