Interpretable Rumor Detection in Microblogs by Attending to User Interactions

发布时间 2023-03-24 00:12:31作者: 青衫扶夕

Article:

l 论文标题Interpretable Rumor Detection in Microblogs by Attending to User Interactions通过关注用户交互的可解释性的微博谣言检测

l 论文作者Ling Min Serena Khoo, Hai Leong Chieu, Zhong Qian, Jing Jiang

l 论文来源:2020,AAAI

l 论文地址:https://arxiv.org/abs/2001.10667

l 引用:L. M. S. Khoo, H. L. Chieu, Z. Qian, and J. Jiang (2020) Interpretable Rumor Detection in Microblogs by Attending to User Interactions. In: Proceedings of the 34th AAAI conference on artificial intelligence, pp 5595-5602

Background:

wps1[4] 

本文工作的重点是利用社区对帖子响应回复来检测帖子是否是谣言,旨在使用自然语言处理技术来利用社区群体智能。关键原则是,社交媒体上的用户会发表对不准确信息的看法、猜测和证据,用户之间的互动以及分享的内容可以被捕捉,用于假新闻检测。

本文观点:基于树结构的谣言检测模型,往往忽略了分支之间的交互。

1 Introduction:

Motivation发布回复的用户可能是对整个线程的回复,而不是对特定用户的回复。

Method本文提出一个Post-Level Attention Model (PLAN)模型,利用Transformer网络中Multi-Head Attention Mechanism(多头注意力机制)来建模长距离的推文之间的交互。

本文还研究了该模型的变体:

² 一种结构感知的自注意力模型(StA-PLAN),可以在Transformer网络中结合树状结构信息;  

² 一种分层的字词和帖子级注意力模型(StA-HiTPLAN),可以通过字词级自注意力机制学习句子向量。

Contributions

1. 本文利用提出的模型的注意力权重来提供模型预测背后的字词级和帖子级的解释。这是第一篇这样做的论文。

2. 本文在两个数据集上与以前的研究进行了比较——PHEME 5Twitter 15 Twitter 16。之前的研究只在其中之一的数据集上机型评估。 

3. 本文提出的模型在以上两个数据集中表现优于此前性能最好的模型。

目前谣言检测的类型:

(i) 基于谣言内容的;

(ii) 基于谣言来源的社会网络结构的;

(iii) 通过可信的来源核查事实真相的;

(iv) 基于对谣言的回复相应的。

2 Approaches:

2.1 Recursive Neural Networks

观点:谣言传播树通常是浅层的,一个用户通常只回复一次 source post ,而后进行早期对话。

Dataset

Twitter 15

Twitter 16

PHEME

 Tree-depth

2.80

2.77

3.12

 

2.2 Transformer Networks

Transformer 中的注意机制使有效的远程依赖关系建模成为可能。

Transformer 中的注意力机制:

wps2[4]          (1)

wps3[4]                                 (2)

 

2.3 Post-Level Attention Network(PLAN)

框架如下:

wps4[4] 

首先:将 Post 按时间顺序排列;

其次:对每个Post使用Max pool(最大池化)得到sentence embedding

然后:将sentence embedding wps5[4]通过8个多头注意力模块MHA得到wps6[4]

最后:通过attention机制聚合这些输出并使用全连接层进行预测:

wps7[4]                 (3)

wps8[4]                        (4)

wps9[4]   (5)

wps10[4]wps11[4]是通过sMHA层后的输出,vp分别是X的表示向量和预测向量。

回顾:wps12[3]

 

2.4 Structure Aware Post-Level Attention Network(StA-PLAN)

上述模型的问题:线性结构组织的推文容易失去结构信息。

为了结合显示树结构的优势和自注意力机制,本文扩展了 PLAN 模型,来包含结构信息。

wps13[3]

wps14[3]

其中,wps15[3]wps16[3]是代表上述五种结构关系(i.e. parent, child, before, after and self) 的向量。

 

2.5 Structure Aware Hierarchical Token and Post-Level Attention Network(StA-PLAN)

本文的PLAN 模型使用 max-pooling 来得到每条推文的句子表示,然而比较理想的方法是允许模型学习单词向量的重要性。因此,本文提出了一个层次注意模型—— attention at a token-level then at a post-level。层次结构模型的概述如 Figure 2b 所示。

wps17[3] 

 

2.6 Time Delay Embedding

源推文创建的时候,回复推文一般是抱持怀疑的状态,而当源推文发布了一段时间后,回复推文有着较高的趋势显示源推文是虚假的。因此,本文研究了 time delay information对上述三种模型的影响。

为了包含每条推文的时间延迟信息,本文根据推文从源推文创建时起的延迟对推文进行装箱。总计时间段数量为100,每个时间段为10分钟间隔,延迟超过1000分钟的推文归入最后一个时间段。利用Transfomer原论文中类似的位置编码公式来编码每个时间段,得到的time delay embedding将与推文的句子embedding相加。每个推文的time delay embeddingTDE)为:

wps18[3]

wps19[3]代表每条推文所属的时间段,wps20[3]代表维度,wps21[3]代表整个模型的维度。

3 Experiments and Results:

Dataset

wps22[3] 

Result

wps23[3] 

 

wps24[3] 

Explaining the predictions

Post-Level Explanations

首先通过最后的 attention 层获得最重要的推文wps25[3],然后从第wps26[3]MHA层获得该层的与wps27[3]最相关的推文wps28[3],每篇推文可能被识别成最相关的推文多次,最后按照被识别的次数排序,取前三名作为源推文的解释。举例如下

wps29[3] 

Token-Level Explanations

可以使用 token-level self-attention 的自注意力权重来进行 token-level 的解释。比如评论“@inky mark @CP24 as part of a co-op criminal investigation one would URL doesn’t need facts to write stories it appears.”中短语“facts to write stories it appears”表达了对源推文的质疑,右图的自注意力权重图可以看出大量权重集中在这一部分,这说明这个短语就可以作为一个解释

wps30[3] 

 

4 Conclusion:

本文提出了三个模型,在三个数据集上的表现优于先前基于递归神经网络的模型。本文的模型利用自注意机制来模拟推文/帖子之间的成对交互,利用注意力机制,通过提取能左右预测的重要帖子,为预测结果提供可能的解释。本文还研究了捕获结构和时间信息的机制。

在本文中,只关注到具有社区响应的数据。最近有使用用户身份信息进行谣言检测的论文显示出了更好的结果。

最后,谣言检测的另一个方向是利用可靠来源进行事实核查。事实核查和谣言侦测可以提供补充信息,并且可以联合进行,研究人员在未来可以考虑这一点。