收集了一下近几年用修辞结构理论做篇章结构解析的论文,并给出相应的实验结果。
做英文篇章RST解析,一般都是用RST Discourse Treebank数据集,共385篇文章,其中347篇训练集,38篇测试集。
评价指标有四个, 来自书籍The Theory and Practice of Discourse Parsing and Summarization:
Span:评价预测RST树结构的能力
Nuclearity:评价预测RST树结构和Nuclearity(核心)的能力
Relation:评价预测RST树结构和Relation的能力
Full:评价预测RST树结构和Nuclearity,以及Relation的能力
注意这里提到的实验,使用的是数据集给定的EDU基本语篇短语,而不是自己分割的
(1)A Linear-Time Bottom-Up Discourse Parser with Constraints and Post-Editing
来源: acl2014
网址:https://aclanthology.org/P14-1048.pdf
代码:https://github.com/arne-cl/feng-hirst-rst-parser
使用两个线性连CRF,贪婪自底向上的方式构建RST树。时间复杂度更小,线性于篇章中的句子个数。为了提高pipeline的准确度,增加了维特比解码的限制条件。引入post-edit(后处理),对RST树进行修正。
测试集统计:
考虑了18种语篇关系,在RST Discourse Treebank数据集上的实验结果:
38篇测试集跑完需要的时间:
(2) Representation Learning for Text-level Discourse Parsing
来源:acl2014
网址:https://aclanthology.org/P14-1002.pdf
代码:https://github.com/jiyfeng/DPLP
使用的特征:
考虑了18种语篇关系,在RST Discourse Treebank数据集上的实验结果:
(3)Transition-based Neural RST Parsing with Implicit Syntax Features
来源:coling2018
网址:https://aclanthology.org/C18-1047.pdf
代码:https://github.com/fajri91/NeuralRST
利用隐式语法信息辅助RST解析。
RST解析的一个例子:
将结构预测转化为Action序列预测:
考虑了18种语篇关系,在RST Discourse Treebank数据集上的实验结果(宏平均):
Feng and Hirst, 2014
和 Ji and Eisenstein, 2014
分别对应于本博客提到的(1)和(2)两篇论文
(4)A Top-Down Neural Architecture towards Text-Level Parsing of Discourse Rhetorical Structure
来源:ACL2020
网址:https://arxiv.org/pdf/2005.02680.pdf
代码:https://github.com/NLP-Discourse-SoochowU/t2d_discourseparser
提出一个基于encoder 和decoder 的自顶向下的神经篇章解析模型,认为自顶向下的方式可以利用全局信息,也和人们阅读的方式一致。
EN表示在RST Discourse Treebank数据集上的实验结果(宏平均),考虑了18种语篇关系:
第二行
Ji&Eisenstein(2014)
和第三行Feng&Hirst(2014)
分别对应本博客提到的论文(2)和(1)。
结果相差比较大的原因是:该论文使用的是A dependency perspective on RST discourse parsing and evaluation
提出的评价方式,与先前的使用的评价方式有些不同。
总之,在英文数据集上,该论文的效果不及(1)和(2)两篇论文。
更全面的统计:
https://paperswithcode.com/sota/discourse-parsing-on-rst-dt
网友评论