美文网首页ml我爱编程
RNN与自动摘要(RNN,Attention Model)

RNN与自动摘要(RNN,Attention Model)

作者: addisonQ | 来源:发表于2018-03-13 18:47 被阅读78次

    从业务角度,自动摘要技术可以用于以下三个场景:

    1.理解用户的偏好:拼接商户简介及用户评论作为原文,做出短摘要。摘要中包含当前用户常用的关键词,目的是拉近与用户的距离,使用户有似曾相识的感觉,正合心意的感觉。即通过摘要做到“理解商户,理解用户”。例如用户A在评论中更多的提及“服务很好,热情,环境很舒适”,那么用户A更注重用餐环境及服务,在摘要中,就偏重环境,服务等方面的介绍。用户B在评论中更偏重对口感,味道的关注,如“香甜可口,很新鲜”等,那么再摘要中更侧重对菜品口味的介绍和推荐。

    2.理解用户的需求:根据用户历史浏览的商户,推测用户的偏好,比如用户C浏览过“韩式婚纱”,当用户C继续浏览婚宴相关的商户时,摘要可以侧重“韩式,浪漫”,与用户的历史行为相呼应。

    3.更好的理解商户:将统计数据体现在摘要中,如“全网最低价”,“最新流行款式”,这些特点可以从数据的统计特征中得出,更好的体现商品的特点。即阿里提出的data-to-sequence。

    从技术层面讲,自动摘要生成一般有两种方式:抽取式(Extraction)和摘要式(Abstraction)。

    抽取式以抽取原文已有句子,通过删除,替换等编辑方式,将语料缩短(Condense)为短句。其优点是:语义及语法的正确性可以保证,可以基本还原原语料。缺点是严重依赖原文,无法满足个性化推荐的需要,存在细节重复,表达呆板,逻辑不连贯的问题。以TextRank为例,在迭代算法开始之前,需要对原句进行过滤(如情感分析)来构造图中的点集。关键语句提取之后要调整句子顺序,代词与实体词的替换等。参考论文:TextRank: Bringing Order into Texts。

    使用TextRank做自动摘要的结果及评价如下表所示:

    生成式(Abstraction)即sequence-2-sequence model,可以利用原语料外的词汇描述原文,更灵活,新颖和个性化。摘要式的技术基础为LSTM,Attention Model, beam-search等。以下整理了各主要技术的前沿论文。附件PDF为读书笔记,内容包括编/解码器的神经网络结构,Attention model的物理含义解释,OOV,解码器预测输出等。

    Attention Model,计算输入序列对应的隐层状态与输出序列的相关性分布:A Neural Attention Model for Abstractive Sentence Summarization

    机器翻译,自动摘要基本结构:RNN encoder-decoder:neural machine translation by jointly learning to align and translate 

     LSTM:Sequence to Sequence Learning with Neural Networks。

    OOV处理:Abstractive Text Summarisation using Sequence-to-sequence RNNs and Beyond

    Reference:

    https://guillaumegenthial.github.io/sequence-to-sequence.html

    https://www.tensorflow.org/tutorials/seq2seq

    www.hankcs.com/nlp/textrank-algorithm-java-implementation-of-automatic-abstract.html

    相关文章

      网友评论

        本文标题:RNN与自动摘要(RNN,Attention Model)

        本文链接:https://www.haomeiwen.com/subject/miftqftx.html