美文网首页从零开始学习自然语言处理(NLP)
《从零开始学习自然语言处理(NLP)》-DeepPavlov框架

《从零开始学习自然语言处理(NLP)》-DeepPavlov框架

作者: EddyLiu2017 | 来源:发表于2019-03-02 20:04 被阅读16次

    写在最前面

    在这个日新月异的信息时代,海量数据的积累,计算能力的不断提升,机器学习尤其是深度学习的蓬勃发展,使得人工智能技术在不同领域焕发出蓬勃的活力。自己经历了嵌入式开发,移动互联网开发,目前从事自然语言处理算法开发工作。从工程软件开发到自然语言处理算法开发,希望通过这个系列的文章,能够由浅入深,通俗易懂的介绍自然语言处理的领域知识,分享自己的成长,同大家一起进步。

    问题描述

    在上一篇《从零开始学习自然语言处理(NLP)-NLP Framework开源方案梳理(3)》中梳理了目前流行的NLP开源框架,这里重点介绍下DeepPavlov框架。DeepPavlov框架的模型实用性很强,对实际的生产开发有很大的借鉴意义。

    框架组成

    DeepPavlov是一个基于TensorFlow和Keras的,专门针对对话系统研究和实验部署的自然语言处理框架。
    项目地址:http://docs.deeppavlov.ai/en/master/#
    框架主要包括:
    常用的NLP模型(包括Pre-train模型)
    如词向量训练、分类、命名实体识别(NER)、相似度计算等;
    针对对话系统实现和评测的实验框架(Framework)
    基于Json文件进行开发流程和数据流pipeline配置;
    提供同第三方应用进行集成的工具
    如与Amazon Alexa和Microsoft Bot Framework的集成;
    为对话模型的评测提供Benchmark环境
    DeepPavlov的默认Pre-train模型和测评数据集主要基于英文和俄文,对于中文场景需要做适当的调整。

    框架使用对象

    新模型开发者
    方便同已有Benchmark模型进行对比评测
    普通NLP任务处理者
    如针对内容审核任务,敏感信息增加掩码等任务,可以直接使用框架提供的分类和序列标注模型,完成业务服务的快速开发和测评;
    对话系统开发者
    DeepPavlov是为对话系统场景量身定制的。对话系统开发者,可以直接参考使用;
    对话系统应用开发者
    DeepPavlov框架为应用集成提供了专门的工具,可以直接与Amazon Alexa,Microsoft Bot Framework等平台进行对接。

    框架使用

    规范开发流程
    框架将数据模型服务的开发和验证流程(如数据清洗、模型设计、模型训练、模型选优、模型评测),使用Json配置文件串联成pipeline。能够很好的规范开发流程;
    新模型对比评测
    为对话模型的评测提供Benchmark环境,方便新模型的对比评测。但环境主要基于英文和俄文,对于中文任务,需要重新训练对比;
    常用NLP模型使用
    框架内置了很多常用模型(以分类为例,就包含了cnn_model,bilstm_model,bilstm_attention_model,transformer_model等12种模型实现),在项目中可以直接使用;
    同时框架提供了Pre-train模型,但主要是基于英文和俄文的,对于中文场景需要自己进行重新训练;
    对话系统开发
    DeepPavlov是为对话系统场景量身定制的,对话系统开发者,可以直接参考使用;

    DeepPavlov框架层次

    DeepPavlov从整体到局部,可分为如下三个层次:


    DeepPavlov框架层次

    下面我们从外层到内层,逐层介绍DeepPavlov的框架设计。

    DeepPavlov顶层框架

    DeepPavlov框架
    Agent
    同用户直接交互的代理,直接接收用户输入的纯文本信息(raw text)
    Skill
    领域技能,如基于意图-词槽的任务型技能,基于Seq2Seq的闲聊技能,基于知识图谱的知识问答技能;
    Skill Manager
    确定用户query,选择使用哪些skill,并确定将哪一个skill的召回结果作为最终的回复;
    Component
    Skill实现的组成部分,如针对任务型技能,包括数据预处理component、意图识别component、slotfilling component等;
    Chainer
    Chainer以Json配置文件的形式,将某个skill相关的所有component串联起来;
    Data Storage
    框架本身包含的Pre-train模型和Benchmark评测数据集

    Skill框架

    DeepPavlov内置的skill主要包括:
    任务型skill(Goal-Oriented Dialogue Bot)
    基于意图/词槽/对话管理等component实现的问答skill。

    任务型skill
    阅读理解skill(Open-Domain Question Answering)
    基于阅读理解实现问答skill。相对于阅读理解component(Context Question Answering),skill还包含在多个召回结果中进行排序的能力。
    规则型skill(Pattern Matching)
    基于自定义规则实现问答skill。
    Seq2Seq skill(Sequence-To-Sequence Dialogue Bot)
    基于Seq2Seq实现问答skill。
    Seq2Seq skill
    常见问题问答skill(Frequently Asked Questions Answering)
    先将句子嵌入为向量(使用词向量叠加),然后做分类处理(给每一个answer一个打分),选取打分最高的answer作为最终回复的skill。
    商品查询skill(eCommerce Bot)
    商品查询回复skill,支持多轮(添加过滤条件)。下面是场景示例,
    商品查询skill

    基本能力框架

    DeepPavlov内置的基本能力主要包括:
    数据预处理component(Data processors)
    主要提供包括分词、嵌入向量化等预处理能力(主要基于俄文和英文)。
    阅读理解component(Context Question Answering)
    相对于阅读理解skill(Open-Domain Question Answering),component不包含对多个召回结果进行排序(rank)的能力。具体的处理场景示例如下,

    阅读理解component
    分类component(Classification)
    分类组件,可以用来做场景和意图的分类。
    Morphological Tagger component
    一种特殊的POS?
    命名实体识别component(Named Entity Recognition)
    NER能力组件。
    相似度计算component(Neural Ranking)
    通过基于孪生网络完成相似度计算,实现在标准问答库中标准答复的查找。
    词槽填充component(Slot filling)
    在NER的基础上,增加了词表限制。
    *拼写纠错component(Spelling Correction)
    提供了两种纠错方法:
    • levenshtein_corrector :基于编辑距离
    • brillmoore:基于统计模型

    TF-IDF排序component(TF-IDF Ranking)
    基于TF-IDF的文档召回排序。
    流行度排序component(Popularity Ranking)
    将TF-IDF打分和流行度打分作为特征,通过逻辑回归计算流行度,最终实现排序。

    Json配置文件解析

    DeepPavlov通过Json配置文件实现开发流程控制和数据流pipeline的控制。
    上面提到DeepPavlov主要分为Agent、Skill和Component三个层次。而Json配置文件主要应用在Skill和Component这两个层面。而对Agent的控制,框架通过直接的代码来实现,例如,

    agent
    其中,
    skills
    Agent支持的所有skill列表;
    skills_filter
    针对用户query,确定Agent使用哪些skill;
    skills_filter
    通过召回的不同skill结果,确定最后的回复内容给用户;
    下面我们具体的介绍下Json配置文件的具体结构。

    Json配置文件结构

    Json配置文件结构
    如上图所示,Json配置文件主要由如下五个部分组成(参考分类component):
    dataset_reader
    主要负责数据的读取。
    dataset_reader
    dataset_iterator
    数据迭代器,从dataset_reader中获得数据,然后按batch抽取数据,供后面的模型训练使用。
    dataset_iterator
    chainer
    配置文件的核心,将数据预处理、模型选优和模型预测输出,通过pipeline("pipe"字段内进行约束)的形式串联起来。
    "chainer": {
    "in": [
      "x"
    ],
    "in_y": [
      "y"
    ],
    "pipe": [
      {
        "id": "classes_vocab",
        "class_name": "simple_vocab",
        "fit_on": [
          "y"
        ],
        "save_path": "{MODELS_PATH}/classifiers/{PROJECT_NAME}_{MODEL_NAME}/classes.dict",
        "load_path": "{MODELS_PATH}/classifiers/{PROJECT_NAME}_{MODEL_NAME}/classes.dict",
        "in": "y",
        "out": "y_ids"
      },
      {
        "in": "x",
        "out": "x_tok",
        "id": "my_tokenizer",
        "class_name": "char_tokenizer",
        "tokenizer": "char_tokenizer"
      },
      {
        "in": "x_tok",
        "out": "x_ids",
        "id": "seq_to_emb_ids",
        "class_name": "seq_to_emb_ids",
        "emb_file_path":"{EMBED_PATH}",
        "text_size":250
      },
      {
        "in": "y_ids",
        "out": "y_onehot",
        "class_name": "one_hotter",
        "id": "my_one_hotter",
        "single_vector": true,
        "depth": "#classes_vocab.len"
      },
      {
        "in": [
          "x_ids"
        ],
        "fit_on_batch_preprocess": [
          "x_ids",
          "y_onehot"
        ],
        "out": [
          "y_pred_probas"
        ],
        "main": true,
        "class_name": "keras_classifier_model",
        "graph_metrics": "multilabel_f1",
        "save_path": "{MODELS_PATH}/classifiers/{PROJECT_NAME}_{MODEL_NAME}/model",
        "load_path": "{MODELS_PATH}/classifiers/{PROJECT_NAME}_{MODEL_NAME}/model",
        "n_classes": "#classes_vocab.len",
        "train_emb": false,
        "kernel_sizes_cnn": [
          1,
          2,
          3,
          4,
          5
        ],
        "filters_cnn": 512,
        "optimizer": "Adam",
        "learning_rate": 0.001,
        "learning_rate_decay": 0.9,
        "loss": "categorical_crossentropy",
        "embedding_matrix": "#seq_to_emb_ids.matrix",
        "text_size": 250,
        "last_layer_activation": "softmax",
        "coef_reg_cnn": 0.0,
        "coef_reg_den": 0.0,
        "dropout_rate": 0.5,
        "dense_size": 30,
        "model_name": "cnn_model"
      },
      {
        "in": "y_pred_probas",
        "out": "y_pred_ids",
        "class_name": "proba2labels",
        "max_proba": true
      },
      {
        "in": "y_pred_ids",
        "out": "y_pred_onehot",
        "ref": "my_one_hotter"
      },
      {
        "in": "y_pred_ids",
        "out": "y_pred_labels",
        "ref": "classes_vocab"
      }
    ],
    "out": [
      "y_pred_ids",
      "y_pred_onehot",
      "y_pred_labels",
      "y_pred_probas"
    ]
    },
    

    官方文档中,将“pipe”字段内的每一对花括号({})中的内容成为一个component(注意这里的component和上面提到的框架component是不同的。为了方便区分,我们将"pipe"中的component标识为pipe-component)。
    train
    模型训练、模型选优和评测配置。

    "train": {
    "epochs": 10,
    "batch_size": 256,
    "metrics": [
      {
        "name": "cal_confusion_matrix",
        "inputs": [
          "y",
          "y_pred_labels"
        ]
      },
      {
        "name": "f1_micro",
        "inputs": [
          "y",
          "y_pred_labels"
        ]
      },
      {
        "name": "recall_micro",
        "inputs": [
          "y_ids",
          "y_pred_ids"
        ]
      },
      {
        "name": "precision_micro",
        "inputs": [
          "y_onehot",
          "y_pred_onehot"
        ]
      },
      {
        "name": "f1_macro",
        "inputs": [
          "y_onehot",
          "y_pred_onehot"
        ]
      },
      {
        "name": "precision_macro",
        "inputs": [
          "y",
          "y_pred_labels"
        ]
      },
      {
        "name": "recall_macro",
        "inputs": [
          "y_ids",
          "y_pred_ids"
        ]
      },
      {
        "name": "recall_group",
        "inputs": [
          "y_onehot",
          "y_pred_onehot"
        ]
      },
      {
        "name": "precision_group",
        "inputs": [
          "y",
          "y_pred_labels"
        ]
      },
      {
        "name": "f1_group",
        "inputs": [
          "y_ids",
          "y_pred_ids"
        ]
      }
    ],
    "validation_patience": 5,
    "val_every_n_epochs": 1,
    "log_every_n_epochs": 1,
    "show_examples": true,
    "validate_best": true,
    "test_best": true,
    "report_path": "{MODELS_PATH}/classifiers/{PROJECT_NAME}_{MODEL_NAME}/report.xlsx"
    },
    

    其中,
    "metric"字段中排在最前面的指标,作为模型选优的标准。
    metadata
    相关相关的常量配置。

    metadata
    其中,"imports"是DeepPavlov框架之外自定义实现。

    DeepPavlov存在的问题

    环境依赖
    DeepPavlov是基于TensorFlow和Keras实现的,不能继承其他计算框架的模型实现(如PyTorch)。
    语言支持
    Pre-train模型和评测数据集主要基于英文和俄文,不支持中文。
    生产环境部署
    DeepPavlov在运行时需要依赖整个框架源码,开发环境对框架修改后,生产环境需要更新整个框架。同时,也不能直接将功能Component作为服务独立导出,不适合在生产环境的部署和发布。

    相关文章

      网友评论

        本文标题:《从零开始学习自然语言处理(NLP)》-DeepPavlov框架

        本文链接:https://www.haomeiwen.com/subject/inrgyqtx.html