美文网首页机器学习与数据挖掘
讲人话系列——企业中的文本分类

讲人话系列——企业中的文本分类

作者: 张凡宇 | 来源:发表于2019-04-17 19:02 被阅读387次

概述

新型深度模型天天刷屏刷榜,模型日新月异,做算法的不免感到焦虑。发现自己看论文的速度已经赶不上他们发论文的速度了。在此启发下,想写一写自己工作的思考,面对一个领域,我们如何进行技术选型,这个系列我会结合着自己的工作,帮助大家选择一个好的Baseline模型。可能这也是我的困惑,大家模型介绍的欢天喜地,并没有指出哪些适合做baseline,到头还得自己一个一个试,希望我的经验能帮助大家节省一点点时间。我就很满足了。技术更新太快,自己并不是专家,您看到这篇文章的时候,可能已经有点过时,择优享用吧。

问题描述

  • 今日主角:文本分类

  • 问题定义:给定一段文本,预测一个或者多个标签。

  • 问题举例

    • 搜索类目预测:query-红色连衣裙 label-女装_连衣裙

    • 智能客服意图分类:query-我的快递怎么还没到 label-物流没到

    • 新闻分类:query-哈登今日xx分 label-体育

    • 情感分类:query-我好难过啊 label-伤心

  • 技术侧划分

    • query的长度:短句、段落、文章

    • 预测label:一个、多个(同时满足)

    • label数量

技术价值:该技术非常的实用,一方面可以帮助公司节省一些人力标注成本,另一方面,可以赋能业务,让业务做一些之前无法做到的分析、运营。

模型介绍

本文不一一对比各个模型的原理,参看用深度学习(CNN RNN Attention)解决大规模文本分类问题 - 综述和实践即可。这里我一句话介绍一下模型的区别。

一句话模型总结:

  • 传统非embedding模型:baseline太低,我直接忽略。有能超过textcnn的请指教。

  • textcnn:抽取Ngram特性,适用于词语特征明显的业务,几个词就能很好的区分问题,参数量要够大,size取正常词语长度(1,2,3,4,5)即可,非常好用的短文本Baseline。

  • textrnn:抽取序列特征,正常情况下和cnn几乎没有太大差异,企业场景几乎可以忽略,性能够的话,可以无脑和textcnn做概率层面的模型融合。

  • rcnn:几乎可以忽略,企业场景几乎可以忽略提升。

  • bert:比textcnn/textrnn会有不同幅度提升,可以适应更小的训练数据,但是性能和复杂度都不太适合做baseline。能用好bert的可能也不在这篇文章的适用人群范围了。

  • [HAN]( Hierarchical Attention Networks for Document Classification):双层的attention,文本较长的可以作为baseline非常不错。

好了,模型介绍到此结束。

文本分类Trick

这里,我来说一下,具体应用场景下我们一般关注什么样的问题。以及我们有哪些解决对策。个人做的应用偏向于短文本,所以trick也会偏向短文本。

思考1:训练数据量、标签量。

  • 每个标签需要有足够丰富度,主观评估一个新case进来,要能找到大概相似的问法(不要幻想模型可以无中生有,以上模型都不具备此能力)。

  • 评估训练集准确率,不要有太多脏数据。

  • 标签是否变化,变化标签需要定时训练,增量数据来源需要有保障。

  • 每个标签下的数据量:1w条通常就够了。(这条针对对数据量没概念的同学)

  • 记住:文本分类,至少在短文本分类下,数据决定一切,99%的质的提升都来自数据的处理。

思考2:数据来源

  • 用户行为数据:如果用户的行为能抽取出高质量的标签,那这一定是个非常nice的来源,他可以是应付动态。

  • 业务标注:人工标注,需要一定的人力成本,可以提供好用的工具帮助业务快速标注。

  • 无标注抽取:通常我们有大量无标注的数据,这些数据是真实的,所以要好好利用这部分,正则、规则、模型预训练抽取都是能有非常大提升的地方。

思考3:评估与调整

  • 主观评估:做业务不是打比赛,不是一个死的东西,你需要知道你模型能干啥,textcnn来说,就是能抽取词语特性,有类似的训练集数据大多都是能出结果的。不要单瞅着一个top1准确率,要看badcase是什么原因造成的,能从数据层处理的,就在数据层处理。

  • 关注80%:企业中的文本分类都多都是类目分布不均匀的,不要太在意一些很少很少的case,先把头部的做好。

  • 模型调参:参数先要自己摸一摸,知道大致的参数规模。参数规模尽可能大就好了,这里会有个边际效应。比如textcnn filter_num我一般设置200-400,少了不够,多了无用。不管选取哪个baseline,都需要把模型给玩熟悉,他能干啥,不能干啥要知道,然后去就搞数据。

  • 关注过拟合:需要大致看下训练集和测试机的loss差异,注意不要过拟合。

关于模型优化、流程优化

技术层面的东西讲完了,留下一些自己的思考,当作和大家讨论。

作为一项基础技术,文本分类服务很多业务。人力有限的情况下,很难做一些定制化的优化。所以模型的更新一定是有较大提升的,即在性能无影响的情况下,所有场景都能比较稳步提升。当然这并不容易。但是可以尝试做出一些新东西,更贴近业务或者其他更易用的模型。

模型提升点:

  • 文本分类可以融入特征:比如加入问题的类目、品牌、甚至用户等信息,丰富文本分类的信息。这里就需要设计一下网络结果,适应这种特征的融入。

  • 更自然语言的模型:比如业务同学的观点都很抽象,是否可以通过半阅读理解的形式补充。举个例子:生鲜坏果是一个常见的客服问题。很多非生鲜的可能会被错判,业务是否能加一个选项:生鲜水果。通过这个词选项能优化部分case。这部分可以通过语义向量的引入解决。

  • 迁移学习:BERT的迁移效果非常好,各个业务如果有类似的话,迁移也是个非常不错的优化点。

  • 实体化:词语实体化一直是比较想探索的模块,词语实体化后能大大减少训练数据的复杂度,并且具有更高的泛化性和可控性。

流程提升点:数据为王的模型下,如何让打标的人更快的达标也是个技术活

  • 提供近义词:水果->苹果、梨子...能自动出来当然更好啦,这也比较容易用w2v实现。

  • 提供近似语句:模型可以预测出相似的句子来辅助标注。

  • 聚类:帮助发现一些新的类簇,很多标签可能需要新搞一个。

相关文章

  • 讲人话系列——企业中的文本分类

    概述 新型深度模型天天刷屏刷榜,模型日新月异,做算法的不免感到焦虑。发现自己看论文的速度已经赶不上他们发论文的速度...

  • Hugging face 模型微调系列2—— 实战transfo

    前言 上一篇文章中(Hugging face 模型微调系列1—— 实战transfomers文本分类finetun...

  • 【NLP保姆级教程】手把手带你RCNN文本分类(附代码)

    本文首发于微信公众号:NewBeeNLP 继续之前的文本分类系列 传统文本分类 之前介绍的都是属于深度神经网络框架...

  • 2018-11-10

    LSTM的应用 文本分类LSTM文本分类:使用LSTM的最后一个状态 文本分类中不用one-hot编码,使用emb...

  • 卷积神经网络CNN的文本分类原理和实战

    基于卷积神经网络CNN的文本分类原理和实战 前言 本文介绍了CNN在NLP中的应用:文本分类。 文本分类:是自然语...

  • 【菜菜系列15】讲人话

    文 / 芹菜 最近我在听混沌大学的线上课程。混沌大学的创始人李善友教授说,自己年轻时写了一本书,现在回头看,简直想...

  • 讲人话。

    现在的西方政坛,也是纷扰复杂,但政治人物,大多都讲人话。如果政治人物不讲人话了,人祸就会来了!这是一个深刻的历史教...

  • 讲人话……

    原创:邓从云。 洛格风水:不争第一,只做第一! 读《资中筠:我真瞧不起你,所以不争论》有感而发,随心所欲写...

  • 讲人话……

    原创:邓从云。 读《资中筠:我真瞧不起你,所以不争论》有感而发,随心所欲写下如下评论: ...

  • 8.machine_learning_Bayes_Classif

    1 机器学习贝叶斯分类器 参考阅读材料: NLP系列(2)_用朴素贝叶斯进行文本分类(上)[https://blo...

网友评论

    本文标题:讲人话系列——企业中的文本分类

    本文链接:https://www.haomeiwen.com/subject/rtkowqtx.html