浅谈中文分词与自然语言处理

作者: iamlightsmile | 来源:发表于2020-02-06 13:21 被阅读0次

    最近出于兴趣和需要,重新回顾中文分词技术,期间有些心得,以及一些关于自然语言处理的浅薄之见,这里简单分享一下。

    首先,中文分词_百度百科里面简单介绍了其中主要的分词算法以及相应的优缺点,包括字符匹配法、统计法以及理解法,其中字符匹配法和统计法比较流行且可以取到相对不错的效果,而理解法则相对比较复杂高级,但是我认为这才是真正解决中文分词任务的根本算法。

    如今用于中文分词的算法和模型虽算不上比比皆是,但也算是唾手可得,开源的如jieba、ltp、Hanlp等等,提供中文分词服务的如腾讯云、百度大脑、讯飞AI平台等,以及其他如Jiagu等。

    其实这些平台算法的差距并不算太大,分词准确率基本上都是在80%以上,然而在98%以下(这里胡诌个数),在一些不太严格的应用场景下基本已经够用了,只要挑一个在自己的业务场景下表现最好的即可。

    在我看来,对于中文分词这项任务而言,最关键最核心的其实并不是算法模型,这些都不是所谓的瓶颈,最重要的其实是高质量、大规模的词典。对于字符匹配法而言,词典是基础,没有词典自然连分都分不出来;对于统计学习法而言,其效果一方面取决于算法和模型的选择,一方面取决于其训练数据的数量与质量,需要堆人力物力,比如找专门的标注公司标注数据等。但是就算是人标的数据,也难免有所错误遗漏,所以在有错误的训练数据下,模型也不可能学的太好,同时训练数据再大,也难以覆盖全部语料,总会出现OOV,总有些句子会训练不到,此时还强求模型可以做到“举一反三”有些不切实际。

    词条中还提到了关于中文分词的技术难点:歧义识别与新词识别,关于歧义识别,上面并没有提具体的解决思路,对于新词识别而言,这又是自然语言处理领域很基础并且很重要的点,可以参见一下我之前的文章:《NLP基础任务之新词发现探索之路》 | lightsmile's Blog,也有另一个思路,比如说爬取网上一些网站的相关条目,比如百度百科等。

    简单看了一下jiebaansj_segJiagu的分词词典,发现其中jieba的词典质量最差,其中不少词性都是错误的,Jiagu的词典还算不错,就是一些新词不全,ansi_seg的没有细看。

    尽管这些工具在一些评测数据的结果可以达到90以上的成绩,但是在我看来,还是不够的,我觉得中文分词这个基础而又艰巨的任务还是要到99%以上才可以,否则分词都分不对,那些在分词基础之上的任务更是不行,毕竟词是基本的语义单元。

    然而在现在深度学习盛行的潮流下,许多任务如文本分类、命名实体识别等并不一定需要依赖于分词,直接基于字符(char)的Embedding也可以取得不错的效果,并且也可以规避OOV(out of vocabulary words,未登录词)的问题。

    但是深度学习,尤其是监督学习的很关键之处是得有大规模的高质量训练数据,不然巧妇难为无米之炊,再好的模型也难以从垃圾中学到有用的知识。

    话说回来,虽然自然语言处理是计算机科学与其他领域的交叉学科,深度学习、机器学习算是人工智能的一部分,然而许多时候往往十分依赖人工,而所谓的智能其实也不智能。

    无论是计算机视觉领域里的图像分类还是自然语言处理领域的文本分类,其任务都是学习一个从输入x映射到输出或者说标签y的函数f,具体来说就是将x表征为多维向量X,将y表征为多维向量Y,然后让X进入一个模型进行一系列的运算后得到一个Y^{'},通过不断地比较Y^{'}Y的值并调整模型的参数使模型的运算结果Y^{'}更为准确即更加贴近Y(过程有点类似于“猜数字”游戏),从而最终得到一个近似函数f{'},我们就可以用来代替未知的f用于预测未来的样本x,得到它对应的y

    我们可以发现,以上学习算法确实可以得到能够解决问题的模型,然而局限之处在于它也只能做这个任务,即对输入x预测y,别的啥也干不了。

    同时在基于深度学习的自然语言处理模型中,基本套路都是Embedding+Encoder+Decoder,其中Embedding是基于字还是基于词,是使用预训练词向量还是随机初始化,这些选择所导致的效果的差异都随着训练轮数的增加而最终减小。然而,由于梯度下降以及解空间的特点,基于bert的效果确实是要比Word2Vec的要好,那些词向量确实比Word2Vec的嵌入了(或者说学到了)更多的语言知识。

    关于模型的选择和取舍,工业界和学术界的标准其实差别很大。学术界里有的论文是开创性的,而许多论文其实都是在原来基础上小修小改,将最近的较新的思想和算法一堆,实验结果比原来指标高一点又是一篇文章,程序运行占用多大内存、跑了多长时间这些都不是主要因素,也就是一切向指标看齐。

    而工业界则更加看重的是性价比,不同的公司、不同的部门、不同的阶段其主要矛盾不同。比如说Facebook之前出的fastText,尽管模型很简单,最终效果可能比不上一些其他复杂的模型,但是其训练速度超快、基于CPU就可以,并且可以很方便地对模型进行压缩。许多时候,一些指标高低差几个点并没有那么关键,模型大小、训练时间、预测时间在很多时候是比较关键的因素,除非由于甲方或客户不满意,或者家大业大,有的是资源,那么这时候效果和指标又成为主要矛盾,这时的优化可能要以一定的时间和空间为代价。

    原来的自然语言处理各任务基本上都构建在分词的基础之上,粗略来说有一个语法语义语用的递进的过程。这一层一层的任务虽然耦合的很好,但是
    这种Pipline将会导致下层的错误都将会被积累到上层,其直接影响就是越到上层其准确率越低,甚至低到惨不忍睹的程度。然而在表示学习,尤其是深度学习崛起以后,其强大的特征学习能力,使得现在的模型多为end-to-end模型,其结果是一方面可以使得相关人员摆脱繁琐的特征工程,可以将特征提取与组合设计的工作交给神经网络模型去隐形完成,大大解放了生产力;令一方面可以将模型视为整体的一部分,即它的输入直接对应原始输入,它的输出直接是我们想要的结果,有点直达病灶的意思,摆脱了原来Pipline错误累积的困境。

    不过我个人看来成也end-to-end,败也end-to-end,虽然简化了任务,但是有点太过开门见山,得到的模型一个个都是彼此孤立的,各做各的事情,然而从整体论的角度来看它们都是整个自然语言处理系统的一部分,一些特征本来是可以共享,一些结果是彼此相互依赖的。这也又涉及到参数共享、多任务学习等概念,不细表。由于神经网络的可解释性较差,这使得模型更加像一个黑盒,训练调参的过程更像是在炼丹,因为谁也不知道具体能炼出个什么玩意儿。

    如下图很形象地诠释了这一现状:

    UTOOLS1580954045386.png

    下面就深度学习下的自然语言处理四大任务进行简单对比(都是个人浅薄之见,难免有不足之处,还望海涵)。自然语言处理四大任务分别是:序列标注、文本分类、句子关系、文本生成。

    序列标注

    序列标注任务的原始语料是一连串的句子,经过标注后的语料格式大概如下(以命名实体识别为例):

    清 B_Time
    明 I_Time
    是 O
    人 B_Person
    们 I_Person
    祭 O
    扫 O
    先 B_Person
    人 I_Person
    , O
    怀 O
    念 O
    追 O
    思 O
    的 O
    日 B_Time
    子 I_Time
    。 O
    

    我们可以发现,每一行的格式都是一个字符以及它所对应的类别,如B_{type}O,那么对于每一个字符模型需要预测的类别数量总计为2*len(types) + 1,其中2是指BI这种标注规范,len(types)指类型种类的数量(如人名、地名、机构名共三种),1是指O。可以发现模型需要拟合的函数的值域还是很小的,即O(len(types))

    文本分类

    文本分类任务的标注语料格式大概如下(以情感极性分析为例):

            label   text
    0       0       备胎是硬伤!
    1       0       要说不满意的话,那就是动力了,1.5自然吸气发动机对这款车有种小马拉大车的感觉。如今天气这么热,上路肯定得开空调,开了后动力明显感觉有些不给力不过空调制冷效果还是不错的。
    2       0       油耗显示13升还多一点,希望慢慢下降。没有倒车雷达真可恨
    3       0       空调不太凉,应该是小问题。
    4       0       1、后排座椅不能平放;2、科技感不强,还不如百万帝豪,最希望增加车联网的车机。像你好博越一样。3、全景摄像头不清楚,晚上基本上用处不大
    5       1       车子外观好看,车内空间大。
    6       1       最满意的真的不只一点,概括一下最满意的就是性价比了。ps:虽然没有s7性价比高(原厂记录仪,绿净)
    7       0       底盘调教的很低,坐的感觉有些别扭,视角不是很好。
    8       0       开空调时,一档起步动力不足。车子做工有点马虎。
    

    每一行的格式都包含原始文本以及它所对应的类别(或者说标签),我们可以发现模型需要预测的类别数量总计为len(types),即类型种类的数量(以新闻语料分类,如娱乐军事科技体育等),可以发现模型需要拟合的函数的值域也是较小的,即O(len(types))

    句子关系

    句子关系任务的标注语料格式大致如下(以语句相似度为例):

    1       怎么更改花呗手机号码    我的花呗是以前的手机号码,怎么更改成现在的支付宝的号码手机号    1
    2       也开不了花呗,就这样了?完事了  真的嘛?就是花呗付款    0
    3       花呗冻结以后还能开通吗  我的条件可以开通花呗借款吗      0
    4       如何得知关闭借呗        想永久关闭借呗  0
    5       花呗扫码付钱    二维码扫描可以用花呗吗  0
    6       花呗逾期后不能分期吗    我这个 逾期后还完了 最低还款 后 能分期吗        0
    7       花呗分期清空    花呗分期查询    0
    8       借呗逾期短信通知        如何购买花呗短信通知    0
    9       借呗即将到期要还的账单还能分期吗        借呗要分期还,是吗      0
    10      花呗为什么不能支付手机交易      花呗透支了为什么不可以继续用了  0
    

    每一行都是两个句子以及它们的关系(1代表语义相同,0代表语义不同),我们可以发现模型需要预测的类别数量总计为len(relations),即关系种类的数量,可以发现模型需要拟合的函数的值域也是较小的,即O(len(relations))

    文本生成

    文本生成任务的标注语料格式大致如下(以机器翻译为例):

    Hi.     嗨。
    Hi.     你好。
    Run.    你用跑的。
    Wait!   等等!
    Hello!  你好。
    I try.  让我来。
    I won!  我赢了。
    Oh no!  不会吧。
    Cheers! 干杯!
    He ran. 他跑了。
    

    我们可以发现每一行都是源语言句子以及目标语言的对应翻译。虽然此时模型和序列标注模型一样都需要对于单个样本预测多次,但是序列标注模型需要预测的次数直接等于字符的数量,是确定的,但是文本生成任务模型需要预测的次数是不确定的,并且每次预测的值域都是目标语言所有word(或者character)所组成的整体集合,即O(len(words)),其规模可能是十万级或百万级的。因此我们很容易发现文本生成任务的难度和复杂程度是要远远高于其他任务的。对话任务如生成式闲聊机器人更是如此。

    可能是之前的AlphaGo过于吸引广大群众的眼球,做相关业务的公司吹的太厉害,以及“人工智能”、“深度学习”这几个词听起来逼格满满,导致许多外行人认为现在的人工智能已经发展到很厉害的层次,并且可以做各种各样的事情,似乎无所不能。但是内行人心里却明白:“什么人工智能,人工智障吧”、“所谓人工智能,多是智能不够,人工来凑”。外行人看不到深度模型算法的局限性,如许多模型的精度并不能达到那么高;也看不到深度模型算法的前提条件,如高质量、大规模的数据集,他们以为模型大约聪明到随便喂点数据便成为终结者般的存在。这也就导致了他们刚开始预期很高,然而在投资或找到外包后发现效果远远不能达到预期,大失所望而潦草结束或撤资离场的局面。

    如下一张图大概有点这个意思:

    UTOOLS1580954029660.png

    统观学术界与工业界,和计算机视觉领域相比,自然语言处理这种更深层次的、涉及到认知智能的领域的进展虽悠久但缓慢,并且许多任务目前为止距离真正商用还有很大的距离。然而正是科学史上如阿基米德、牛顿等伟大人物与其他相对无名之辈默默耕耘,前赴后继,才使得如今之人类齐享先辈之成果,即所谓“前人栽树后人乘凉”也。

    我辈也无需悲观,须戒骄戒躁,搞算法的就多己见、少盲从,少水论文;搞工程的就多积累经验,提升实践能力,多做高质量的项目。功夫不负有心人。

    相关文章

      网友评论

        本文标题:浅谈中文分词与自然语言处理

        本文链接:https://www.haomeiwen.com/subject/aqoyxhtx.html