文字、数字、语言 、信息
数字、文字和自然语言一样,都是信息的载体,他们的产生都是为了记录和传播信息。
但是貌似数学与语言学的关系不大,在很长一段时间内,数学主要用于天文学、力学。
本章,我们将回顾一下信息时代的发展,看语言学如何慢慢与数学联系起来的。
信息
最开始的时候,人类会用声音来传播信息。
image.png这里面的信息的产生、传播、接收、反馈,与现在最先进的通信在原理上没有任何差别。
image.png因为早期人类需要传播的信息量不多,所以不需要语言文字。
但是当人类进步到一定的程度的时候,就需要语言了。
所以我们的祖先将语言描述的共同因素,比如物体、数量、动作便抽象出来,形成了今天的词汇。
文字和数字
文字的产生
随着人类的发展,语言和词汇多到一定的程度,大脑已经无法完全记住了。此时就需要一种文字,将信息记录下来。
使用文字的好处在于,信息的传输可以跨越时间、空间了,两个人不需要在同一时间,同一地点碰面就可以进行信息的交流。
那么如何创造文字呢?最直接的方式就是模仿要描述对象的形状,这就是所谓的象形文字。
文字的聚类
早期,象形文字的数量和记录一个文明的信息量是相关的,也就是说象形文字多,代表着这个文明的信息量大。
但是随着信息量的增加,没有人能学会和记住这么多的文字,这样就需要进行概括和归类了。也就是使用一个词来表达相同和相似的一类意思。
比如说“日”本来是说太阳,但是它又同时可以是我们讲的一天。
这种概念的聚类,和现在自然语言处理或者机器学习的聚类很相似,只是在远古,可能需要上千年,而现在只需要几小时。
但是文字按照意思来聚类,总会有歧义性,也就是弄不清楚一个多义字在特定环境下表示其中哪一个含义。
要解决这个问题,都是依靠上下文,大多数Disambiguation可以做到,但总有个别做不到的时候。对上下文建立的概率模型再好,也会有失灵的时候。
翻译
不同的文明因为地域的原因,文字和语言一般来说是不同的,当两个文明碰在一起的时候,翻译的需求就有了。
翻译能达成的原因:不同的文字系统在记录信息的能力上是等价的,文字只是信息的载体,而不是信息的本身,甚至可以用数字进行搭载。
今天,我们对埃及的了解比玛雅文明多,要归功于埃及人通过文字记录了生活中最重要的信息,对我们的指导意义在于:
-
同一个信息重复三份,只要有一份保留下来,原有的信息就不会丢失,这对信道编码有指导意义。
-
语料
,也就是语言的数据,至关重要。
数字的产生
文字是在头脑里面已经装不下信息的时候才出现,而数字则是在财产需要数一数才能搞清楚的时候才产生。
早期的数字没有书写的形式 ,只是说掰指头,这也是我们使用十进制的原因。
渐渐地,祖先发现十个指头也不够用了,最简单的方法是把脚趾头也算上,但是不能解决根本问题。于是他们发明了进位制,也就是逢十进一。
那为什么现有的文明多用十进制,而不是二十进制呢?
相比十进制,20进制多有不便,比如说十进制只需要背诵九九乘法表,如果是20进制的话,就需要背19*19的围棋盘了。
对于不同位数的数字表示,中国人和罗马人都用明确的单位来表示不同的量级。
中国人是用十百千万亿兆,罗马人用I表示个,V表示5等等。
这两种表示法都不自觉的引入了朴素的编码的概念。
-
用不同的符号代表不同的数字概念。
-
制定了解码的规则:中国的解码规则是乘法,比如200万的写法意味着2 * 100 * 10000,而罗马的解码规则是加减法——小数字出现在大数字左边为减,右边为加,比如IV表示5-1=4,VII表示5+2=7,这个规则相当复杂,而且对于大的数字难以描述。
从编码的有效性来说,中国人更高明。
描述数字最有效的是古印度人,他们发明了10个阿拉伯数字,比中国和罗马的都抽象,这也标志着数字和文字的分离。客观上让自然语言与数学在几千年没有重复的轨迹。
文字和语言背后的数学
最短编码原理
从象形文字到拼音文字是一个飞跃,因为人类在描述物体的方式上,从物体的外表到抽象的概念,同时不自觉的采用了对信息的编码。
不仅如此,在罗马体系的文字中,常用字短,生僻字长,在意型文字中,也是一样,常用字笔画少,而生僻字笔画多,这符合信息论中的最短编码原理。
罗马语言体系:
st=>start: 楔形文字
op1=>operation: 叙利亚
op2=>operation: 古希腊
op3=>operation: 罗马人和马其顿人
en=>end: 罗马式语言
st->op1->op2->op3->en
在纸发明之前,书写文字并不容易。所以需要惜墨如金,所以古文这种书面文字非常简洁,但是非常难懂。而口语却与现在差别不大。这就和现在的信息科学的一些原理类似
-
在通信时,如果信道较宽,信息不必压缩就可以直接传递;
-
而如果信道很窄,信息在传递前需要尽可能地压缩 ,然后在接收端进行解压缩。
这点就是现在的互联网与移动互联网的网页设计完全一致。
使用宽带的话,页面得设计得比较大,而手机终端上的由于受空中频道带宽的限制,传输速度慢,分辨率低。
校验
《圣经》记录了创世纪以来,犹太人祖先的故事,《圣经》的写作持续了很多世纪,有若干人来完成,抄写的错误在所难免,
为了避免抄错,犹太人发明了一种类似校验码的方法,他们把希伯来字母对应于一个数字,每行加起来就是一个特殊的数字,这个数字即为校验码。
当抄完一页以后,需要把每一行的文字加起来,看看校验码与原文是否相同。
语法
从字母到词的构词法是词的编码规则,那么语法则是语言的编码和解码规则。
相比较而言,词是有限且封闭的集合, 语言则是无限和开放的集合。从数学上来讲,前者有完备的编解码规则,而语言则没有,也就是说语言有语法规则覆盖不到的地方,这就是“病句”
那么到底是语言对,还是语法对呢?有人坚持从真实的语料中出发,有人坚持从规则出发。
小结
本章讲述了文字、数字、语言的历史,帮助读者感受语言和数学内在的联系。提到了如下的概念
-
通信的原理和信息传播的模型
-
( 信 源 )编码和最短编码:文言文。
-
解码的规则:语法
-
聚类:一个字多个意思
-
校验位:一个希伯来字对应一个码 。
-
双语对照文本,语料库和机器翻译:信息载体相同。
-
多义性和利用上下文消除歧义性:概率
自然语言处理——从规则到统计
上一章我们说到,语言出现的目的就是为了人类的通信,而字母、文字、数字实际上是信息编码的不同单位。
任何一种语言都是一种编码方式,而语言的语法规则是编解码的算法。比如,我们把想要表达的东西通过语言组织起来,这就是进行了一次编码,如果对方能懂这个语言,它就可以使用这门语言的解码方式进行解码。
那么机器是否可以读懂自然语言呢?当然可以
机器智能
自然语言处理发展过程可以分为两个阶段:
- 从 2 0 世 纪 5 0 年代到7 0 年代,科学家的认识局限在人类学习语言的方式上了,也就是用电脑模拟人脑。成果几乎为0.
- 70年代以后进入了第二阶段,也就是基于数学模型和统计的方法。取得了实质性的突破。
50年代,学术界对人工智能和自然语言理解的认识是这样的:要让机器完成语音识别,必须让计算机理解自然语言。因为人类就这么做的。这种方法论就称为“鸟飞派”,也就是看鸟怎么飞的来造出飞机。事实上,人们发明飞机靠的是空气动力学,而不是仿生学。
那么如何才能理解自然语言呢?
一般需要:
-
分析语句,也就是通过语法。这些语法规则比较容易能用计算机描述。
-
获取语义。语义比语法更难在计算机中表达出来,
我们可以看一个简单的句子
徐志摩喜欢林徽因
这个句子可以分为主、谓、句号三部分,可以对每个部分进一步分析,得到如下的语法分析树(Parse Tree)
image.png分析它采用的文法规则称为重写规则
但是这种方法很快遇到了麻烦。从上图可以看出一个短短的句子居然分析出这么一个复杂的二维树结构,如果要处理一个真实的句子就非常的麻烦了。
主要有两个坎儿:
-
要想通过文法规则覆盖哪怕20% 的真实语句,文法规则的数至少是几万条。
而且这些文法规则甚至有矛盾,所以还需要说明规则的使用环境。如果要覆盖50%以上的语句,文法规则的数量最后会多到每增加一个新的句子,就需要加入新的文法其实很容易理解,无论在中学或者大学的时候,英语成绩多么好,也未必考得好GRE,因为我们学了10年的英语语法也无法覆盖全部的英语。
-
即使能覆盖所有的语法,计算机来解析一个复杂的句子也是比较困难的。而且自然语言的词义与上下文有特定的关系 ,也就是上下文有关文法,所以解析起来的计算量相当大。
那么其实从语法这条路来分析句子,并不靠谱。
从规则到统计
上面我们讲到了基于规则的句法分析对于语义处理比较麻烦,因为 自然语言中的词的多义性难用规则来描述,而是依赖于上下文。
比如 “The box is in the pen.” 因为这里pen是围栏的意思。整句话翻译成中文就是“ 盒子在围栏里” 。这 里 面 pen是指钢笔还是围栏 ,通过上下文已经不能解决,需要常识
1970年以后统计语言学让自然语言处理重获新生,里面的关键任务是贾里尼和他领导的IBM华生实验室。最开始的时候,他们使用统计的方法,将当时的语音识别率从70%提升到90%,同时语音识别规模从几百单词上升到几万单词
小结
基于统计的自然语言处理方法,在数学模型与通信是相通的,因此在数学意义上,自然语言处理又和语言的初衷——通信联系在一起了。
image.png统计语言模型
前面的章节,我们一直强调,自然语言从产生开始,逐渐演变成一种上下文相关的信息表达和传递方式。
所以要让机器能处理自然语音,关键在于为自然语音这种上下文相关的特性建立数学模型,这就是统计语言模型(Statistical Language Model)
这个模型广泛应用于机器翻译、语音识别、印刷体识别、拼写纠错、汉字输入、文献查询
用数学的方法描述语言规律
语音识别需要解决的一个重要的问题就是计算机给出来的一个文字序列,是否能被人类所理解。70年代以前,人们使用语义分析来解决。
而贾里克从另一个角度来看待这个问题,一个简单的统计模型就搞定了。
也就是说要看一个句子是否合理,就看看它的可能性大小如何 。
比如说一个通顺的语句出现的概率为$10{-20}$,而一个乱七八糟的语句出现的概率为$10{-70}$,所以通顺的语句更有可能。
假定$S$表示一个有意义的句子,由一串特定顺序的词${\omega _1},{\omega _2}, \cdots ,{\omega _n}$组成,这里$n$是句子的长度。现在需要知道这个句子出现的概率
$$P\left( S \right) = P\left( {{w_1},{w_2}, \cdots ,{w_n}} \right)$$
利用条件概率的公式,$S$这个序列出现的概率等于每个词出现概率相乘
$$P\left( {{w_1},{w_2}, \cdots ,{w_n}} \right) = P\left( {{w_1}} \right)P\left( {{w_2}|{w_1}} \right) \cdots P\left( {{w_n}|{w_1},{w_2}, \cdots ,{w_{n - 1}}} \right)$$
$P\left( {{w_n}|{w_1},{w_2}, \cdots ,{w_{n - 1}}} \right)$表示词$w_n$出现的概率取决于它前面的所有词。
问题就来了,这种条件概率怎么计算呢?
20世纪初,俄国的数学家马尔科夫给出了一个有效的方法,当遇到这种情况的时候,假设任意一个词$w_i$出现的概率只与前面的词$w_{i-1}$有关,与其他词无关,这就叫马尔科夫假设
所以公式又变成了
$$P\left( {{w_1},{w_2}, \cdots ,{w_n}} \right) = P\left( {{w_1}} \right)P\left( {{w_2}|{w_1}} \right) \cdots P\left( {{w_n}|{w_{n - 1}}} \right)$$
这就叫二元模型(Bigram Model)
如果假设一个词由前面$N-1$个词决定,对应的模型就叫$N
$元模型,会更复杂。
同样那么如何估算条件概率$P\left( {{w_i}|{w_{i - 1}}} \right)$,可以先看一下它的定义
$$P\left( {{w_i}|{w_{i - 1}}} \right) = \frac{{P\left( {{w_{i - 1}},{w_i}} \right)}}{{P\left( {{w_{i - 1}}} \right)}}$$
需要做的是估计
-
联合概率${P\left( {{w_{i - 1}},{w_i}} \right)}$:连续两个词同时出现的概率
-
以及边缘概率${P\left( {{w_{i - 1}}} \right)}$
那么这两种概率如何得到?
有了大量的语料库(Corpus)以后,只要数一下${{w_{i - 1}},{w_i}}$在统计的文本前后相邻出现了多少次${# \left( {{w_{i - 1}},{w_i}} \right)}$即可。然后除以语料库的大小#,这样就可以使用频度来估计概率了。
根据大数定理,只要统计量足够,相对频度就等于概率。
$$P\left( {{w_i}|{w_{i - 1}}} \right) = \frac{{# \left( {{w_{i - 1}},{w_i}} \right)}}{{# \left( {{w_{i - 1}}} \right)}}$$
居然用这么复杂的模型就可以解决复杂的语音识别、机器翻译的问题。
image.png统计语言模型的工程诀窍
高阶语言模型
二元模型最大的特点在于,每个词只与前面一个词有关,太简化了,更普遍的是某个词与前面若干词都有关。
所以$N$元模型指的就是当前词$w_i$只取决于前$N-1$个词,这就是N-1阶马尔科夫假设
实际中,三元模型用得多更多,所以$N=3$,而更高阶的就比较少用了,因为
-
模型阶数大,复杂度高。
$N$元模型的大小,几乎是$N$的指数,所以$N$不能太大。当$N$从1到2,再从2到3的时候,模型的效果上升显著,而模型从3到4,效果提升就不明显了,耗费的资源却很多。所以很少有人使用4元以上的模型
-
纵然是提升了阶数,依然不能覆盖所有的语言现象。比如说从一个段落跨到另一个段落,即使阶数更高,对这种情况也无可奈何。这时需要其他的长程依赖性来解决(long Distance Dependency)
模型的训练、零概率问题和平滑方法
使用语言模型需要知道模型中所有的条件概率,我们称之为模型的参数
。
通过对语料的统计,得到这些参数的过程称作模型的训练
。
之前我们讲过,只需要统计出相邻两个字符同时出现的次数以及${w_{i - 1}}$单独出现的次数,然后计算一下比值即可。
但是有一种情况我们没有考虑,如果相邻两个词并没有同时出现过,也就是$# \left( {{w_{i - 1}},{w_i}} \right) = 0$怎么办,是否就说明概率为0。
当然不是,这就涉及到统计的可靠性了。
在数理统计中,我们之所以敢用采用数据来预测概率,是因为大数定理,它的要求是有足够的观测值。也就是如果样本太小,则使用次数来预测概率当然不靠谱。
那么如何正确的训练一个语言模型呢?
-
直接的方法就是增加数据量。但是也依然会遇到零概率的问题,称之为
“不平滑”
-
对于不平滑的的概率,我们不能认为它发生的概率为零,可以从概率的总量中,分配一个很小的比例给予这些没有看见的事件。
这样一来,看见的那些事件的概率总和就要小于1了,因此,需要将所有看见的亊件概率调小一点。至于小多少,要根据“越是不可信的统计,对它的折扣越多”的方法进行。
下面以统计词典中每个词的概率来具体讲讲。
假定在语料库中出现$r$次的词有$N_r$个,$N$表示语料库的大小。
$$N = \sum\limits_{r = 1}^\infty {r{N_r}} $$
也就是说每个词出现的$r$词的词的个数与出现了多少次相乘。
当$r$比较小,说明出现的次数不够多,那么在计算它们的概率的时候要使用一个更小一点的次数,比如$d_r$
$${d_r} = \left( {r + 1} \right)\frac{{{N_{r + 1}}}}{{{N_r}}}$$
而且
$$\sum\limits_r {{d_r}{N_r}} = N$$
一般来说,出现1次的词的数量比出现两次的多,同样出现两次比出现三次的多。
也就是出现的次数$r$越大,词的数量$N_r$越小,所以${N_{r + 1}} < {N_r}$,可以看出${d_r} < r$,这样估算是因为$d_r$是我们要找的那个比$r$更小的数,而当只出现0次的时候${d_0}>0$
这样,
-
对频率超过一定阈值的词,它们的概率估计就是语料库中的相对频度
-
对于频率小于阈值的词,概率估计就小于他们的相对频度。
对于二元模型,
image.png其中
-
$T$是一个阈值,一般在8~10左右。
-
$f_{gt}()$表示经过平滑处理以后的相对频度
-
而$Q(w_{i-1})$可以保证所有的频率加起来为1.
这种平滑的方法最早是由IBM的卡茨提出来的,所以称为卡茨退避法
还有一种方法是删除差值法,也就是用低阶模型和高阶模型进行线性插值的方法来平滑处理,但是因为效果差于卡茨退避发,所以很少使用了。
语料的选取问题
模型训练中另一个重要问题是训练数据,或者说是语料库的选取,如果训练预料和模型应用的领域相脱节,模型的效果也要大打折扣。
比如对于建立一个语言模型,如果应用是网页搜索,它的训练数据就应该是杂乱的网页数据和用户输入的搜索串,而不是传统的、规范的新闻稿 ,即使前者夹杂着噪音和错误。因为训练数据和应用一致,搜索质量反而更好。
训练数据通常是越多越好,高阶模型因为参数多,需要的训练数据也相应会多很多,遗憾的是,并非所有的应用都能有足够的训练数据,比如机器翻译的双语语料,这个时候,追求高阶的大模型没有任何意义。
如果训练数据和应用数据一致了,而且训练量足够大了以后,训练预料的噪音高低也会对模型产生影响。所以训练之前需要进行预处理,对于可以找到规律的而且还比较多的噪音需要进行处理,比如制表符
image.png中文分词
演变
对于西方拼音来说,词之间有明确的分界符(Delimit)。但是对于中文来讲,词之间没有明确的分界符。所以需要先对句子进行分词。
最容易想到的方法就是查字典也就是说,从左到右扫描一遍,遇到字典里面有的词就标识出。
但是这种方法遇到复杂的问题就不行了。比如说遇到二义性的分割时。像“发展中国家”,正确的分割是“发展-中-国家”,而从左向右查字典会分割为“发展-中国-家”
同样我们可以使用统计语言模型来解决分词二义性的问题。
假定一个句子$S$有几种分词方法:
$$\begin{array}{l}
{A_1},{A_2},{A_3}, \cdots ,{A_k}\
{B_1},{B_2},{B_3}, \cdots ,{B_m}\
{C_1},{C_2},{C_3}, \cdots ,{C_n}
\end{array}$$
最好的分词方法就是分完词以后,这个句子出现的概率最大。
当然如果穷举所有的分词方法,并计算每种可能性下的句子的概率,那么计算量是相当大的。
可以看作是一个动态规划(Dynamic Programming)问题,并利用维特比(Viterbi)算法快速的找到最佳分词
image.png语言学家对词语的定义不完全相同,比如说“北京大学”,有人认为是一个词,有人认为是两个词。折中的方法就是先当做一个四字词,然后再进一步找到细分词“北京”和“大学”
工程上的细节
人工分词产生不一致性的主要原因在于人们对词的颗粒度的认识问题。
比如说“清华大学”,有人认为是一个整体,有人认为“清华”是修饰“大学”的。这里不需要去强调谁的观点正确,而是应该知道,在不同的应用里面,会有一种颗粒度比另一种更好的情况。
比如说在机器翻译中,颗粒度大翻译效果好,比如“联想公司”如果拆分为开,很难翻译为“Lenovo”。但是在网页搜索里面,小的颗粒度会比大的要好,比如用户查询“清华”而不是“清华大学”一样可以查询到清华大学的主页。
如果为不同的应用构建不同的分词器,太过浪费。可以让一个分词器同时支持不同层次的词的切分。
-
首先需要一个基本的词表和一个复合词表。
基本词表包括“清华”、“大学”、“贾里尼克”这样无法再分的词
复合词表包含复合词以及它们由哪些基本词构成,包括像“清华大学:清华-大学” -
接下来需要根据基本词表和复合词表各建立一个语言模型:L1,L2
-
根据基本词表和L1进行分词,就得到小颗粒度的分词结果。一般来说,基本词比较稳定,偶尔才会增加点新词。
-
最后,再用复合词表和L2进行第二次分词,此时输入的是基本词串,输出的是复合词串。
也就是说先把句子按照基本词进行分割,再把基本词串按照复合词模型再分割。
image.png
网友评论