数学之美--读书笔记

作者: hainingwyx | 来源:发表于2016-11-18 22:46 被阅读96次

    写在之前

    如需转载,请注明出处。如有侵权或者其他问题,烦请告知。

    第1章 文字和语言 vs 数字和信息

    文字和语言与数学,从产生起原本就有相通性,虽然它们的发展一度分道扬镳,但是最终还是能走到一起。
    1 信息
    2 文字和数字

    玛雅文明采用20进制,即数完全部的手指和脚趾才开始进位。因此玛雅人的一个世纪,他们称为太阳集,是四百年。

    3 文字和语言背后的数学

    犹太学者每抄一个圣经,需要把每一行的文字加起来,看看新的校验码是否和原文的相同。
    4 小结

    第2章 自然语言处理——从规则到统计

    人类对机器理解自然语言的认识走了一条大弯路。早期的研究集中采用基于规则的方法,虽然解决了一些简单的问题,但是无法从根本上将自然语言理解实用化。直到20多年后,人们开始尝试用基于统计的方法进行自然语言处理,才有了突破性进展和实用的产品。
    1 机器智能

    20世纪60年代,学术界对人工智能和自然语言的普遍观点是:要让机器完成翻译或者语音识别等人类才能做的事,就必须让计算机理解自然语言,而做到这一点就必须让计算机拥有类似我们人类装的智能。当时普遍的认识是做好两件事:分析语句和获取语义。文法规则数量及其庞大,和句子有关,且需要人工总结。

    在计算机科学中,图灵奖得主高德纳 (Donald Knuth) 提出了用计算复杂度来衡量算法的耗时。对于上下文无关文法,算法的复杂度基本上是语句长度的二次方,而对于上下文有关文法,计算复杂度基本上是语句长度的六次方,也就是说,长度同为 10 的程序语言的语句和自然语言的语句,计算机对它们进行文法分析 (Syntactic Parsing) 的计算量,后者是前者的一万倍。而且随着句子长度的增长,二者计算时间的差异会以非常快的速度扩大。即使今天,有了很快的计算机 (英特尔 i7 四核处理器),分析上面这个二三十个词的句子也需要两分钟的时间。因此,在 20 世纪 70 年代,即使是制造大型机的 IBM 公司,也不可能采用规则的方法分析一些真实的语句。

    上个世纪 70 年代,基于规则的句分析 (包括文法分析或者语义分析)就走到了尽头。而对于语义的处理则遇到了更大的麻烦。

    首先,自然语言中词的多义性很难用规则来描述,而是严重依赖于上下文,甚至是常识。1966 年,著名人工智能专家明斯基 (前文提到的达特茅斯会议的发起者之一) 举了一个简单的反例,说明计算机处理语言的难处,。The pen is in the box,The box is in the pen。中两个 pen 的区别。第一词话很好理解,学过半年英语的学生都懂。但是第二句话则会让外国人很困惑,为什么盒子可以装到钢笔里? 其实,第二句话对于英语是母语的人来讲很简单,因为这里 pen 是围栏的意思。整句话翻译成中文就是:盒子在围栏里。这里面 pen 是指钢笔还是围栏,通过上下文已经不能解决,需要常识,具体来说就是「钢笔可以放到盒子里,但是盒子比钢笔大,所以不能放到钢笔里。」这是一个很简单的例子,但清晰地说明了当时自然语言处理研究方法上存在的问题。

    1966 年的明斯基已经不是十年前那个默默无名的年轻人了,而是当时世界上数一数二的人工智能专家。他的意见对美国政府的科技决策部门产生了重大影响,自然科学基金会等部门对传统的自然语言处理研究非常失望,以至于在较长时间里对这方面的研究资助大大减少。可以说,利用计算机处理自然语言的努力直到 20 世纪 70 年代初是相当失败的。

    1970 年以后统计语言学的出现使得自然语言处理重获新生,并取得了今天的非凡成就。推动这个技术路线转变的关键人物是弗里德里克·贸里尼克 (Frederick Jelinek) 和他领导的 IBM 华生实验室(T.J.Watson)。最初,他们也没有想解决整个自然语言处理的各种问题,而只是希望解决语音识别的问题。采用基于统计的方法,IBM 将当时的语音识别率从 70% 提升到 90%,同时语音识别的规模从几百单词上升到几万单间,这样语音识别就有了从实验室走向实际应用的可能。

    基于规则的自然语言处理和基于统计的自然语言处理的争执后来还持续了 15 年左右,直到上个世纪 90 年代初。15 年,对于一个学者来讲是一段非常长的时间,如果哪个人从做博士开始就选错了方向并且坚持错误,到 15 年后发现时,基本上这一辈子可能就一事无成了。

    2 从规则到统计
    3 小结

    第3章 统计语言模型

    统计语言模型是自然语言处理的基础,并且被广泛应用于机器翻译、语音识别、印刷体或手写体识别、拼写纠错、汉字输入和文献查询。
    1 用数学的方法描述语言规律

    一个文字序列是否能构成一个大家能理解的句子,显示给使用者。对这个问题,我们可以用一个简单的统计模型来解决这个问题。
    $$
    P(S) = P(w_1)P(w_2|w_1)P(w_3| w_1 w_2)…P(w_n|w_1 w_2…w_{n-1})
    $$
    $P(w_n|w_1 w_2…w_{n-1})$的可能性太多,从19世纪到20世纪初,马尔科夫提出了一种偷懒并且可靠的办法:假设任意一个词$W_i$出现的概率只同它前面的词有关

    根据大数定律,只要统计量足够,相对频度就等于概率。这件事使得原本名不见经传的李开复一下子成为了语音识别领域的专家。
    2 延伸阅读:统计语言模型的工程诀窍
    3 小结

    第4章 谈谈分词

    中文分词是中文信息处理的基础,它同样走过了一段弯路,目前依靠统计语言模型已经基本解决了这个问题。
    1 中文分词方法的演变
    2 延伸阅读:如何衡量分词的结果
    3 小结

    第5章 隐含马尔可夫模型

    隐含马尔可夫模型最初应用于通信领域,继而推广到语音和语言处理中,成为连接自然语言处理和通信的桥梁。同时,隐含马尔可夫模型也是机器学习的主要工具之一。
    1 通信模型
    2 隐含马尔可夫模型
    3 延伸阅读:隐含马尔可夫模型的训练
    4 小结

    第6章 信息的度量和作用

    信息是可以量化度量的。信息熵不仅是对信息的量化度量,也是整个信息论的基础。它对于通信、数据压缩、自然语言处理都有很强的指导意义。
    1 信息熵
    2 信息的作用
    3 互信息
    4 延伸阅读:相对熵
    5 小结

    第7章 贾里尼克和现代语言处理

    作为现代自然语言处理的奠基者,贾里尼克教授成功地将数学原理应用于自然语言处理领域中,他的一生富于传奇色彩。
    1 早年生活
    2 从水门事件到莫妮卡·莱温斯基
    3 一位老人的奇迹

    第8章 简单之美——布尔代数和搜索引擎

    布尔代数虽然非常简单,却是计算机科学的基础,它不仅把逻辑和数学合二为一,而且给了我们一个全新的视角看待世界,开创了数字化时代。
    1 布尔代数
    2 索引
    3 小结

    第9章 图论和网络爬虫

    互联网搜索引擎在建立索引前需要用一个程序自动地将所有的网页下载到服务器上,这个程序称为网络爬虫,它的编写是基于离散数学中图论的原理。
    1 图论
    2 网络爬虫
    3 延伸阅读:图论的两点补充说明
    4 小结

    第10章 PageRank——Google的民主表决式网页排名技术

    网页排名技术PageRank是早期Google的杀手锏,它的出现使得网页搜索的质量上了一个大的台阶。它背后的原理是图论和线性代数的矩阵运算。
    1 PageRank 算法的原理
    2 延伸阅读:PageRank的计算方法
    3 小结

    第11章 如何确定网页和查询的相关性

    确定网页和查询的相关性是网页搜索的根本问题,其中确定查询中每个关键词的重要性有多高是关键。TF-IDF是目前通用的关键词重要性的度量,其背后的原理是信息论。
    1 搜索关键词权重的科学度量TF-IDF
    2 延伸阅读:TF-IDF的信息论依据
    3 小结

    第12章 有限状态机和动态规划——地图与本地搜索的核心技术

    地图和本地服务中要用到有限状态机和动态规划技术。这两项技术是机器智能和机器学习的工具,它们的应用非常广泛,还包括语音识别、拼写和语法纠错、拼音输入法、工业控制和生物的序列分析等。
    1 地址分析和有限状态机
    2 全球导航和动态规划
    3 延伸阅读:有限状态传感器
    4 小结

    第13章 Google AK-47的设计者——阿米特·辛格博士

    在所有轻武器中最有名的是AK-47冲锋枪,因为它从不卡壳,不易损坏,可在任何环境下使用,可靠性好,杀伤力大并且操作简单。Google的产品就是按照上述原
    则设计的。

    第14章 余弦定理和新闻的分类

    计算机虽然读不懂新闻,却可以准确地对新闻进行分类。其数学工具是看似毫不相干的余弦定理。
    1 新闻的特征向量
    2 向量距离的度量
    3 延伸阅读:计算向量余弦的技巧
    4 小结

    第15章 矩阵运算和文本处理中的两个分类问题

    无论是词汇的聚类还是文本的分类,都可以通过线性代数中矩阵的奇异值分解来进行。这样一来,自然语言处理的问题就变成了一个数学问题。
    1 文本和词汇的矩阵
    2 延伸阅读:奇异值分解的方法和应用场景
    3 小结

    第16章 信息指纹及其应用

    世间万物都有一个唯一标识的特征,信息也是如此。每一条信息都有它特定的指纹,通过这个指纹可以区别不同的信息。
    1 信息指纹
    2 信息指纹的用途
    3 延伸阅读:信息指纹的重复性和相似哈希
    4 小结

    第17章 由电视剧《暗算》所想到的——谈谈密码学的数学原理

    密码学的根本是信息论和数学。没有信息论指导的密码是非常容易被破解的。只有在信息论被广泛应用于密码学后,密码才真正变得安全。
    1 密码学的自发时代
    2 信息论时代的密码学
    3 小结

    第18章 闪光的不一定是金子——谈谈搜索引擎反作弊问题和搜索结果的权威性问题

    闪光的不一定是金子,搜索引擎中排名靠前的网页也未必是有用的网页。消除这些作弊网页的原理和通信中过滤噪音的原理相同。这说明信息处理和通信的很多原理是相通的。
    1 搜索引擎的反作弊
    2 搜索结果的权威性
    3 小结

    第19章 谈谈数学模型的重要性

    正确的数学模型在科学和工程中至关重要,而发现正确模型的途径常常是曲折的。正确的模型在形式上通常是简单的。

    第20章 不要把鸡蛋放到一个篮子里——谈谈最大熵模型

    最大熵模型是一个完美的数学模型。它可以将各种信息整合到一个统一的模型中,在信息处理和机器学习中有着广泛的应用。它在形式上非常简单、优美,而在实现时需要有精深的数学基础和高超的技巧。
    1 最大熵原理和最大熵模型
    2 延伸阅读:最大熵模型的训练
    3 小结

    第21章 拼音输入法的数学原理

    汉字的输入过程本身就是人和计算机之间的通信。好的输入法会自觉或不自觉地遵循通信的数学模型。当然要做出最有效的输入法,应当自觉使用信息论做指导。
    1 输入法与编码
    2 输入一个汉字需要敲多少个键——谈谈香农第一定理
    3 拼音转汉字的算法
    4 延伸阅读:个性化的语言模型
    5 小结

    第22章 自然语言处理的教父马库斯和他的优秀弟子们

    将自然语言处理从基于规则的研究方法转到基于统计的研究方法上,宾夕法尼亚大学的教授米奇马库斯功不可没。他创立了今天在学术界广泛使用的LCD语料库,同时培养了一大批精英人物。
    1 教父马库斯
    2 从宾夕法尼亚大学走出的精英们

    第23章 布隆过滤器

    日常生活中,经常要判断一个元素是否在一个集合中。布隆过滤器是计算机工程中解决这个问题最好的数学工具。
    1 布隆过滤器的原理
    2 延伸阅读:布隆过滤器的误识别问题
    3 小结

    第24章 马尔可夫链的扩展——贝叶斯网络

    贝叶斯网络是一个加权的有向图,是马尔可夫链的扩展。而从认识论的层面看:贝叶斯网络克服了马尔可夫链那种机械的线性约束,它可以把任何有关联的事件统一到它的框架下面。它在生物统计、图像处理、决策支持系统和博弈论中都有广泛的使用。
    1 贝叶斯网络
    2 贝叶斯网络在词分类中的应用
    3 延伸阅读:贝叶斯网络的训练
    4 小结

    第25章 条件随机场、文法分析及其他

    条件随机场是计算联合概率分布的有效模型,而句法分析似乎是英文课上英语老师教的东西,这两者有什么联系呢?
    1 文法分析——计算机算法的演变
    2 条件随机场
    3 条件随机场在其他领域的应用
    4 小结

    第26章 维特比和他的维特比算法

    维特比算法是现代数字通信中使用最频繁的算法,同时也是很多自然语言处理的解码算法。可以毫不夸张地讲,维特比是对我们今天生活的影响力最大的科学家之一,因为如今基于CDMA的3G移动通信标准主要就是他创办的高通公司制定的。
    1 维特比算法
    2 CDMA技术——3G移动通信的基础
    3 小结

    第27章 上帝的算法——期望最大化算法

    只要有一些训练数据,再定义一个最大化函数,采用EM算法,利用计算机经过若干次迭代,就可以得到所需要的模型。这实在是太美妙了,这也许是我们的造物主刻意安排的。所以我把它称作上帝的算法。
    1 文本的自收敛分类
    2 延伸阅读:期望最大化和收敛的必然性
    3 小结

    第28章 逻辑回归和搜索广告

    逻辑回归模型是一种将影响概率的不同因素结合在一起的指数模型,它不仅在搜索广告中起着重要的作用,而且被广泛应用于信息处理和生物统计中。
    1 搜索广告的发展
    2 逻辑回归模型
    3 小结

    第29章 各个击破算法和Google云计算的基础

    Google颇为神秘的云计算中最重要的MapReduce工具,其原理就是计算机算法中常用的“各个击破”算法,它的原理原来这么简单——将复杂的大问题分解成很多小问题分别求解,然后再把小问题的解合并成原始问题的解。由此可见,在生活中大量用到的、真正有用的方法常常都是简单朴实的。
    1 分治算法的原理
    2 从分治算法到MapReduce
    3 小结

    第30章 Google大脑和人工神经网络

    Google大脑并不是一个什么都能思考的大脑,而是一个很能计算的人工神经网络。因此,与其说Google大脑很聪明,不如说它很能算。不过,换个角度来说,随着计算能力的不断提高,计算量大但简单的数学方法有时能够解决很复杂的问题。
    1 人工神经网络
    2 训练人工神经网络
    3 人工神经网络与贝叶斯网络的关系
    4 延伸阅读:Google大脑
    5 小结

    第31章 大数据的威力——谈谈数据的重要性

    如果说在过去的40年里,主导全球IT产业发展的是摩尔定律,那么在今后的20年里,主导IT行业继续发展的动力则来自于数据。
    切比雪夫不等式:
    $$
    P(|X-E(X)| \geq \varepsilon) < \frac{\sigma^{2}}{n \varepsilon^2}
    $$
    样本数足够多时,一个随机变量和它的数学期望值之间的误差可以任意小。

    根据点击数据可以训练一个概率模型,来决定搜索结果的排列顺序。这个搜索算法被称为点击模型,只要统计数量足够,这种根据点击确定的排名就非常准确。点击模型贡献了今天搜索排序至少60%的权重。搜索行业存在马太效应,搜索量不足的搜索引擎因为用户点击数据量的不足,搜索质量会越变越差;相反,质量好的搜索引擎会因为数据量大而越变越好。
    [博客][http://blog.csdn.net/wenyusuran/article/details/40780435]

    相关文章

      网友评论

        本文标题:数学之美--读书笔记

        本文链接:https://www.haomeiwen.com/subject/xxpspttx.html