继续读书啊,顺便还打字。我们回顾一下之前的哈,人工智能梦的开始在1956年,之后很多数学家科学家穷其一生的研究,使得人工智能从符号学派、连接学派和行为学派三足鼎立的混乱局面迈向了连接学派,下面书里就详细讲解了连接学派的起源和发展。
下面一张图是我的总结
大概吧接下来就是我打字的内容了。
我们知道,人类的智慧主要来源于大脑的活动,而大脑则是由一万亿个神经元细胞经过错综复杂的相互连接形成的。于是,人们很自然地想到,我们是否可以通过模拟大量神经元的集体活动来模拟大脑的智力呢?
对比物理系统假说,我们不难发现,如果将智力活动比喻成一款软件,那么支撑这些活动的大脑神经网络就是相应的硬件。于是,主张神经网络研究的科学家实际上在强调硬件的作用,认为高级的智能行为是从大量神经网络的连接中自主发现的,因此,他们又称为连接学派。
神经网络
连接学派的发展也是一波三折。事实上,最早的神经网络研究可以追溯到1943年计算机发明之前。当时,艾伦·麦卡沃克和沃尔特·匹兹二人提出了一个单个神经元的计算模型。这个模型叫做麦卡洛克-匹兹模型,模型上加入了学习算法,扩充的模型有一个响亮的名字:感知机。
我们可以形象的 把感知机模型理解为一个装满了大大小小水龙头的水管网络,学习算法可以调节这些水龙头来控制最终输出的水流,并让它达到我们想要的流量,这就是学习的过程。这样,感知机就好像一个可以学习的小孩,无论什么问题,只要明确了我们想要的输入和输出的关系,都可以通过学习得以解决,至少它的拥护者是这样认为的。
多则不同
1974年,人工智能连接学派的救世主杰夫·辛顿终于出现了。他曾至少两次挽回连接学派的败局,1974年是第一次,第二次下文会提到。辛顿的出发点很简单——多则不同,就有了多层感知机。
还是以水流管道为例来说明。当网络执行决策的时候,水从左侧的输入节点往右流,直到输出节点将水吐出,而在训练阶段,我们则需要从右往左来一层层的调节各个水龙头,要使水龙头达到要求,我们只要让每一层的调节只对它右面一层的节点负责就可以了,这就是反向传播算法。事实证明,多层神经网络装备上反向传播算法之后,可以解决很多复杂的识别和预测等问题。
几乎是在同一时间,又有几个不同的神经网络模型先后被提出,这些模型有的可以完成模式聚类,有的可以模拟联想思维,有的具有深厚的数学物理基础,有的则模仿生物的构造。所有这些大的突破都令连接学派名声大噪,异军突起。
统计学习理论
然而,连接学派的科学家们很快陷入了困境。虽然各种神经网络可以解决问题,但是,它们究竟为什么会成功以及为什么在有些问题上会屡遭失败,却没有人能说的清楚。对网络运行原理的无知,也使得人们对如何提高神经网络运行效率的问题无从下手。因此,连接学派需要理论的支持。
2000年左右,两位俄罗斯科学家(他们的名字太拗口了,就省略了……所以科学家还得名儿好记才方便普通老百姓记住)提出了一整套新的理论:统计学习理论,受到连接学派的顶礼膜拜。
该理论大意可概括为“杀鸡焉用牛刀”我们的模型一定要与待解决的问题相匹配,如果模型过于简单,而问题本身的复杂度很高,就无法得到预期的精度,反过来,若问题本身简单,而模型过于复杂,那么模型就比较僵死,无法举一反三,即出现所谓的“过拟合”现象(这是我能够看懂的知乎上的解释:层次分析法和主成分分析法也能解释得通,就是错误的放大了某些特征的权重。我还看到了一篇杉树的文章,还挺有意思的他把过拟合比作一个自负的小孩,就是努力完成一个标准,比如考100分,但得了满分也不意味着是优秀的小孩。在我的理解,这个过拟合现象是模型的输入条件所得出的结果和实际所需结果的不吻合,或者说拘泥于一种标准所得的后果永远差强人意吧)。
然而,统计学习理论也有很大的局限性,因为理论的严格分析仅限于一类特殊的神经网络模型:支持向量机。而对于更一般的神经网络,人们还未找到统一的分析方法。所以说,连接学派的科学家们虽然会向大脑学习如何构造神经网络模型,但实际上他们自己也不清楚这些神经网络究竟是如何工作的。不过,他们这种尴尬局面也是无独有偶,另外一派后起之秀虽然来势汹汹,却也没有解决理论基础问题,这就是行为学派。
网友评论