美文网首页职场菜鸟成长记读书
神经网络模型:当网络开始产生类似于人类思维的过程

神经网络模型:当网络开始产生类似于人类思维的过程

作者: 竹说 | 来源:发表于2019-05-16 22:56 被阅读10次

    01

    对于人和动物来说,我们的机器是用神经元制造的,也就是神经网络。

    人类对于智能如何工作的图景,是建立在大脑如何工作的简单想法基础上的。

    神经元很复杂,但是人类已经初步识别出神经元所做的一件重要的事情:它积累到一定数量,然后将总数和一个阈限进行比较,来确定是否超过这个阈限。

    一个触发的神经元及其激活程度在不断变化,它的激活水平受到来自轴突的激活水平的影响。

    轴突从附着在突触上的其他神经元一直延伸到本神经元的树突(输入结构)。

    突触具有的电量从正(兴奋的)到零,再到负(抑制的)。

    每个到来的轴突的激活水平乘上突触的电量,神经元将这些激活水平累加,如果总数超过了阈限,神经元就会变得更活跃,继而向任何与它相连的神经元发送一个信号。

    尽管神经元总是处在激活状态,而到来的信号只是让它的激活水平变化为更快或更慢的可察觉速率,但有时将它们描述为关(静息率)或开(动作率)还是比较方便。

    我们可以看到这些神经元连接在一起组成了逻辑门,它执行了最基本的关系:且、或、非。

    我们用神经元模型构建一个传统数字计算机,无论这些逻辑门是神经元还是半导体做的,它已经可以开始执行经典逻辑了。

    更进一步地,人们试着调整方向,做一台更具生物形态的计算机。

    首先,增加模糊逻辑,现实生活中人们对某事是否正确并没有全部或者没有这样的斩钉截铁的十足把握。

    其次,增加统计决策,将结论单位设计成不同的方式组合,比如改为阈限单位,只有在权重超过一定临界点时才执行政策作出决定;或者结论单位可以逐渐增加活跃度,然后在收益递减的位置趋于稳定。

    再次,将每个单位都和所有单位连接在一起。

    于是,有趣的事情发生了:网络开始产生类似于人类思维的过程。

    这种摒弃顶端节点,只计算各性质之间的相关度的网络,有五个典型的特征。

    1、这是一个重构的、内容寻址的记忆内存。

    比特本身没有意义,它们组成的字节有着任意的地址,地址和内容没有关系。

    根据地址获得内存记忆的位置,然后确定一个模式是否储藏在记忆的某个地方。

    因为表征一件东西的单位是相互紧密连接的,所以被激活的单位会相互强化。

    而且,连接是冗余的,这使得即使只有模式的一部分呈交到自动协关器,其余部分也将自动完成。

    这类似于心智的回忆。

    2、处理嘈杂的输入的方法。

    在现实世界中,错误是随处可见的,比如输入错误。

    之前的计算机是笨头笨脑的,比如我们输入一个打印命令,错手打成了pritn file,然后,它就会返回一条信息:pritn: command not found。

    近年来这个情况已经有所改善,最常见的是我们可以在word输入的时候的采用自动纠偏功能,一不小心输入gub时,word可能会提示改为gun,或者是helf改为help等。

    3、能够做一种简约版的计算,即限制性满意。

    在规则的基础上,人们经常会需要猜测,在我们的知觉、语言和常识推理中经常会遇到这样的情况。

    我是一次恶意行为的受害者,还是一次愚蠢行为的牺牲者?

    约束网络模拟了这一点,有时候一个约束网络可以有相互不一致但相等的稳定状态,这也说明了这个现象整体的模糊性,即以两种方式来解释整个物体,而不是各个部分。

    4、网络自动归纳概括的能力。

    这种模式协关器的原理是这样的,如果两个物体在某些方式上相似,那么很可能它们在其他方式上也相似。

    任何与一个单位的物体相连接的信息事实上就会和其他物体的许多单位相连接。

    比如说有对于“移动”、“呼吸”、“长毛发”、“吠叫”、“咬”和“见到消防栓就抬腿”这样的输入单位,发散出所有这六项的连接就触发了一种动物——你肯定马上猜到了——的事实。

    5、从例子中学习。

    这是现在强化学习的一个重要概念,模型建立者并不亲手确定策略,而是利用了学习的机制。

    具有这种学习技术的模式协关器叫做感知器。

    当然,这样的模式需要一个容错机制——虽然一个隐含的网络经过训练,能够运用一个更加新式的感知器学习程序来确定自己的权重。

    了解神经网络模型的特征之后,我们反过来思考,智能是如何工作的呢?

    这种神经网络,又是否执行了正确的计算来反应人脑思考的工作运行呢?

    删除

    (选填) 图片描述

    02

    那么,心智又是如何工作的呢?计算机的模拟为我们提供了一个之前一直被忽视的视角。

    第一,个体性的概念。

    个体的概念是人类社会推理整体知识的基本粒子。

    人总能轻易地区分开每一个个体,即使她们是几乎一模一样的同卵双胞胎,我们也可以明白这是“两个人”。

    我们对个体的执迷或许是因为,我们所遇到的每个人,都与所观察到的其他物体不同,他有其独特性、能动性及不同的经历。

    这是一个显而易见的心智能力,在动物身上也有出现。

    不过,计算机很难做到这一点,只要是相同的表征,计算机都会认为这是同一个物体,也就是说,系统会混淆类别和个体。

    或者说,系统没有个体概念。

    第二,组成性问题。

    一个表征如何由各种部件组成,各个部件的含义是什么,其组成方式又如何构成整个表征的含义。

    组成性是所有人类语言的精华特征。

    我们可以产生很多疯狂的新想法,无论这想法有多么荒谬不经。

    比如:奶牛跳过月球,宇宙源于一个大爆炸,外星生物降临地球……

    可能你会觉得,把这样的组成性问题放在神经网络中非常容易,只要开启“奶牛”“跳过”“月球”的单位就可以了。

    实际上,这会导致一种混淆:究竟是奶牛跳过了月球,月球跳过了奶牛,还是奶牛和月球跳过了。

    也就是说你需要将概念分配给角色,设置一个参数,规定谁是可以跳的。

    人的心智模式中天然可以区分这一类事情,因为我们的思维是彼此相关的方式。

    只要看到这三个词,“奶牛”、“跳过”、“月球”,我们可以自然地将其组合成一句话并正确理解。

    所以,人类心智一定表征了比概念到概念更复杂的命题。

    第三、量化或变量约束。

    试着看这样一句话:

    你可以在某些时候愚弄所有人,你甚至可能永远愚弄某些人,但你不可能永远愚弄所有人。——亚伯兰罕·林肯

    如果你可以理解这句话,那么所运用的就是计算量化的能力。

    人类对记忆系统有着两种非常不同的要求。

    我们要记住具体的,谁,在什么时候,在什么地点,为什么,对谁,做出了什么事情。

    同时,我们也需要推断出一些关于世界如何运转的一般性知识。

    心理学家将这两种方式做了区分,前者是“情景式”或者说是自传体式记忆;后者是“语义式”或者说是一般性知识记忆。

    第四、递归。

    人类的心智可以将一整个命题放在一个更大的命题当中,赋予它一个角色。

    我们可以产生一组无限多的数的能力,将一个命题嵌套在另一个命题当中,这增加了无限多思维的能力。

    在计算机科学和心理语言学当中,采用的是一种更为强大和灵活的机制:

    每一个简单结构都在长期记忆中得到一次表征,处理器的注意在一个结构到另一个结构之间不断地穿梭转移,将转移的路线记录在短期记忆中,从而将命题编织在一起。

    这就是递归式转换网络的动态处理器所做的事情。

    让我们将其转换成人话:

    比如说在理解一个句子的时候,我们是一次听或者读一个单词,而不是一个整句——人类似乎也是在一点一点咀嚼我们的复杂思维,而不是囫囵咽下。

    或许当一个动态处理器在这么做的时候,它也不仅仅是为了句子,而是为了思维。

    第五、模糊版和清晰版的统一。

    我们都知道,在人类世界,很多常识性概念的边界都很模糊,没有清晰的定义。

    但是人们并不总是模糊的,我们有非常多的确定性判断和毫不含糊的思维例子。

    人们同时用这两种方式来思维。

    模糊性来自于人类会不假思索地吸取各个特征的相关性来形成一种刻板印象,比如对地域的刻板印象,或者对鸟类应该是什么样的刻板印象等。

    但人类也会创造系统规则,规则带来了思维的清晰性,并且让我们从单纯的相似性中升华出来,根据解释来得出结论。

    模糊版和清晰版的相同类别,就这样相安无事地共处于一个大脑之中。

    删除

    (选填) 图片描述

    03

    在强光灯下的比较和审视让我们看到了神经网络模型与人的心智之间的差距,差距还有很多,目前已经复杂到一个比较高的量级。

    神经网络通过执行一些逻辑和统计运算,来选择输入表征、网络数量、每一个网络的连接方式,以及数据路径和连接这些路径的控制结构。

    神经网络正在试着越来越好地地解释怎样让一个系统变得智能。

    这一切开始地那么朴素,离奇迹的感觉也还很遥远。

    但是,正是这样的一套“更具生物形态的计算机”,让我们离自己的心智智能越来越近。

    相关文章

      网友评论

        本文标题:神经网络模型:当网络开始产生类似于人类思维的过程

        本文链接:https://www.haomeiwen.com/subject/djeuaqtx.html