上次我们提到认知科学的中心假设就是CRUM,即把大脑比作计算机,把思考比作算法,把思维比作计算。但在这样的计算主义湛蓝天空下,翻滚着两朵黑涩的乌云,一朵借朴素常识兴风作浪(塞尔:《心灵、大脑与程序》),另一朵用深奥数学引风吹火(彭罗斯:《皇帝新脑》)。
介于彭罗斯的数学论证已被逻辑学家认定为谬误,
而其博引的量子力学也无线索可寻,
所以我们暂时将这朵乌云搁置(Pinker 1999)。
今天主要谈谈经久不衰的塞尔中文屋论证
(Chinese room)。
中文屋,这个思想实验“家喻户晓”。他的通俗版本大致是这样的:把塞尔关在一个小黑屋,屋子里有英译汉的字典,我们往小黑屋里递一张用汉字写有问题的纸,塞尔则通过字典转译问题,做出英文回答,再一字一字转译成中文,递出屋外。介于塞尔对每一个问题都能做出汉字应答,也能够对外做出交流,那我们就可以认为塞尔懂中文。但实际上塞尔对中文完全不理解,谈何懂呢?他只是根据字典搬运符号罢了。
当然,这个通俗版本有一些问题,即如果屋里有字典的话,那塞尔就可以理解中文了,就像我们学习英文一样。而更正规的版本是什么呢?中文屋里有的只是成千上万编号的卡片和一本厚厚的规则书。比如说输入是“你好吗?”,那塞尔就得在规则书上找到“你好吗”的字样。而假设这个规则书上写的是“If someone
send the word "你好吗?", you pass 16790th cards
out”。那么,这样的话,塞尔就无法知道任何中文表达式的含义。他只是知道面对怎样的输入,应该给出怎样的输出,而对于汉语输入和汉语输出之间的意识,他更是一窍不通。
对应计算机程序,塞尔就相当于CPU,递入的问题是输入,递出的答案是输出。根据中文屋论证,计算机即使可以回答用人类语言提出的问题,但他也无法建立对人类语言的语义关系,无法理解人类语言。CPU和塞尔一样只会根据规则,机械摆弄符号。
这个论证在狭义上驳斥了图灵测试(Turing 1950),即即使我们没有找到机器和人的差别,机器依然是无心的,他没有理解意义的能力。但从广义来看,他对人类思维是类似计算机的计算或信息处理系统的理论造成了巨大威胁。毕竟,塞尔认为思想必须来自生物过程;,计算机最多可以模拟这些生物过程。
但对于中文屋的反驳层出不穷,大致有三条思路。
(1)不能说塞尔不理解中文,而作出中文屋这个运行程序没有理解的结论。(系统应答和虚拟心灵应答)
(2)用中文处理程序确实不会产生理解,但对计算机系统的变体可以造成理解。可以为CPU配上传感器进行交互(机器人应答),也可以安装一个模拟大脑神经元操作的系统(脑模拟器应答)。
(3)在屋外人来看,塞尔只要通过汉字测试,他就算懂汉语(他心应答)。
1.1系统应答(The Systems Reply)
系统应答是最常见的应答(Searle 1980),它主张塞尔只是中文屋的一个CPU(Rey 1986),是个实施者(Kurzweil 2002),他处在更大的系统中,而 实施者的属性并不等于系统属性。所以说塞尔不懂中文,也就不能代表中文屋整个系统没有理解。就像是民间通俗版本的质问一样:难道中国人的细胞懂中文?显然不是。
而对于这样的质疑,塞尔反驳道:“那我走出系统不就得了。“他的意思是塞尔可以内化整个系统,记住字典,离开中文屋,他依旧可以用中文屋交谈,但依旧无法理解中文。
系统应答心平气和(反反驳):“但塞尔还是中文屋的一个部分,他只不过是将字典实体变成了记忆。“
塞尔摇了摇头(反反反驳):“那你可以来我的餐馆试试,我一定会给你面的,生的。“也就是说对于不同语境的同一词汇,塞尔和正统中文使用者反应不同。
系统应答无动于衷(反反反驳的反驳):“那你的意思是盲人不懂红色,他就不能够有意识使用红色这个词汇咯。“即懂得中文和将中文语义建立在感官系统经验上不是一回事,就算没有感官体验,但见多了词汇出现的语境,我们依旧能够猜着用,但我们不能说我们没有意识。
关于系统应答依旧持续不断(Margaret Boden 1988,John Haugeland 2002),对此, 塞尔坚持认为“系统应答会产生心灵无处不在的谬论”,而对此进行有力回击。
1.2虚拟心灵应答(The Virtual Mind Reply)
虚拟心灵应答认为我们没有必要纠结于塞尔是不是理解的实施者,更重要的是是否发生了理解。即问题不是在“系统理解中文”上,而应该只是“运行的系统能否创造对中文理解”。
我们可以想象,对于递出中文屋的答案,塞尔不是答案的作者,因为答案没有塞尔的思想,只是转录的符号,那答案是谁的?中文屋是否可能创造了一个理解中文的虚拟实体?这个实体不是中文屋内的塞尔也不是整个系统, 但他具有着数据赋予的愿望。因此,塞尔说他不懂中文,并不代表理解没有产生。
2.1机器人应答(The Robot Reply)
塞尔确实不懂中文,但我们是否可以在机器人体内安装数字计算器,利用感受器和效应器作为和外部世界的交互,像小孩子一样通过观察和行动来学习呢?像这样,这些数字计算器就确确实实能赋予符号意义,理解自然语言。
但塞尔认为增加的数字计算器只是额外的输入,它依旧只是语法输入,中文屋的塞尔仍然无法将意义和汉字进行联系。
2.2脑模拟器应答(The Brain Simulator Reply)
那假如有一种程序,它能够完全模拟一个理解中文的人的每一个神经,使得每次理解发生时,系统模拟的序列和那个理解中文的人的神经冲动系列完全相同,那么我们是不是就可以说系统理解中文了?(反驳可以参考布洛克(1978)的中文体育馆)
3.1他心应答(The Intuition Reply)
从丹尼特(1991)的时间尺度沙文主义观点来看,他将智能与相对于当前环境的处理速度相关联,而认为是因为中文屋速度太慢,所以无法产生理解。平克(1997)也这样认为,塞尔只是将心理计算放慢到我们人类不再将其视为理解的范围。
而这个主张则认为,塞尔自己所具有的“我不懂中文”的主观直觉并不能作为他是否懂中文的标准。只要他没有表现出与中文使用者的差别(没有被识破),那么在旁观人的直觉看来塞尔就是懂中文的。
我们可以看到在系统回复和虚拟心灵答复渴望寻找理解的具体位置,机器人应答和脑模拟应答则希望重新设计中文屋,他心应答则意在拉扯直觉入内。更有甚者认为这个问题就是个哲学僵尸,没有意义(比如牛顿烈焰激光剑(Mike Alder 2004))。当然也有人不关注中文屋论证本身而对其所为之服务的逻辑进行回复(Hauser 1997 Damper 2006)。
尽管对于中文屋的应答层出不穷,但在此特意提及丘奇兰德夫妇的“发光屋”来表现塞尔的论证逻辑。
中文屋论证是这样的:(徐英谨 2013)
大前提:每一种智能都需有在符号和对象间构建语义关系的能力。
小前提:这种语义关系无法仅通过任何一台计算机所获取。
结论:计算机本身不可能具有真正的心灵,因此强AI无法实现。
效仿中文屋论证的逻辑论证结构,发光屋的论证结构如下:
(李珍 2011)
大前提:电和磁都是力,光的本质属性是亮度。
小前提:力自身既不构成也不足以产生亮度。
结论:电和磁既不构成也不足以产生光。
而看看我们的电灯就明白发光屋论证的可笑了。至于原因,就在于上面的两个小前提都是诉诸经验,仅是常识判断。发光屋是因为人力无法让电磁波频率达到1051Hz,我们肉眼无法把他们看作光罢了,而如果有一个机器他在1秒的时间应用了数以百万个记忆的规则,那我们能不能说他获取了语义关系呢?
尽管对于中文屋论证有着这么多样的反驳,但话说回来,中文屋所揭示的是老生常谈的语义语法、意向性 、身心等问题,在心智如何工作上既没有贡献新思路也没有启发新发现,在实证也得不到任何支持,所以这朵乌云无伤大雅,心智计算理论的天空依旧湛蓝。
推荐资料
"
•斯坦福哲学百科全书The Chinese Room Argument词条:https://plato.stanford.edu/entries/chinese-room/#5.4
•维基百科 Chinese_room 词条:https://en.wikipedia.org/wiki/Chinese_room#Other_minds_and_zombies:_meaninglessness
•https://www.iep.utm.edu/chineser/
•Dennett, D., 1978, ‘Toward a Cognitive Theory of Consciousness’, in Brainstorms: Philosophical Essays on Mind and Psychology, Cambridge, MA: MIT Press.
•Pinker, S., 1997, How the Mind Works, New York: Norton.
•徐英瑾. 心智, 语言和机器——维特根斯坦哲学和人工智能科学的对话[J]. 第 96-107 页, 2013, 1: 206-213.
"
网友评论