《未来简史》是以色列历史学家尤瓦尔•赫拉利于2015年创作,是近几年讨论非常火热的一本奇书。在此书中描绘了进入21世纪后,曾经长期威胁人类生存、发展的瘟疫、饥荒和战争已经被攻克,智人面临着新的议题。在解决这些新问题的过程中,科学技术的发展会颠覆我们很多的“常识”,更重要的,当以大数据、人工智能为代表的科学技术发展的日益成熟,人类将面临着从进化到智人以来最大的一次改变,绝大部分人将沦为“无价值的群体”,只有少部分人能进化成特质发生改变的 “神人”。
时下人们正是对以人工智能为代表的高科技很热衷,尤瓦尔的此书叙述了人工智能会为人类带来的改变及可能带来的危机。因此有人高呼“无用的阶级”会被淘汰,“人工智能会统治人类”诸如此类。然而与其担忧所谓的危机,现在是不是时候由此更应该关注人的自身,思考人类的价值,以及人类是否还具备宝贵的能力。以下会由人文和算法两方面引起的思考展开,这也是尤瓦尔书中重点论述的方面。
人文
尤瓦尔开篇提出人类的三大问题已由饥荒、瘟疫和战争转向永生,幸福快乐,从“智人”进化为“神人”。 根据人文主义的观点,人类必须从自己的内在体验找出意义,而且不仅是自己的意义,更是整个宇宙的意义。这是人文主义的主要训诫:为无意义的世界创造意义。
人文主义思想的兴起也改变了教育制度。在中世纪,所有意义和权威来自于外部,因此教育的重点就在于顺从、背诵经文、研究古老传统。现代人文主义教育则要学生自己思考。在中世纪的欧洲,获得知识的主要公式是:知识 = 经文 x 逻辑。科学革命之后,知识 = 实证数据 x 数学,然而这个公式有一个重大缺点:无法处理价值和意义的问题。人文主义还提供了另一种选择,知识 = 体验 x 敏感性。体验是一种主观现象,有三个主要成分:知觉、情绪及想法。敏感性包括两方面:注意到自己的知觉、情绪和想法;允许这些知觉、情绪和想法影响自己。借用中国阴阳理论,阳(科学,代表力量)阴(人文,意义与伦理判断),人们只见阳,不见阴,人类的感受、欲望和体验在文化中的重要。人类史上,从没有任何文化如此重视人类的感受、欲望和体验。人文主义将生命看作一连串的体验。
对于人类都有自主意识,为什么最终是人类成为地球主宰?《未来简史》如是说,因为大规模合作。胜利属于合作更为顺畅的一方。所有大规模人类合作,都是基于人们想象的秩序。同一个组织内的智人相信同一套故事/说辞,就会遵守同一类规则,这就是大规模合作的基础:人类的互为主体的意义之网。人与人的交互之间,由于沟通形成对某些事实的共同认可,于是此某事实便具有了客体化意义,成为互为主体的实体(如神,国家,货币等,契约化的伦理秩序);在这样的互为主体的意义之网中,人们互相给予了生存意义;于是构成了历史,具有时代性。从而,智人为世界赋予了意义。人文主义,让人类摆脱了人生无意义、存在没依据的困境。
未来,人类将面临着三大问题:生物本身就是算法,生命是不断处理数据的过程;意识与智能的分离;拥有大数据积累的外部环境将比我们自己更了解自己。如何看待这三大问题,以及如何采取应对措施,将直接影响着人类未来的发展。
自由人文主义(liberal humanism)突出个人的独特体验。社会人文主义强调注意他人的感受,注意自己的行动如何影响他人的体验。进化人文主义源于达尔文进化论,认为冲突能够促成自然选择、推动进步,比如战争经验能够推动人类有所成就,因为战争是让自然选择去消灭弱者。正如尼采说的,“那些杀不死我的,会使我更强大。”
尤瓦尔在此书指出自由主义有一个本质缺陷,因为自由主义的提出是基于三个假设——第一,我有一个不可分割的自我,并且我能够发生真实的自我;第二,这个真实的自我是完全自由的;第三没有人比我更了解我自己。
算法
算法是计算机编程的基础,以前在《计算机原理与算法基础》课上是指解题方案的准确而完整的描述,是一系列解决问题的清晰指令,算法代表着用系统的方法描述解决问题的策略机制。《未来简史》中提出生物也是算法,指的是进行计算、解决问题、做出决定的一套有条理的步骤。尤瓦尔从简单的算术,到食谱的蔬菜汤做法,进而推到假如一只狒狒发现了一串香蕉,而旁边还埋伏着一只狮子。要不要去摘这串香蕉的决策过程就是个复杂的算法。从这看来,这虽然不是计算机程序,但也是在解决问题作出决定的步骤,视为算法也是对的。《未来简史》认为权衡所有变量和概率来得出最好的结果,是这套算法完成了基因的优化选择。人类99%的决定都是由各种进化而成的算法来处理的,这些算法就被我们称为感觉、情感和欲望。
尤瓦尔进而提出三原则:1.生物是算法。每种动物(包括智人)都是各种有机算法的集合,经过数百万年进化自然选择而成。2.算法的运作不受组成物质的影响。3.因此,没有理由相信非有机算法永远不能复制或超越有机算法能做的事。
由此,三原则对上面的自由主义有了重大挑战:1.生物就是算法,人类不是不可分割的个体,而是由可分割的部分组成。换言之,人类是许多不同算法的组合。2.构成人类的算法并不“自由”,而是由基因和环境压力塑造,虽然可能依据决定论或随机做出决定,但绝不“自由”。3.无意识的算法理论上有可能比我更了解我自己。如果能用某个算法监测组成身体和大脑的每个子系统,就能清楚掌握我是谁、我有什么感觉、我想要什么。只要开发出这样的算法,算法就能做出最好的选择。
对于人类社会,尤瓦尔更是把全人类比作单一的数据处理系统,每个个人都是里面的一个芯片,人类发展的历史是处理系统提高效率不断升级的过程。于是,为了升级,历史这样重写:1.增加处理器数量和种类:认知革命和农业革命。大量智人通过互为主体的意义之网,打破了个体数量限制,人类超出一般动物,繁衍出数量和种类来;从农业革命开始,仍然拜互为主体的意义之网所赐,人类加速数量增长。2.增加处理器之间的连接:发明文字和货币,人类加强了联系,形成城市、国家,发展商业。3.增加现有连接的流通自由度:科学革命(十五世纪末开始),大航海到现在,每种新媒介的胜出都是因为提高了信息的流通度,改善了全球数据处理系统。历史正进入一个生命成为数据聚合无所不包的处理的阶段,智能正在与意识脱钩,无意识但具备高度智能的算法,可能很快就会比我们更了解我们自己。
进一步《未来简史》中认为现在世界有三个趋势,第一,人工智能如此强大,人作为工作者的经济价值和军事价值已经被取代,政治经济系统会认为人没有价值。第二,也许人类作为整体还是有价值的,但每个人作为个体是没有价值的。第三,也许有些个体是有价值的,但他们是经过生物学改造的“神人”。
意识与人的思考
意识:心理学界对意识(consciousness)的理解分广义和狭义两种。广义的意识概念是指大脑对客观世界的反应,这表现了心理学脱胎于哲学的一种特殊的学术现象,而狭义的意识概念则是指人们对外界和自身的觉察与关注程度,现代心理学中对意识的论述则主要是指狭义的意识概念。
《未来简史》中尤瓦尔认为开发出新的无意识智能基于识别模式和无意识的算法,下棋、自动驾驶、诊断,比人类还好,由此怀疑意识存在的意义。据此提出结尾的三个问题:1.生物真的只是算法,生命只是数据处理?2.智能和意识哪个更重要?3.如果无意识高智能算法比我们更了解我们自己对社会、政治和日常有什么影响?
然而尤瓦尔在16年9月(此书的英文版发布在16年9月)的演讲,意识比智能更重要: 人类的生活被分成了两部分,第一部分是学习,第二部分是在工作中学习,学习可以培养人的情商和感知(感觉的能力,痛感、幸福感、爱或者仇恨)。感知是人类最独特的能力,是人工智能最亟需的能力,人类不仅要培养人工智能,更要发展人工智能的感知能力,因为意识比智能更重要。
这是实现类人智能最艰难的挑战。具有自我意识以及反思自身处境与行为的能力,是人类区别于其他生物最重要、最根本的一点。而人类在思考上能在不同领域运用推理的能力,通过学习积累得来的陈述性知识,这些也是人工智能目前有所欠缺的。
对人工智能的思考
人工智能,以前在专业课上是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 以前的专业课上提到算法能解决的问题占1%,只能解决可计算的问题,现在这个比例是否有变还未知。很多问题不可量化不可计算,或算法复杂度过高无法运行。机器学习要明确定义问题,核心统计方法找到数据集中可预测模式,不能评估数据以外的知识。不能进行因果推断,推理(输出结果而非逻辑),也就是人们可以告诉算法牛顿三大定律,但算法自己是不能推理出三大定律。给算法学习的数据要包含所有问题,如果有变以致与先前模式不匹配则不行,这就是计算机业内说的Garbage in, garbage out。
2018年出现两大和算法有关的新闻,今日头条推荐被批判,FACEBOOK大选被质疑影响美国大选。 从这两则新闻中有了这样的考虑,推荐算法真能识别人的兴趣与需求?凭偶尔一次点击推送同一类型的真符合人的需要?仅默认某群体的兴趣一样?这些问题也是业界在进一步优化乃至寻找更高效的算法。优秀的结果都始于数据质量。没有规避数据输入,即使是最好的机器学习算法,如果仅适用于低质量数据,也会产生欺骗性结果。在所有情况下,都不存在全面的解决方案,需要多种方法来满足不同的标准。其中每一个都会围绕哪些权衡可以接受做出决定,其中大部分通常围绕速度与准确性进行。然而目前这些算法为读者带来的千篇一律,影响阅读体验,进而使见识面狭窄。
另外通过在用户不知情的情况下收集用户数据,进而制造假用户发布假新闻,根据先前的用户数据分析的结果精准投放个性化广告,干扰用户们的选择,这警示了某些利益群体利用智能手段操纵民意,这也印证了书中精英阶级能对所谓“无用阶级”施以的影响,同时也说明三趋势中第三条的进行生物改造的“神人”并不是必须的,现在不是“神人”也能做到。
另一方面,人工智能能实现普通智力吗?机器能像人类一样解决问题吗?尤瓦尔在《未来简史》中展现了他对人工智能的认识,然而似乎他还没分辨到通用人工智能和强人工智能。
现在尽管AlphaGO, AlphaZero在围棋上战胜了人,然而它们目前仅限于下棋,还未能解决其它问题,这就需要通用人工智能——指在不特别编码知识与应用区域的情况下,应对多种甚至泛化问题的人工智能技术。
通用人工智能还需要做持续学习,需要具备严密的推理和逻辑的能力,能在没有任何输入的情况下自我学习,架构需要更新,这就有要变成一个自己能够组合,完成一个更复杂的系统。这些是目前人工智能还仍待解决的问题。
但这还不说明机器就能有思维能独立思考,做到这样要的是强人工智能。图灵测试,著名的检验机器是否具有人类只能的测试,也受质疑。“中文房间实验”,是由美国哲学家约翰•希尔勒(John Searle)在1980年发表论文提出的一个思维试验。这个实验假设一个带了翻译工具的只会英语的人在封闭的房间完成中文的指令再翻译成中文传递出去,而外面的人以为这人会中文。这里蕴含的思想却在表达这样一个可能:机器所表现出的智能(理解中文),很可能只是翻译程序带来的假象,其实它对真正的人类智能一无所知。 这个实验本来是为了反驳图灵测试的,认为即使通过了图灵测试,机器也不见得有了智能。但或多或少有点牵强,始终也没有把图灵测试彻底反驳掉。但“中文房间悖论”却可能在技术发展之路上告诉了我们另一件事:我们所有的技术探索与研究,可能都是在完善那个中英文翻译程序,从来不是去教机器真的智能。
强人工智能——不仅要具备人类的某些能力,还要有知觉、有自我意识,可以独立思考并解决问题。“中文房间实验”人类研究的方向根本无法逼近强人工智能。即使能够满足人类各种需求的通用人工智能,也与自我意识觉醒的强人工智能之间不存在递进关系,即这个人(智能体)获得的是使用中文的能力,但他(它)对中文没有意识。尽管目前的科学对意识的研究仍有不少未知及争议,近期,来自美国和法国的神经学家组成的研究团队认为,机器不仅能够具备意识,而且他们似乎已经找到了让机器具有意识的方法。原因何在?三位科学家称意识是“绝对可计算的”,因为它是特定信息处理产生的结果,由大脑硬件实现。有专家指出人工智能的危险,会危及人类的生存,指的就是强人工智能,如果强人工智能有自主意识,能否受控还不得而知。因而对于强人工智能的开发,学界存在着争议。
人能做什么
金融时报4月一篇文章谈到下一代需要重视人工智能无法效仿的人类技能:创造力、创新、弹性、处理冲突、模棱两可和不确定性的能力等等。应对人工智能挑战不仅关乎培养更多人工智能和电脑专家(尽管这很重要),还关乎构建人工智能无法效仿的技能。这些是不可或缺的人类技能,例如团队合作、领导能力、倾听、保持积极心态、与人打交道以及管理危机和冲突。这些都是隐性知识(而非显性知识)形式。它们属于诀窍技能,而不是事实技能。事实技能很容易传给下一代,而且容易衡量。诀窍技能很难传递,也很难衡量。就业能力技能差距已然巨大,而人工智能只会使其更大。
心智升级是需要的,反思下人类所拥有的能力、认识世界的方式。尽量主动去搜索信息,而非被动的接受所谓的推送,多一份批判性的思考,以免受不知名的干扰。人类存在的目的就是在生命最广泛的体验中,提炼出智慧。 人工智能的模拟人的智能,更是促使人类更进一步的研究人类本身的认知模式,更清楚的认识人类自身,才有助于开发更利于人类的智能。
结语
据吴军《硅谷来信》,2017年《未来简史》在中国非常热销,亚马逊中国上排名是第二位,不过同时在美国亚马逊上却是200名开外。与《未来简史》在中美两国的排名情况相应的,对于高新科技的支持中外有着一定程度的差别,以无人驾驶试验(尤瓦尔认为无人驾驶百分百安全无事故,然而今年在美国的事故以及之前黑客大赛上容易被黑以及形成反例)为例,美国和德国的支持率就60%多,而中国则是90%,耐人寻味。
尤瓦尔的观点在国外属于反主流。有评论说尤瓦尔是超人类主义,认为可以并值得应用科技来根本改进人类自身条件,特别是要开发和制造各种广泛可用的技术来消除残疾、疾病、痛苦、衰老和死亡等不利于人类生存与发展的消极问题,同时极大地增进人的智力、生理和心理能力。然而过于执着于科技,对人文的轻视则容易走向极端。
《未来简史》中认为意识形态影响社会发展,尽管意识形态与社会发展具有相互作用,但社会发展首先对意识形态具有决定性作用,而不是相反。要较好地预测未来社会的形态以及那时的意识形态,就需要考察人类在社会中竞争与淘汰、人类本能的取向(比如对公平的追求)、以及相关事物的发展规律。虽然此书有些地方有所夸张及认识不清,但是很同意尤瓦尔的这一点,预知未来必须先了解历史。不是为了找出历史的必然,而是摆脱历史的枷锁,让人更自由。历史其实是一系列偶然事件的节点。感谢这本奇书给了个充分反思人类存在及智能发展的机会。
注:此文原是2018年时我母校读书日征文。
网友评论