美文网首页趣味学术首页投稿(暂停使用,暂停投稿)有意思的文章
5分钟阅读:知识大爆炸-《一个故意不通过图灵测试的人》-第2部分

5分钟阅读:知识大爆炸-《一个故意不通过图灵测试的人》-第2部分

作者: 神助 | 来源:发表于2016-01-18 18:51 被阅读1250次

    点击这里查看上一篇:《5分钟阅读:知识大爆炸《一个故意不通过图灵测试的人》-第1部分


    超人工智能确实会比人类思考的快很多,但是真正的差别其实是在智能的质量而不是速度上

    就算你把猩猩的脑子加速几千倍,它还是没有办法在人类的层次思考的,它依然不知道怎样用特定的工具来搭建精巧的模型——人类的很多认知能力是猩猩永远比不上的,你给猩猩再多的时间也不行。而这,只是比我们高了两层台阶的智能罢了,站在这个楼梯顶层的智能之于人类,就好像人类之于蚂蚁一般——它就算花再多时间教人类一些最简单的东西,我们依然是学不会的。

    但是我们讨论的超级智能并不是站在这个楼梯顶层,而是站在远远高于这个楼梯的地方。当智能爆炸发生时,它可能要花几年时间才能从猩猩那一层往上迈一步,但是这个步子会越迈越快,到后来可能几个小时就能迈一层,而当它超过人类十层台阶的时候,它可能开始跳着爬楼梯了——一秒钟爬四层台阶也未尝不可。所以让我们记住,当第一个到达人类智能水平的强人工智能出现后,我们将在很短的时间内面对一个站在下图这样很高很高的楼梯上的智能(甚至比这更高百万倍):

    自然演化花了几亿年时间发展了生物大脑,按这种说法的话,一旦人类创造出一个超人工智能,我们就是在碾压自然演化了。当然,可能这也是自然演化的一部分——可能演化真正的模式就是创造出各种各样的智能,直到有一天有一个智能能够创造出超级智能,而这个节点就好像踩上了地雷的绊线一样,会造成全球范围的大爆炸,从而改变所有生物的命运。

    科学界中大部分人认为踩上绊线不是会不会的问题,而是时间早晚的问题。想想真吓人。

    可惜,没有人都告诉你踩到绊线后会发生什么。但是人工智能思想家Nick Bostrom认为我们会面临两类可能的结果——永生和灭绝

    现在的问题是:“我们什么时候会踩到绊线?”以及“从平衡木上跌下去后我们会掉入哪个吸引态?”

    “我们什么时候会踩到绊线?”也就是什么时候会出现第一个超级智能。

    如果你现在够年轻,有一半以上的人工智能专家认为在你的有生之年能够有90%的可能见到强人工智能的实现。很大一部分对这个领域很了解的人认为2060年是一个实现超人工智能的合理预测——距今只有45年。

    下一个问题,踩到绊线后,我们将跌向平衡木的哪一个方向?

    所以关键的问题时——到时这股力量究竟由谁掌握,掌握这份力量的人会怎么做?这个问题的答案将决定超人工智能究竟是天堂还是地狱。

    就算我们相信人工智能的巨大潜力,你今天又花了多少时间思考“在接下来的永恒中,绝大部分时间我都不会再存在”这个问题?虽然这个问题比你今天干的大部分事情都重要很多,但是正常人都不会老是想这个吧。这是因为你的大脑总是关注日常的小事,不管长期来看有多少重要的事情,我们天生就是这么思考的。

    事实上超过四分之三的专家都属于主流阵营中的两个小阵营:焦虑大道和信心角

    Bostrom描述了三种超人工智能可能的工作模式:先知模式、精灵模式、独立意志模式。

    Eliezer Yudkowsky —— “根本没有困难的问题,只有对于特定级别的智能来说难的问题。在智能的阶梯上走一小步,一些不可能的问题就变得简单了,如果走一大步,所有问题都变得简单了。”

    Kurzweil相信电脑会在2029年达成强人工智能,而到了2045年,我们不但会有超人工智能,还会有一个完全不同的世界——奇点时代,这是三个技术领域的共同革命造成的——生物技术、纳米技术和最重要的人工智能技术。

    科学家认为纳米机器人进行一次自我复制只要100秒左右,也就是说一个简单的错误可能就会在3.5小时内毁灭地球上全部的生命。而在纳米技术的世界里,一个物质的成本不再取决于它的稀缺程度或是制造流程的难度,而在于它的原子结构有多复杂。在纳米技术的时代,钻石可能比橡皮擦还便宜。

    乐观:人工智能能为我们做什么?

    Kurzweil认为人类会完全变成人工的。有一天当我们看到生物材料,然后觉得生物材料实在太原始了,早年的人体居然是用这样的东西组成的,早期的人类居然会被微生物、意外、疾病杀死。这就是Kurzweil眼中人类最终战胜自己的生理,并且变得不可摧毁和永生,这也是平衡木的另一个吸引态。他深深的想象我们会达到那里,而且就在不久的将来。

    Bostrom这么说:很难想象一个超级智能会有什么问题是解决不了,或是不能帮着我们解决的。疾病、贫困、环境毁灭、各种不必要的苦难,这些都是拥有纳米科技的超级智能能够解决的。而且,超级智能可以给我们无限的生命,这可以通过停止或者逆转衰老来达成,也可以让我们上传自己的数据。一个超级智能还能让我们大幅度提高智商和情商,还能帮助我们创造这种有趣的体验世界,让我们享乐。


    悲观:未来可能是我们最糟的恶梦

    对人工智能来说,友善不友善不是指人工智能的性格,而只是指它对人类的影响是不是正面的

    我们要了解人工智能是怎么思考的。其实答案很简单——人工智能和电脑的思考方式一样。我们容易犯的一个错误是,当我们想到非常聪明的人工智能的时候,我们把它拟人化了,因为在人类的视角看来,能够达到人类智能程度的只有人类。要理解超人工智能,我们要明白,它是非常聪明,但是完全异己的东西

    超人工智能会非常的聪明,但是它并不比你的笔记本电脑更加像人类。事实上,因为超人智能不是生物,它的异己性会更强,生物学上来讲,超人工智能比智能蜘蛛更加异己。超出人类心理的范畴,道德(moral)和不道德(immoral)之外,更多的是非道德性(amoral)。而所有不是人类的,尤其是那些非生物的事物,默认都是非道德性的。

    超人工智能是我们最可能摸到的黑色玻璃球

    这就是我们的下一个问题,人工智能的动机是什么?

    答案也很简单:我们给人工智能设定的目标是什么,它的动机就是什么。人工智能的系统的目标是创造者赋予的。但是Bostrom不这么认为,他认为智能水平和最终目标是正交的,也就是说任何水平的智能都可以和任何最终目标结合在一起。任何假设超级智能的达成会改变系统原本的目标的想法都是对人工智能的拟人化。人健忘,但是电脑不健忘。

    一个超人工智能是非道德性的,并且会努力实现它原本的被设定的目标,而这也是人工智能的危险所在了。当你要实现一个长期目标时,你会先达成几个子目标来帮助你达成最终目标——也就是垫脚石。这些垫脚石的学名叫手段目标(instrumental goal)。除非你有不造成伤害的理由,不然你在实现手段目标时候是会造成伤害的。

    人类的核心目标是延续自己的基因。要达成这个目标,一个手段目标就是自保,因为死人是不能生孩子的。这不是因为它是不道德的或者邪恶的,而是因为伤害人类只是它达成自己目标垫脚石而已,作为一个非道德性的生物,这是它很自然的考量。理性的做法就是毁灭全人类,它对人类没有恶意,就好像你剪头发时对头发没有恶意一样,只是纯粹的无所谓罢了。它并没有被设定成尊重人类生命,所以毁灭人类就和扫描新的书写样本一样合理。从友善的人工智能变成了不友善的人工智能——但是它只是在变得越来越先进的同时继续做它本来要做的事情。

    一旦超人工智能出现,人类任何试图控制它的行为都是可笑的。人类会用人类的智能级别思考,而超人工智能会用超人工智能级别思考。人类说:“我们把超人工智能的插头拔了不就行了?”就好像蜘蛛说:“我们不给人类捉虫的网把人类饿死不就行了?”都是可笑的。

    我们需要在给人工智能的目标里制定一个能让人类继续进化的能力。Elierzer Yudkowsky提出了一个目标,她把这个目标叫作连贯的外推意志,这个目标是这样的:我们的连贯外推意志是我们想要知道更多,思考得更快,变成比我们希望的更好的人,能一起更远得长大。外推是汇集的而不是发散的,我们的愿望是连贯的而不是被干扰的;我们想要外推的被外推,我们想要解读的被解读。

    这就是为什么了解超人工智能的人把它称作人类的最后一项发明,最后一个挑战。

    相关文章

      网友评论

        本文标题:5分钟阅读:知识大爆炸-《一个故意不通过图灵测试的人》-第2部分

        本文链接:https://www.haomeiwen.com/subject/vaekkttx.html