美文网首页趣味学术学习新科技与数码新品
5分钟阅读:知识大爆炸-《一个故意不通过图灵测试的人》-第1部分

5分钟阅读:知识大爆炸-《一个故意不通过图灵测试的人》-第1部分

作者: 神助 | 来源:发表于2016-01-18 18:48 被阅读3031次

    这是一篇类似于KK这样大师的观点论文,看完,个人觉得非常合理但又觉得这是惊世之作,所以摘录其中一些观点。原文较长,但是墙裂推荐看下:《一个故意不通过图灵测试的人工智能》

    未来学家Ray Kurzweil把这种人类的加速发展称作加速回报定律(Law of Accelerating Returns)。之所以会发生这种规律,是因为一个更加发达的社会,能够继续发展的能力也更强,发展的速度也更快——这本就是更加发达的一个标准。19世纪的人们比15世纪的人们懂得多得多,所以19世纪的人发展起来的速度自然比15世纪的人更快。

    如果Kurzweil等人的想法是正确的,那2030年的世界可能就能把我们吓尿了——下一个吓尿单位可能只需要十几年,而2050年的世界会变得面目全非。

    1. 我们对于历史的思考是线性的 —— 预测必须基于当下的速度+想象力

    当我们考虑未来35年的变化时,我们参照的是过去35年发生的事情。当我们考虑21世纪能产生的变化的时候,我们参考的是20世纪发生的变化。这就好像1750年的老王觉得1500年的小李在1750年能被吓尿一样。线性思考是本能的,但是考虑未来的时候我们应该指数地思考。一个聪明人不会把过去35年的发展作为未来35年的参考,而是会看到当下的发展速度,这样预测的会更准确一点。当然这样还是不够准确,想要更准确,你要想象发展的速度会越来越快。

    2. 近期的历史很可能对人产生误导 —— 当下处于新事物出现的积累期

    首先,即使是坡度很高的指数曲线,只要你截取的部分够短,看起来也是很线性的,就好像你截取圆周的很小一块,看上去就是和直线差不多。其次,指数增长不是平滑统一的,发展常常遵循S曲线。

    3. 个人经验使得我们对于未来预期过于死板 —— 想象力的匮乏

    我们通过自身的经验来产生世界观,而经验把发展的速度烙印在了我们脑中——“发展就是这么个速度的。”我们还会受限于自己的想象力,因为想象力通过过去的经验来组成对未来的预测——但是我们知道的东西是不足以帮助我们预测未来的。当我们听到一个和我们经验相违背的对于未来的预测时,我们就会觉得这个预测偏了。如果我现在跟你说你可以活到150岁,250岁,甚至会永生,你是不是觉得我在扯淡——“自古以来,所有人都是会死的。”是的,过去从来没有人永生过,但是飞机发明之前也没有人坐过飞机呀!

    通往超级智能之路

    关于人工智能的困惑:1.我们总是把人工智能和电影想到一起。2.人工智能是个很宽泛的话题。3.我们日常生活中已经每天都在使用人工智能了,只是我们没意识到而已。

    首先,不要一提到人工智能就想着机器人。其次,你可能听过“奇点”或者“技术奇点”这种说法。

    最后,人工智能的概念很宽,所以人工智能也分很多种,我们按照人工智能的实力将其分成三大类:单个方面的人工智能——弱人工智能Artificial Narrow Intelligence (ANI)、人类级别的人工智能——强人工智能Artificial General Intelligence (AGI)、各方面都比人类强万亿倍的——超人工智能Artificial Superintelligence (ASI)。我们现在的位置——充满了弱人工智能的世界。

    每一个弱人工智能的创新,都在给通往强人工智能和超人工智能的旅途添砖加瓦。

    计算机科学家Donald Knuth的说法,“人工智能已经在几乎所有需要思考的领域超过了人类,但是在那些人类和其它动物不需要思考就能完成的事情上,还差得很远。”

    要想达到人类级别的智能,电脑必须要理解更高深的东西,比如微小的脸部表情变化,开心、放松、满足、满意、高兴这些类似情绪间的区别,以及为什么《布达佩斯大饭店》是好电影,而《富春山居图》是烂电影。

    通往强人工智能的第一步:增加电脑处理速度

    Kurzweil认为考虑电脑的发展程度的标杆是看1000美元能买到多少cps,当1000美元能买到人脑级别的1亿亿运算能力的时候,强人工智能可能就是生活的一部分了。

    按照这个速度,我们到2025年就能花1000美元买到可以和人脑运算速度抗衡的电脑了。

    通往强人工智能的第二步:让电脑变得智能

    1)抄袭人脑

    科学界正在努力逆向工程人脑,来理解生物进化是怎么造出这么个神奇的东西的,乐观的估计是我们在2030年之前能够完成这个任务。一个电脑架构模拟人脑的例子就是人工神经网络。它是一个由晶体管作为“神经”组成的网络,晶体管和其它晶体管互相连接,有自己的输入、输出系统,而且什么都不知道——就像一个婴儿的大脑。更加极端的“抄袭”方式是“整脑模拟”,具体来说就是把人脑切成很薄的片,用软件来准确的组建一个3D模型,然后把这个模型装在强力的电脑上。

    2)模仿生物演化

    我们可不可以用模拟演化的方式来造强人工智能呢?这种方法叫作“基因算法”,它大概是这样的:建立一个反复运作的表现/评价过程,就好像生物通过生存这种方式来表现,并且以能否生养后代为评价一样。一组电脑将执行各种任务,最成功的将会“繁殖”,把各自的程序融合,产生新的电脑,而不成功的将会被剔除。经过多次的反复后。这个自然选择的过程将产生越来越强大的电脑。而这个方法的难点是建立一个自动化的评价和繁殖过程,使得整个流程能够自己运行

    3)让电脑来解决这些问题

    总的思路是我们建造一个能进行两项任务的电脑——研究人工智能和修改自己的代码。这样它就不只能改进自己的架构了,我们直接把电脑变成了电脑科学家,提高电脑的智能就变成了电脑自己的任务。

    即使是一个和人类智能完全一样,运算速度完全一样的强人工智能,也比人类有很多优势:

    硬件上:速度、容量和储存空间、可靠性和持久性

    软件上:可编辑性,升级性,以及更多的可能性;集体能力

    人工智能只会在“人类水平”这个节点做短暂的停留,然后就会开始大踏步向超人类级别的智能走去。

    惊悚!智能大爆炸,请类比寒武纪的生物大爆炸

    递归的自我改进 —— 一个运行在特定智能水平的人工智能,比如说脑残人类水平,有自我改进的机制。当它完成一次自我改进后,它比原来更加聪明了,我们假设它到了爱因斯坦水平。而这个时候它继续进行自我改进,然而现在它有了爱因斯坦水平的智能,所以这次改进会比上面一次更加容易,效果也更好。第二次的改进使得他比爱因斯坦还要聪明很多,让它接下来的改进进步更加明显。如此反复,这个强人工智能的智能水平越长越快,直到它达到了超人工智能的水平——这就是智能爆炸,也是加速回报定律的终极表现。

    以下的情景很可能会发生:一个人工智能系统花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时候,电脑对于世界的感知大概和一个四岁小孩一般;而在这节点后一个小时,电脑立马推导出了统一广义相对论和量子力学的物理学理论;而在这之后一个半小时,这个强人工智能变成了超人工智能,智能达到了普通人类的17万倍。我们把130的智商叫作聪明,把85的智商叫作笨,但是我们不知道怎么形容12952的智商,人类语言中根本没这个概念

    人类对于地球的统治教给我们一个道理——智能就是力量。也就是说,一个超人工智能,一旦被创造出来,将是地球有史以来最强大的东西,而所有生物,包括人类,都只能屈居其下——而这一切,有可能在未来几十年就发生。当一个超人工智能出生的时候,对我们来说就像一个全能的上帝降临地球一般。

    这时候我们所关心的就是:“这是否是一个仁慈的上帝?”

    点击这里查看下一篇:5分钟阅读:知识大爆炸《一个故意不通过图灵测试的人》-第2部分

    相关文章

      网友评论

        本文标题:5分钟阅读:知识大爆炸-《一个故意不通过图灵测试的人》-第1部分

        本文链接:https://www.haomeiwen.com/subject/fzskkttx.html