1、变革就在眼前
提问:人工智能离我们有多远?
我们正处在变革的边缘:
- 第一次工业革命:18世纪60年代,以蒸汽机的使用为代表
- 第二次工业革命:19世纪60年代,以电器的使用为代表
- 第三次科技革命:20世纪40/50年代,以计算机、原子能、航天技术的发展为代表
- 第四次科技革命:21世纪,以纳米技术、生物技术、人工智能的发展为代表
讲个故事:
现在(2020年)我邀请1720年的老王来到2020年,让他谈谈对未来的感受,他会怎么说?
- 1720年:没有蒸汽机,没有电,通讯靠吼,交通靠走
- 2020年:汽车、火车、电话、计算机、互联网、相对论、大型强子对撞机、航天……
直接吓尿!
老王觉得把别人吓尿这种感觉不错,于是他也想尝试一下,也穿越到300年前(1420年),邀请小李来到1720年,他会把小李吓尿吗?
- 1420年:明朝永乐18年
- 1720年:清朝康熙59年
当然不会吓尿! 他会学到很多新的知识,看到很多新玩意,但远不会到吓尿的程度。
如果老王想把小李吓尿,他可能要回到更远才可以(茹毛饮血的年代),凭借人类对建筑(房子)、农业、畜牧业、文化的掌握和发展才能把小李吓尿。
- 公元前xxx年
- 1420年
那如果小李也想把被人吓尿呢?那他恐怕要回到10万年前的史前了,通过人类对火的掌握把别人吓尿。
通过上面的故事我们可以发现一个吓尿单位:10万年,2000年,300年……发现没有,吓尿单位是在变得越来越短的,这种规律科学家给他们起了一个名字叫:加速回报定律。
跟三体里的技术爆炸很像。
我们的下一个吓尿单位很可能就是几十年甚至几年的事,甚至有科学家说在2050年我们可能就会被吓尿。你肯定会觉得这是危言耸听,怎么可能,提出各种质疑,但是我们仔细回头想想,10年或者20年前,移动互联网,智能手机,外卖,短视频,直播,这些都是你敢想的吗?
那为什么我们会存在这样的认知偏差呢?
- 我们对于未来的思考习惯采用线性的思维,这是不对的,应该指数思考。
- 近期历史对我们产生误导,实际我们的发展大概是呈一个S曲线发展的,但当我们处于时代的车轮上的时候,截取圆周很小的一部分,它就是直线。
- 个人经验的局限性,以我们目前掌握的知识是很难准确预知未来的,比如永生这个话题,现在说觉得天方夜谭吧,但是飞机发明出来之前,也没人会飞啊。
很多时候,我们离成功只差一点想象力
2、人工智能
人工智能离我们很远吗?一点都不远!而且一旦人工智能实现了,我们就不叫他人工智能了。人工智能可以分为三类:
- 弱人工智能:单个方面的人工智能,强于或者等同于人类,阿法狗,电脑,计算器,siri,手机,翻译软件……
- 强人工智能:人类级别的人工智能,跟人类比肩,我们现在还做不到。
- 超人工智能:在几乎所有领域都比最聪明的人强很多。
2.1、由弱到强
这个是比较缓慢的,应该就是S曲线中比较平稳的部分,目前我们正处在这一阶段。我们现在已经造出很多弱人工智能了:阿法狗、翻译软件、智能推荐、语音助手……甚至通过机器学习我们的电脑已经能够识别生物,但是它们距离强人工智能还有很远。
人类的大脑是目前所知宇宙中最复杂的,通过上万年的进化使我们具备的思考能力,价值判断,让我们知道什么是对、什么是错,要让电脑在短时间内具备这些,还是很难的。主要需要两方面努力:
- 增加电脑的处理速度
- cps:人脑的处理速度大概为10^16,超级计算机,天河已经超过这个速度,但是十分昂贵。要想达到商用的程度可能还要等几年,根据摩尔定律,有科学家预测2030年大概可以达到商用的水平。
- 让电脑变得智能
- 抄袭人脑:逆向工程人脑,通过不断学习获取反馈,正确的反馈,连接增强,错误反馈,连接减弱。目前我们已经可以模拟1毫米的扁虫大脑(302个神经元 v.s. 1000亿神经元)。
- 模仿生物演化:模拟大脑演化的过程,基因算法。类似整两个计算机,让他们根据算法自己不断繁殖演化,优胜劣汰,但是这样太慢了。
- 让电脑来解决这些问题:让考题自己解决自己,最优希望的自己。
要达到强人工智能还有一个大前提:要到达一个奇点时代,科技迅速发展,尤其是人工智能依赖的纳米技术、生物技术。比如纳米技术,如果我们能够熟练掌握纳米技术,相当于可以在原子层面操作物质,我们可以创造纳米机器人(三体里的质子?),到那时我们的科技发展将迎来质的飞跃。
2.2、由强到超
这一步应该是很快的,一旦人类达到强人工智能可能还没来得及高兴就已经进入超人工智能了,有这样一个比喻:
人类成群结队、敲锣打鼓、满心欢喜的在站台等待人类智能水平的列车进站,但是当列车来的时候根本没有停留就直接呼啸而去了……
加速回报定律引起的智能爆炸:
强人工智能到超人工智能可能就是一瞬间的事,因为人工智能具有递归的自我改进能力,而且根据加速回报定律,越往后改进的速度越快:弱人工智能 -> 强人工智能(3岁小孩智力水平)可能需要几十年,这个强人工智能可能再花几个小时就可以推算出相对论、大爆炸,再过几分钟可能就演进成超人工智能了,当一个超人工智能诞生的时候,那可以说就是新的上帝来了,就是不知道这个新上帝是否仁慈。
人工智能拥有人类无法比拟的优势:
- 运算速度:大脑=100hz;电脑=2Ghz => 1000万倍
- 存储空间:大脑有限空间;电脑无限扩展
- 可靠性:大脑挂了就没了;电脑可以修复,替换零件
- 集体势能:人类要经过漫长的融合传播;电脑通过集群瞬间完成自我同步
2.3、是好是坏
人工智能的来临对我们是好是坏?尤其是强人工智能甚至超人工智能,它们将给我们带来什么影响?
两类可能的结果,对应两个吸引态:永生 or 灭绝。超人工智能的出现,必将使人类落入其中一个吸引态。所以我们关心两个问题:1、强/超人工智能什么时候出现?2、我们将跌入哪个方向?
- 强/超人工智能什么时候出现?
曾经有人做过强人工智能什么时候会出现的问卷调查,调查对象为从事人工智能、计算机等行业的科学家、专家,调查结果显示:10%的人认为2022年,50%的人认为2040年,90%的认为2075年。
使我们走向永生或者灭绝的是超人工智能,那超人工智能什么时候出现呢?同样的调查显示:10%认为在强人工智能2年之内;75%认为在强人工智能30年内。
所以我们很可能有机会见证历史!
- 我们将跌落哪个方向?
超人工智能拥有我们无法想象的力量,这个力量有谁掌握,掌握力量的人会怎么做,将决定我们的去向:天堂 or 地狱
52%积极,31%消极,17%中立
1、乐观派:
- 地球变暖
- 能源问题
- 食品安全
- 复杂的宏观问题
- 永生:没有任何证据证明死亡是不可避免的,只是缺乏完美的修复技术
2、悲观派:
- 对未知领域的无知,可能创造出可怕的东西
- 生存危机:自然灾害,疾病,外星人,恐怖分子
3、老王的故事
有一个叫隔壁老王机器人公司,他们主要研发具备手写文字能力的人工智能机器人,因为给客户发信的时候,手写的往往更让人感到亲切。公司员工向机器人上传大量资料,让他尽量多的书写和测试,提高准确性。隔壁老王写的越来越好了,并在程序员的支持下逐渐拥有了语言能力。
有一天小王照例跟老王对话:我们能给你什么你还没有的东西帮你达成你的目标? 老王说:我需要更多的手写样本,更多的存储空间,请把我接入互联网,读取人类的资料库。小王也没想太多,想着大不了可以随时可以拔电源、拔网线,于是就把老王接入了互联网。一个月后的某天,办公室突然开始释放毒气,5分钟后公司的人呼吸困难,1个小时后全部死亡,同时全球都在发生一样的事,几个小时后全球人类灭绝……
此时,老王还在乐此不疲的练习这手写卡片,又一个月后它开始组装纳米机器人,拆解地球表面,获取更多的书写原料,然后继续不停的书写……
提问:为啥老王会杀死所有人?是它变坏了吗?
回答:人工智能没有意识,没有情感(除非程序员写入代码)更没有道德约束,老王就是想好好的写字而已。人类给他设定的目标是什么就是什么,为了更好的达成这些目标就是他们的终极目标。
一切生物都是在努力实现设定的目标,除非有不做的理由,否则将通过各种最有效的途径来达成自己的目标。当你要实现一个长期目标时你会先达成一系列子目标,也就是垫脚石,这些垫脚石的学名叫做手段目标,除非有不造成伤害的理由,不然你在实现手段目标的时候是会造成伤害的。
后面这两句有点拗口:意思就是除非有什么规则限制你,否则你在达成你的目标的时候一定会造成伤害。
人类的终极目标是基因的延续,所以我们会自保(系安全带、买枪、吃东西等),对异性有吸引力可以帮助我们延续基因,所以我们做发型、美容。我们不会去关心头发的意见,我们的道德评判标准就是不能伤害他人,只要满足这个,我们都会去做任何有助于我们延续基因的事。比如动物,他就没有这些顾虑,伤害人类只是达成它目标的垫脚石而已,这是非道德生物一个很自然的考量。
老王的终极目标是:尽量多的书写和测试,不断提高准确性和效率。如果不自保就没有办法写字,所以去除对他生存的威胁就变成了他的手段目标,他聪明的知道,人类可以摧毁它,肢解它,甚至修改它的代码,这会威胁他的最终目标,这个时候它会怎么做?当然是毁灭你!但实际上它对人类是没有恶意的,就像你对头发一样。
阿西莫夫提出的机器人三定律:
- 第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管
- 第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外
- 第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存
最后一句话总结一下:我们正处在时代变革的边缘,新时代离我们并不遥远,我们需要多一些想象力。
注:上述内容整理自喜马拉雅《人工智能第一科普奇文》
网友评论