人工智能真的会毁灭人类吗?
现在业界有一个相对主流的观点,就是要警惕人工智能的发展。因为人工智能跟人类的大脑有根本的不同,它本质上只是一段程序,当它发展过了一个临界点之后,他就有可能通过自我学习,自己更新自己,自己发展自己,导致他的智商提升速度远远大于人类大脑智商的进化速度。
更直观的描述,人工智能的智商发展曲线可能是一个指数级曲线,也就是在某一个临界点之前,非常非常的平缓,当过了临界点之后,就慢慢开始加速,速度会越来越快,直到接近垂直的直线。
有人给了一个形象的比喻,人们对待人工智能的成长,就好像在等待火车,在开始的时候,感觉他们成长的好慢,左等也不来,右等也不来,内心十分焦虑。直到有一天看着这列火车慢慢接近,慢慢接近,然后,唰的一声,超过你离你而去,根本不会停下来等待。也就是,他们跟人类智商在同一层级的时间可能会非常短,在超过人类之后就会急速的甩人类而去。
之后总有一天,人工智能的智商会远远高于人类。等到那一天的时候,他们的智商远高于人类,已经可以被看作为不同的物种,即使他们对人类并没有恶意,但是他们属于一个更高等的存在,他们基于自己的利益,做出一些行为的抉择,依然可能导致人类的灭亡。
举个例子大家就明白了,就拿我们人类跟濒危动物之间的关系,我们做出决策的时候,是不可能考虑他们的利益的,有时候并不是我们故意的想去伤害他们,但就是我们人类不经意的行为导致了他们大量的灭亡,例如过度砍伐森林,大量排放有毒气体,石油泄漏,等等。
所以他们的推论就是人工智能是一个定时炸弹,一旦他们的智商成长到超出了我们人类的理解范畴之外时,他们就失控了,我们人类就处在被毁灭的边缘。
这套理论乍一听起来,感觉很有道理,但是深究起来,却远不是这么回事。
首先,人工智能掌握真正学习能力是非常困难的
作为一个计算机专业人士,我要给大家普及一个科普知识,人工智能如果要达到自己通过学习成长的目的,其先觉条件就是,可以自己更新自己的代码程序,也就是说,可以自己编写程序,然后把编写出来的程序,代替自己运行的程序。现阶段所有的所谓人工智能、机器学习等应用通通不具备这样的功能,现阶段所谓的,机器学习、深度学习、人工智能等,他们所谓的学习只是通过大量数据,来修改自己的行为模式,例如通过用户的一些特征行为,判定用户的喜好,通过天气的数据收集判定未来的天气,通过以往的棋局来判断现在应该走哪一步棋。也就是说,现在所谓的学习只能在他程序限定的范围内,修改他们的行为,更直白的说,也就是下棋的程序,他只会下棋,推荐新文的程序,他只会推荐新闻,预测天气的程序,只能预测天气。所以这个所谓的学习并不是真正的学习。
要想拥有真正的学习能力,就必须拥有可以改写自己运行程序的能力,这样才能根据外界情况的需要,来增加、修改自己程序的功能让自己适应这个世界,才能获得真正的成长。那人工智能有可能有一天达到这样的状态吗?或许有,或许没有,但无论怎样达到这个状态都是非常难的。
这要求我们计算机科学家要写出一个可以开发程序的代码,而这个可以开发程序的代码呢,他开发的程序也需要能开发程序,这个逻辑还要不断的,无限的往下说下去,就是他开发出来的程序,依然有能力开发程序……。这个要求是极其困难的。
具体来说,如果要开发一个根据具体需求来产生具体行为的程序,是非常容易的;而要开发一个可以根据不同需求来自行开发不同程序的程序,虽然比较困难也是可以的;但现在的要求是,这个程序可以无限循环层级下去的开发程序,这几乎是不可能的,至少现阶段是不可能完成。这个有点像代码开发里面的递归,但计算机里面的递归可以通过堆栈、队列、循环等方式解决的,而这个是现实世界的业务逻辑,虽然是程序开发,但不是程序开发内部的事,而是程序开发外部的业务逻辑,所以是不能通过递归的方式解决的。而且貌似是无限循环,但实际上它永远是有限循环,不然他会超出计算机堆栈限制,会崩溃。开发能开发程序的程序却是无限循环,真正的无限循环。
逻辑虽然非常绕,但是道理很简单就是人工智能要掌握真正的学习能力,是非常非常困难的。
善于思考的人可能会反驳,人类本身的创造力、学习力,好像并不需要通过自己生产自己才能实现,那为什么人工智能需要这样做?其实你错了,人类的学习过程其实就是在不断更新自己大脑的过程,人们每产生一点进步,每学习一样新技能,他的大脑都会产生相应的新变化,因为大脑的执行代码会发生变化,他们自己更新了自己,只是你没有意识到而已。这是我们大脑天然的机制,也是我们人类真正与众不同的地方,也就是只有我们人类才可以通过不断的学习来主动的进化自己。
而计算机执行的代码是死的,一旦开始运行就是固定不变的,他不可能在运行的过程中,不断的更新自己的代码,所以他要实现自我进化,就必须能自己开发程序来代替、更新自己,这就产生了上面提到的循环依赖限制。
第二,认知限制
到底是什么造成一种高等生命对其它低等生命的压制,也就是什么造成这个所谓的高等。要弄清这个问题,可以通过两个方面比较来推测这个结论。
先看人类跟动物的区别,物理上的脑容量差异是明显的,由此造成的智商差距也是必然的,虽然脑容量跟智商不成严格正比关系,但总体上的相关性却是很强的。但这是唯一的差别吗,仅仅是智商造成了你的高等吗?那几个被狼、被猴子养大的孩子(注:此类案例多次被报道过,有兴趣可以搜索),脑容量跟人类完全相同,但是却没有人类的所有的基本能力,他们比动物更高等吗?
你可以说他们因为没有正确的培养,所以不具备正常人的智商。其实你错了,他们只是因为错过了,语言关键期导致无法正常的沟通,并不是完全没有智商,进行系统的培训后,他们依然可以拥有比正常人低些,但肯定比动物高的智商。这样的人跟正常人类的区别如果不是智商,那是什么?
如果你不服气,依然不认可正常人类跟他们的比较,那么一个正常的10岁儿童呢?他们是不是大脑发育已经基本完成,智商完全跟正常人类智商相同,甚至超过。认可这个比较对象了吧,那么你认为可以把一个10岁儿童跟一个成年人同等看待吗?成年人是不是应该比儿童所谓的更高等一些?即使儿童过一些年也会成长为成年人。
如果不认同,那么设想一下,如果有这样一个世界,所有人都只能成长到等同于我们10岁儿童的头脑状态,之后不再发展,那么这样的世界能有科学进步吗?难道我们不比他们高级?但是他们的脑容易和智商跟我们确是完全相同的。
所以,智商上的差距只是造成物种高等低级差异的基础,而不是本质。那么这个本质是什么,是通过学习造成的认知水平差异!简称认知差异。
再来假想一个情况,如果有一天,一群拥有高科技的外星人站在我们面前,貌似是一群比我们更高等的生物,那么我们跟他们之间的区别在哪里?
不太好比较?他们可能任何方面都比我们强,比我们智商更强,生命形式更高级等等?
那我们换个比较对象,如果是一群来自500年后的地球人类穿越到我们这个时代,那么他们是不是也比我们更高级?
不承认?那么如果他们携带着未来的高科技武器、技术等,轻松的占领了全地球呢?对我们来说,他们跟外星人有什么本质区别,都能轻易搞定我们,谁规定地球人一定就不如外星人,即便是未来的地球人。对我们来说,未来地球人跟外星人都一样,因为他们的科技都比我们发达,所以他们对我们来说就是高级的。
那么,我们跟外星人不好比较,跟未来地球人好比较吧,500年的时间大脑容量不太容易发生巨大变化吧,别说500年,就是2000年,我们现在的人类跟2000年前的古代人类大脑容量也没有可察觉的变化。既然脑容量没变化,智商也必然不会发生巨大变化。
虽然有数据显示我们人类的智商在1950年后有平均20点的提升,但是各个阶层并没有天才倍出,并不符合现实,所以出现各种对此的解释,或者是教育的普及,或者是测试只针对大脑某些方面并不能完整体现人类的智商,等等。
而且此数据也并不符合逻辑,一是为什么1950年以前智商没有提升,或者提升非常少;二是如果以此速度提升,那么人类会不会变成超人,从而突破脑容量严重影响智商的事实?显然这非常荒谬,如果脑容量不增加就可以大幅提高智商,那么从猴子进化到人就不需要进化出这么大的脑袋了,增加了平衡的难度,给快速奔跑带来负担,甚至增加了人类脑袋这个致命弱点的被击中概率。
脑袋增大对生物生存带来这么大负担的情况下,自然选择依然选择了大脑袋,说明了这是智商增加的必然代价。不接受这个代价的,要么依然是猴子,要么在人类进化的过程中被淘汰。
即使1950年以来人类真的智商平均增加了20点,那可能也是发挥了我们大脑的潜力,以现有脑容量继续提高智商的概率非常小了。
500年后的地球人能长出一个更加庞大的脑袋吗?这个概率非常小,至少从人类有历史的5000年推测是不大可能的,所以未来人类不大可能智商碾压我们,最多比我们高出那么一点点。
那造成他们生命等级比我们高的原因又是什么?还是由于学习导致的认知水平的巨大差异!他们因为科学进步,各类知识的级别更高,在这些高级别知识环境下学习成长的,必然也带来认知水平的高等。
对于外星人也同样如此,如果外星人是类似“异型”靠凶残本性和超强天赋来攻击人类的,我相信,只要他们没有发展出高度的文明,没有高度文明带来的高级认知,那么无论他们的天赋多么强大,认知低于我们人类,必然不能清楚的认识到人类以及我们人类文明的优势劣势,而它们的优势弱点则必会被我们人类研究清楚,所以它们最终也必然是像电影里一样被人类干掉。这种情况它们怎么能算高等生物。
而文明水准高出地球,靠科技压制我们的,我们当然是无法对抗的。他们的认知必然也是远超我们。
因而外星人跟未来地球人一样,是否拥有超强的天赋不重要,认知水平才是承认其生命更高级的关键。
所以最终的结论就是,高等生命与低等生命的智商差异只是一个基础,智商高的生命并不一定就比智商低的生命更高等,就像人类的野孩子跟狼和猴子一样。对于个体来说,真正决定是否高等是生命的认知水平,就像一个未来地球人跟一个现代地球人一样。而对于整个族群来说,则是族群的文明发展水平,就像外星人跟地球人一样。
而所谓的文明,也就是整体的认知水平高而已。
有了这个认知基础,就可以继续讨论人工智能的问题。
假设,人工智能真的有一天可以自己通过学习、通过更新自己的代码,不断的提高自己的智商,假使它的智商有一天真的提高到了我们人类无法理解的地步,那么它会成为一种远高于人类生命形态的高等生命吗?
答案显然是,不会的!
因为它没有这么多高等知识供它把自己的认知水平提高到那个境界。
要知道,人工智能要想提高认知水平,必然是需要大量知识,乃至比现代人类知识更高级的知识。而它所获取到的知识都是来自人类的积累,人类还未发现总结出来的知识,它是不可能获取到的。即使它把几千年来人类总结的所有知识都学完,它的认知水平依然不可能脱离人类,顶多算它是地球上最博学的一个生命体。因为在任何一个细分领域,必然有认知水平跟它差不多的人类。
那它不能自己进行科学研究,自己生产高等知识吗?当然可以,但是这个有难度,而且是非常非常难。因为一旦它选择自己研究并生产知识,那么它就好像在挑战、对抗整个人类族群。因为人类科学文明的发展,是靠整个人类族群协力推进的,并不是靠某一个人英雄主义就能搞定的。即使有牛顿、爱因斯坦等大量的科学巨星,但他们也都承认他们的贡献都是建立在前人的基础上的。
而整个人类族群的智商是多少,具体不好算,但肯定比一个人的智商要高出太多太多了,面对这种情况人工智能所谓的高智商还有优势吗?不一定!
虽然《乌合之众》里说群众加起来的智商甚至还低于一个正常人。但那是群众,是特殊情境下,陷入癫狂的人群,并不是冷静状态下的人类族群。不能混为一谈。
那如果人工智能选择跟人类配合搞科学研究呢?这个其实是最有可能的情况,但既然已经说了是配合,那么人工智能跟人类一起生产的新知识,人类会理解不了?要知道,并不是一个认知水平已经远高于人类的生命体搞出的研究。而是紧紧知识广博程度比任何一人类都广的多的东西而已。从现有人类知识体系中慢慢延伸出去的科学成果相关领域的科学家们会理解不了?
既然有人能理解,那么变换一种通俗说法,那些认知水平相对较高的人群是不是也就能理解了。那人工智能的认知水平在提高的同时,人类的文明也在前进,人类的平均认知也在前进。
这种状态下,人工智能如何能发展成为一种完全碾压、无视我们的高等生命体?
总结下来,如果人类自己开发出一个全新的生命形式,可以自己通过学习提高自己的智商和认知水平,那么因为它是基于人类的文明而进步而提升的,所以它是不可能超越人类现有的文明程度进化成一个超高等的生命体。
网友评论