人工智能的终极

作者: 姜地主 | 来源:发表于2019-04-30 04:19 被阅读6次

    我们讲科学创新,科学进步,每一步其实都是戕害,这些我们不再重复.我现在只谈一个问题,科学技术对人类造成的可怕危局,我只谈人工智能:

    今天关于人工智能机器人,它的发展究竟对人类是有利的还是不利的形成强烈争论。我先说一下人工智能研究方面或者预言方面,最著名的一个人叫库兹韦尔,他写过一本书,叫《奇点临近》。我建议大家有空读一下。

    库兹韦尔预测,他说人类的人工智能技术经历三个阶段:第一,弱人工智能。我们今天就是弱人工智能状态,比如你的手机,你的汽车导航,这都是弱人工智能。他说随后进入强人工智能,所谓“强人工智能”就是机器的智能和人等一和人拉齐,叫强人工智能。再下一步叫超人工智能,就是机器的智能远远超过人。

    库兹韦尔说,人类技术的生长是指数增长,对数学熟悉的人,你知道在坐标系上指数增长是怎样的一个曲线?因此他预测,人类从弱人工智能达到强人工智能,将在2045年达到,最多2065年达到,请大家注意,离我们现在只剩几十年。

    他说按照指数增长强人工智能一旦达成,也就是机器一旦达成跟人的智能效率一样高的时候,它将只需要三个半小时就进入强人工智能。速度如此之高,这个指数增长就跟你叠一个纸,你越叠越厚,越叠越厚,等你最后这一叠顶到天上,所以它后面发展速度越高。

    强人工智能是一个什么状态?机器人自己缔造更高智能的机器人,将会把人类跟机器的智能差距拉开十几个乃至几十个台阶。我简单说一下,智慧台阶,鸡比蚂蚁高一个台阶,猪和狗比鸡高一个台阶,猴子比猪狗高一个台阶,人比猴子高一个台阶,它居然在几个小时把它的智能拉开比人高几十个台阶。

    它看你连猪狗都不如,也就是它在想什么你都不知道。这叫超人工智能。它居然是强人工智能在2045年到2065年之间达成后三个半小时将达成的效果。关于强人工智能对人类是一个什么威胁?

    西方学界分成两派,65%的学者包括库兹韦尔,乐观派,认为人类从此进入永生和控制整个宇宙的时代,非常乐观。他说这是一个新的起跳的基点。35%,包括比尔盖茨,马斯克·霍金在这35%中,是悲观派。可是大家要知道,不管是乐观派还是悲观派,他们都是猜,他们都没有任何根据,他凭什么乐观,他凭什么悲观?

    我们怎样评价它将是悲观还是乐观?

    我们必须有一个基础理论作为终极尺度。当递弱代偿原理这把尺子打造出来的时候,我可以断定它是悲观结局,也就是机器人一定对人类的存在构成巨大威胁。有人写文章非常生动,讲这种威胁可能怎样实现。

    我引用他的故事,他说即使你给机器人下的是善意的指令,它也照样消灭你。这就好比你对头发并没有恶意,可你剃头把头发消灭,比如你给机器人下了一个指令,只是让它画画,最高效率的画画,它很快就会把地球上的纸张用完,它怎么办?它立即大规模借用地球上一切有机资源,包括人体造纸,它把你全做成纸了,它没有恶意,它是完成你的一个善意指令,可你玩完了。

    有人很幼稚的说,机器人是我们自己制造的,我们把它插销拔掉,它不是就没电了吗?请你搞清楚,机器人可能在三秒钟就建一个新能源,它要拔你的电,而不是你拔它的电。

    有人说机器人是我们的造物,怎么会损害我们?请想想你是哪来的造物?

    你是灵长目的造物,结果你把猴子现在快消灭光了,你何曾对你的祖先尊重过?大家想想,这个危机如果库兹韦尔预测得准,我们将在几十年以后,面对一个我们根本无法处理的天敌,比我们拿着火炮猎枪打猪还要简单。

    相关文章

      网友评论

        本文标题:人工智能的终极

        本文链接:https://www.haomeiwen.com/subject/jxijnqtx.html