为什么最近有很多名人,比如比尔盖茨,马斯克、霍金等,让人们警惕人工智能?
1、人类发展是指数级的,目前人类正处在增长的拐点处。
2、重新理解人工智能的概念。很普遍,有三个层次。
3、目前的主要困境,动物的本能,计算机还无法理解。
用计算机科学家Donald Knuth的说法,“人工智能已经在几乎所有需要思考的领域超过了人类,但是在那些人类和其它动物不需要思考就能完成的事情上,还差得很远。”
要想达到人类级别的智能,电脑必须要理解更高深的东西,比如微小的脸部表情变化,开心、放松、满足、满意、高兴这些类似情绪间的区别,以及为什么《布达佩斯大饭店》是好电影,而《富春山居图》是烂电影。
4、解决的思路。
1、增加电脑处理速度。
2、让电脑变得智能。
1)抄袭人脑。
2)模拟生物演化。
3)让电脑来解决这些问题。
硬件的快速发展和软件的创新是同时发生的,强人工智能可能比我们预期的更早降临,因为:
1)指数级增长的开端可能像蜗牛漫步,但是后期会跑的非常快
2)软件的发展可能看起来很缓慢,但是一次顿悟,就能永远改变进步的速度。就好像在人类还信奉地心说的时候,科学家们没法计算宇宙的运作方式,但是日心说的发现让一切变得容易很多。创造一个能自我改进的电脑来说,对我们来说还很远,但是可能一个无意的变动,就能让现在的系统变得强大千倍,从而开启朝人类级别智能的冲刺。
5、强人工智能到超人工智能之路。
即使是一个和人类智能完全一样,运算速度完全一样的强人工智能,也比人类有很多优势:
1)速度
2)容量和存储空间。
3)可靠性和持久性。
4)可编辑性,升级性,以及更多的可能性。
5)集体能力。
人工智能只会在“人类水平”这个节点做短暂的停留,然后就会开始大踏步向超人类级别的智能走去。
6、智能爆炸。
指数级增长的智能,很快超越人类最聪明的大脑。统治世界。
7、超人工智能
1)是好是坏?
2)什么时候会来呢?
3)将来它能做什么?
Nick Bostrom describes three ways a superintelligent AI system could function:
As an oracle, which answers nearly any question posed to it with accuracy, including complex questions that humans cannot easily answer—i.e. How can I manufacture a more efficient car engine? Google is a primitive type of oracle.
As a genie, which executes any high-level command it’s given—Use a molecular assembler to build a new and more efficient kind of car engine—and then awaits its next command.
As a sovereign, which is assigned a broad and open-ended pursuit and allowed to operate in the world freely, making its own decisions about how best to proceed—Invent a faster, cheaper, and safer way than cars for humans to privately transport themselves.
8、Ray Kurzweil.奇点临近
Kurzweil相信电脑会在2029年达成强人工智能,而到了2045年,我们不但会有超人工智能,还会有一个完全不同的世界——奇点时代。
9、纳米技术
等我们掌握了纳米技术后,我们就能用它来制造技术产品、衣服、食物、和生物产品,比如人造红细胞、癌症细胞摧毁者、肌肉纤维等等。
而在纳米技术的世界里,一个物质的成本不再取决于它的稀缺程度或是制造流程的难度,而在于它的原子结构有多复杂。
10、纳米技术能为我们做什么?
拥有了超级智能和超级智能所能创造的技术,超人工智能可以解决人类世界的所有问题。
人类也可以永生了。
11、未来可能是我们的噩梦。
- 人工智能的自我意识
- 一个超人工智能是非道德性的,并且会努力实现它原本的被设定的目标,而这也是人工智能的危险所在了
- 感知能力
但是当起飞发生后,电脑不只是拥有了高智商而已,还拥有了其它超级能力。这些超级能力是感知能力,他们包括:
§ 智能放大:电脑能够很擅长让自己变得更聪明,快速提高自己的智能。
§ 策略:电脑能够策略性的制定、分析、安排长期计划
§ 社交操纵:机器变得很擅长说服人
§ 其它能力,比如黑客能力、写代码能力、技术研究、赚钱等
- 一旦超人工智能出现,人类任何试图控制它的行为都是可笑的。
- 当我们结合达成目标、非道德性、以及比人类聪明很多这些条件,好像所有的人工智能都会变成不友善的人工智能,除非一开始的代码写的很小心。
- 人类可能会被干掉。
网友评论