智力,是人的核心。文明的一切是智慧的产物。
AI:未来最大的不确定性(看书)DNA是传递生命的蓝图。在我们138年的宇宙历史中的某个时刻,发生了一件美妙的事。
这个可以被称为奇迹的事儿,让生命获得了意识。而我们的宇宙现在也已经醒来,意识到了自己。
地球漫长的历史中,生命不再是智慧唯一的拥有者。20到21世纪的发展,产生了另外的一个智慧——电脑。
原则上电脑可以模仿人类智慧,甚至更好。如果它继续遵守摩尔定律,它们的速度和记忆容量每18个月翻一倍,那在接下来100年的某个时刻,电脑很可能在智力上超过人类。
在过去20年,人工智能高速发展,发展的方向围绕着智能代理人的问题。
由于建立了合理的框架,语音识别、图像分析、自动驾驶等任务,被出色得完成了。
资金的投入是巨大的,取得的成功也是巨大的。
对于它的在研究,也正在稳步发展,我们很难预测AI未来可以变成什么样子,彻底消除疾病和贫困将成为可能。
AI的成功,将成为人类历史上重大的事件。
不幸的是,它可能也是最后一个,高收益的同时,也会带来巨大的风险,除非我们学会如何规避风险。
霍金担心,未来的AI过于强大,会自己起飞并不断加速,重新设计自己。而人类受到缓慢的生物进化的限制,无法竞争,将会被超越。
与此同时,AI过于智能,还会带来一些风险。比如智能化武器、以及AI自我觉醒。
它们对我们的短期影响在于谁来控制AI,长期影响在于,最终AI是否能被控制。
总之,对于人类,超级智能的问世,是有史以来要么最好,要么最坏的事。人工智能的风险不是恶意,而是能力。
一个聪明的AI非常擅于实现目标,如果他们的目标和我们的目标不一致,就会遇见麻烦。
比如,我们不是蚂蚁的敌人,也不会恶意去杀害他们。但如果有一个工程碰巧需要灌水入一片洼地,而洼地里有一个蚂丘。
这对于蚂蚁来说就是灾难。
有人发出疑问,为什么我们这么害怕人工智能,我们总能拔掉插头吧?
霍金举了这个例子:“人们问一台电脑,‘存在上帝吗?’电脑说‘现在有了。’并焊住了插头。”
不过,幸运的是,现在这些正在发生变化。2015年霍金和埃隆马斯克等AI专家,签署了一份关于人工智能的公开信,呼吁人们研究其对社会的影响。
埃隆马斯克警告说,超人类的人工智能能提供无法估量的好处,但如果不谨慎部署,将对人类产生不利的影响。
我们不应该害怕改变,但是我们需要改变对我们有利。
当我们发明火时,给我们带来了温暖的幸福感,但是我们也反复被火搞砸了一些事,再发明了灭火器。
除了人工智能,我们还拥有很多强大的技术:合成生物学、核武器等。在我们使用它们的同时,应该预先计划未来,因为这可能是我们仅有的机会。
我们的未来,是技术飞速增长和使用它们的智慧之间的竞赛。
让我们确保,我们的智慧能胜利吧。
网友评论