美文网首页互联网&IT
人工智能前沿新书LIFE3.0(生命3.0)

人工智能前沿新书LIFE3.0(生命3.0)

作者: 言射手 | 来源:发表于2017-10-05 19:00 被阅读184次

    这本新书英文名为life3.0,直译过来是生命3.0,副标题是人工智能时代的人类。

    生命3.0

    作者叫麦克斯.泰格玛克,是麻省理工学院物理学家,也是真正站在AI领域最前沿的研究者之一。该书于今年8月29日出版,上线仅一天就登上了美国亚马逊人工智能和机器学习类书籍排行榜的首位。埃隆.马斯克也在其推特上发文称此书值得一读,人工智能将是人类遇到的最棒或者最糟糕的东西,所以让我们真去面对,能够真正以冷静客观并且站在相当的高度与深度来看待人工智能的人很少。

    本书作者泰格玛克正是其中一个,生命3.0一书深度远远超过市面上大多数关于人工智能的普及类书籍,其广度也让人吃惊。从AI的起源与背后的技术出发,一路上探讨了诸多将被其深度影响的领域,比如工作社会战争犯罪等等。随便举举书里谈及的问题,在不可避免的自动化浪潮中,我们要如何确保人们的工作与收入不会减少,如何避免智能化军备竞赛所带来的全球性危机?我们给下一代的职业建议应该是什么样的,什么样的职业将会成为下一个时代的宠儿,如何保障人工智能的安全性。如何保证AA始终在我们的控制之中,而不是如科幻电影那样开始与人类对抗。

    我个人判断这本书可能是2017年以来关于人工智能话题最为深刻的一本书籍。

    我们既有可能在地球上创造出前所未有的蓬勃发展的社会,也有可能创造出一个永远无法被推翻的无比压抑的全球监视系统。波多黎各会议结束时,泰格玛克真切地相信关于未来AI的探讨是我们这个时代最为重要的话题,这关乎我们所有人的未来,所以不应该仅限于AI研究人员。我们想要什么样的未来,在人工智能时代成为人类意味着什么?

    这本书的目的就是帮助你加入这个对话,但是目前许多关于AI的争论其实意义不大,因为参与讨论的人们存在着不少基本的误解,比如说对同一个词汇有不同的理解,所以我们在进入有价值的讨论之前,首先应该澄清一些最常见的误解。

    泰格玛克提供了他对于一些核心术语的定义,并非说它的定义是最好的,只是泰格玛克想通过明确的解释来避免混淆,而且它采用的是广义上的定义,避免以人类为中心的偏见。

    这里我转述一下比较重要的几个:

    智能指的是完成复杂目标的能力。
    弱人工智能指的是实现一组有限的目标的能力,比如下围棋或者驾驶汽车。
    通用智能指的是有能力达成几乎任何目标,包括学习。
    超人工智能指的是远超人类水平的通用智能。

    除了混淆术语之外,许多AI的对话还被一些简单的误解所困扰,最常见的有以下三个:

    第一个是关于时间表的神话。人类发展出超人工智能需要多长时间,在这个问题上最常见的误解就是我们非常确定地知道答案,比如最流行的说法是我们知道自己将在本世纪内创造出超人工智能,但是回顾一下历史,我们曾经也很确信自己会造出满天飞的汽车,但是你现在看到了吗?回到人工智能领域,上个世纪的50年代AI的创始人们就以为只要把大家聚在一起,花上两个月的时间,就能搞清楚如何让机器使用语言形成抽象概念,解决人类面临的各种问题,并且做到自我完善。现在看来只能用过分乐观来形容当时人们的想法。

    另一方面,一个流行的相反的说法则是我们确信自己本世纪内造不出超人工智能,1956年天文学家理查德武力声称太空旅行绝对不可能。类似这样事后看来可笑的预测在历史上比比皆是。

    物理学家知道大脑是由夸克和电子组成的一台强大的计算机,所以没有什么物理定律阻止我们构建更加智能的夸克结构。从这个意义上来说,我们不能铁口断言人类未来制造不出超人工智能。

    现在已经有一些调查询问AI的研究人员,你们认为多少年后我们至少有五成的概率制造出超人工智能,结论是这个领域的顶尖专家对此问题分歧极大,所以我们其实不知道答案。现在有媒体宣称过不了几年超人工智能就要诞生了,其实呢那些对此表示担忧的著名人士也认为至少还有几十年才会出现超人工智能,但是他们同时认为,只要我们不能拍着胸脯保证本世纪内不会出现超人工智能,那么现在就应该开始相关的安全研究,因为这些问题太复杂了,可能需要好几十年才能找到解决方案。

    第二个误解是关于争议的神话,也就是误以为AI研究者对于是否支持人工智能安全研究存在巨大的争议,泰格玛克认为这也是媒体推波助澜的结果,比如过于强调吴恩达的火星人口过剩论,其实吴恩达并非不在意人工智能的安全问题,只不过他关于超人工智能出现的时间表比较长,

    所以倾向于优先考虑短期内的AI挑战。

    第三个误解是关于风险的深化,相信你一定看过这样的新闻标题:霍金发出警告,机器人的崛起可能是人类的灾难,通常这类文章会搭配上一张装备的武器的邪恶机器人的科幻图片,文章还会告诉我们要警惕机器人发展出一时,并且变得邪恶,最终杀死人类。

    这类文章很抓人眼球,但其实体现了一些人对于意识邪恶以及机器人这三个概念的误解。如果你自己开车的话,你会有关于颜色声音等的主观上的体验,那么无人驾驶汽车会不会有这种主观上的体验呢?他是否会感觉到自己是一辆无人驾驶汽车还是像一个没有任何主观体验的僵尸?

    虽然这个一时之谜是挺有意思的,但是他和人工智能的风险无关。

    如果你被一辆无人驾驶汽车撞倒,那么他有没有主观意识跟你的腿有没有断没有任何关系。

    同理,超人工智能对人类的影响在于它会做什么,而不是它意识到什么,害怕机器变得邪恶也是无聊的问题。我们真正应该担心的不是机器的恶意,而是他的能力。根据定义,一个超人工智能非常擅长实现目标,无论这个目标是什么,所以我们需要确保其目标与我们的一致。你可能本身并不讨厌蚂蚁,但如果你负责一个水力发电项目,那么有一个蚁穴在项目建设过程中被水淹没就再正常不过了。益智运动就是希望努力避免人类遭遇和这些蚂蚁同样的命运被没有恶意但十分强大的超人工智能随手毁灭。对于一时的误解和另一则神话有关,那就是一些人所声称的机器无法拥有目标。机器当然可以拥有目标了,一颗热能追踪导弹朝你飞来。从狭义上来说,他的目标就是你,这和导弹是否有意识并且体验到一种目标感无关。这一刻你只会感到很恐慌,而不会像哲学家一样淡定的说。我不担心,因为机器不可能拥有目标。

    第三个肤浅的理解是关于机器人,其实对我们有威胁的人工智能并不需要一个金属怪物的身体,只要一个互联网连接就够了。

    益智运动主要的关注点不在于机器人,而在于智能本身,具体而言就是与我们的目标不符的智能,一个超人工智能可以很容易通过收买等手段操纵无数的人来执行他的目标,有些人以为机器不可能控制人类,事实上只要机器足够聪明,他就能控制人类,正如同人类可以控制比我们强悍的多的老虎一样。

    好吧,澄清的这些常见的误解,我们就可以一劳永逸地丢弃。

    他们将我们和朋友的讨论集中在许多有价值的议题上。

    总结一下:

    第一,生命是一个可以保持其复杂性和复制性的过程。生命可以分为三个阶段,生命1.0为生物演变在其生命周期内无法重新设计。他的软硬件。生命2.0为文化演变,能够在其生命周期内重新设计它的大部分的软件,但基本无法重新设计自己的硬件。生命3.0为技术演变,能够重新设计自己的软件和硬件。

    第二,超人工智能是生命3.0的代表,除了反对人工智能的乐得份子,人工智能专家分为三个主要阵营,包括数字乌托邦主义者技术怀疑论者以及益智运动的支持者。数字乌托邦主义者相信并且期待超人工智能到来。技术怀疑论者认为建立超人工智能非常困难,21世纪甚至数百年内都不会出现,现在担心这个问题是愚蠢的。益智运动派的认为本世纪有可能出现超人工智能,但它并不保证对人类有良好的结果,需要通过辛勤的安全研究工作来确保结果向好。

    第三,除了世界顶尖的人工智能专家之间存在的有价值的争议之外,还有许多因为误解所引起的无聊争论,比如明确你和你朋友所使用的术语的准确定义,不要浪费时间争论生命智能或者一时等词汇。另外,不要断言超人工智能出现的时间表,不要过于关心邪恶机器人,不要误以为机器没有目标或者无法控制人类。

    关于未来的AI军备竞赛

    今天的关键问题是要不要防止全球性的AI军备竞赛的启动。与核武器不同的是AI武器不需要昂贵或者难以获得的原材料,所以它们会很便宜,而且无处不在。这些武器最终落到恐怖分子独裁者以及计划实行种族清洗的军阀手里,只是一个时间问题。

    自主武器是执行暗杀破坏国家稳定镇压老百姓以及选择性的屠杀某个特定族群的理想工具。我们认为,AI军备竞赛对于人类是有害的,正如大多数化学家和生物学家对制造生化武器毫无兴趣一样,大多数AI研究人员对制造AI武器也毫无兴趣,不希望其他人这么做而玷污了这一领域,尤其是这可能会造成公众对于人工智能的反感。

    事实上,化学家和生物学家广泛支持相关国际协定并由此成功的禁止生化武器的开发。本书作者起草的公开信不久就获得了超过3000名AI研究人员的签名,包括来自谷歌脸书微软以及特斯拉的多位高管,另外17000位非专业人士也签了名,包括我们熟悉的史蒂芬霍金,事实上,AI军备竞赛蓄势待发。

    2016年美国投资到民用AI项目的经费约为10亿美元,而2017年美国五角大楼计划投资与AI有关的军事项目的资金就高达120-150亿美元,中国和俄罗斯也是摩拳擦掌,是否应该有相应的禁止性的国际条约?

    这个可能说起来容易做起来难,比如说条约只是禁止致命性的AI武器,还是将有伤害但非致命的武器一并禁止。条约是否适用于所有的自主武器系统还是对防御性的系统网开一面。再者,自主武器的大多数组成部分都具有民事用途,例如送邮件的无人机和运炸弹的无人机没有太大区别。我们要如何执行条约呢?一些人认为设计一个有效的AI武器的禁止性条约是几乎不可能的,所以干脆不搞了吧,但是作者引用了肯尼迪在宣布登月任务时讲的话:艰难的事情值得一试,因为一旦成功将对人类的未来十分有利。

    在泰格玛克与基辛格的一次交谈中,双方都认为AI军备竞赛中获益最多的不是超级大国,而是那些小型的流氓国家和恐怖分子,他们能够通过黑市获得武器,一旦开始大规模的生产AI驱动的小型杀手无人机,它的成本可能比智能手机还低得多。

    无论是恐怖分子想暗杀一位政治家或者是一个疯子想报复他的前女友,他们需要做的就是把目标的照片和地址上传到无人机,然后这架无人机就会飞到目的地识别并杀害目标,然后自我销毁,使得我们无从追查操控者。对于那些计划实行种族清洗的人来说,他们很容易通过编程使得无人机专门杀死具有某种肤色或种族的人,也许未来一辆卡车就能放出上百万架小如昆虫的杀手无人机。看过黑镜这部电视剧的朋友应该还记得其中有一集就为我们展示了这一可怕的场景。

    相关文章

      网友评论

        本文标题:人工智能前沿新书LIFE3.0(生命3.0)

        本文链接:https://www.haomeiwen.com/subject/dqskyxtx.html