美文网首页万卷好书三笑集万卷好书读书会
《超级智能》5-1:别在技术狂热中迷失自我(上)

《超级智能》5-1:别在技术狂热中迷失自我(上)

作者: 北京杜豆豆 | 来源:发表于2019-06-29 06:14 被阅读30次

    万卷好书209《100本互联网人必读》系列:《超级智能》5-1:别在技术狂热中迷失了我(上)

    文/杜豆豆


    倾一生之力,读经典好书,写有厚度的文字,过有深度的人生。大家好,我是杜豆豆。欢迎收听我解读的《100本互联网人必读》系列。

    给超级智能植入健康的价值观念?

    1

    机器超级智能即使进入多级状态,也还是有导向单一体,进而统治世界的可能。

    那么,到底有没有一种长期的 办法,能让我们避免被自己发明的超级智能伤害呢?我们是不是可以通过给超级智能植入一些健康的价值观念,来确保它们不产生伤害我们的动机呢?

    听起来,这倒不失为一个治本又治标的好办法。

    如果是这样,首先第一步,就要考虑价值观的加载问题了。

    我们不能期望说,把所有超级智能可能面对的情况、可能产生的动机都列成个表,但至少可以抽取一些规则进行抽象表达,然后让超级智能决定,在不同情况下该如何应对。不过,这对程序员来说,实在是个不小的挑战。

    想想这个场景:程序员定义一些特定的价值观,在期望效用框架下,找到一种效用函数,按效用和幸福感的比例分配到每一种可能状态。可是,计算机怎么去理解和计算幸福感呢?

    2

    作者在文中考虑了几种价值观的加载方法,我们一起来看看。

    第一种,详细表达。

    类似穷举法,也是我们在家庭生活中常用的方法,也就是“就事论事”,但是如果用在复杂的机器人工智能的价值观加载上,显然不太合适。

    第二种,进化性选择。

    指望把人类价值观直接放到人工智能大脑里,显然是不现实的。但可以采用一种特殊的搜索算法,来达到类似进化的效果。

    怎么做呢?一是根据相对简单的随机规则,增加备选者的数量和新的备选者,我们可以称之为“变异”。二是去掉那些在评估函数中得分较低的备选者,来选择备选者,也就是“优胜劣汰”。通过这两种方法的交替使用,来达到加载人类价值观的目标。

    这种方法有可行性,但前途不大。尤其是进化有可能带来意识犯罪,比如,假如有人想制造出类人大脑呢?

    第三种,强化学习。

    让人工智能通过机器学习的方法,逐渐学会将累计的回报最大化的技巧。一旦人工智能表现出被期待的行为,就能得到回报,这样,它就能学着按照我们期望的价值方向,去解决不同类型的问题。

    其危险性表现可能为:当系统相当智能时,会倾向于内部脑电刺激的失败模型。因此,看起来也不太行。

    3

    第四种,联合累计的价值观。

    想想看,我们自己的价值观是如何形成的?除了遗传,更多的是人生经历,从外部环境获取的。对于人工智能,我们虽然不能指望它能完全模仿这样的过程,毕竟人类的基因积累是经历了千万年的。但是不是可以基于某个已经运载了人类价值观体系的成年大脑开始,设计一种代替机制,让人工智能将这些价值观高度准确的表达,引入自己的目标系统呢?

    但你想想,这种方法也是很危险的。人类价值观累积的特性可能会因为复杂而难以在种子人工智能上复制。一个不好的模仿品还可能产生和人类做法完全不同的人工智能,表现出意图之外的目标。

    模仿人类基因和经验累积的方法?

    第五种,机动性支架。

    就是先给种子人工智能一个临时的目标系统——相对简单并且可以用明确的编码或其他可行方法表达。一旦人工智能发展出更复杂的能力,就可以将该临时目标换成一个不同的目标,并伴随其成为完全成熟的超级智能。

    听起来,这种方法的可能前景相当大。不过,当智能系统发展到某种能力高的状态时,要运用高级表达来设计出新的、安全的目标系统,可实在不是一般的困难。

    4

    第六种,价值观学习。

    就是建造人工智能时,提供一些适合的价值观标准集合,让它按照这些隐含的、定义好的价值观行动。人工智能通过外部学习,逐渐领会这些价值观标准背后隐含的意义,让自己的估计精确化,以达到正确行动的效果。

    这算得上是一个很有潜力的方法,但还需要更多的研究和探索。

    第七种,仿真调节。

    对于全脑仿真的超级智能,价值观加载就不能用算法和结构理解这样的方式了,但可以用增量式选择方法,来修改系统的遗传目标。比如,用药物,通过仿真数字媒介的辅助,改变大脑组成。

    但这会涉及道德伦理问题,甚至没完成测试之前,可能仿真大脑就已经被增加到了有危险的超级智能水平。

    第八种,体制设计。

    比如,设计一种合适的体制,类似人类世界的国家或公司。首先从一个被很好地激励了的仿真系统开始,每个单个仿真相当于可自治的代理,出现新的增强功能时,先在代理小的子集中应用,没有破坏动机,再扩展到更多代理中。若发现有破坏动机,则将该功能剔除。如此交替,一小步一小步验证增强,最终形成安全的动机系统,做为附加保障,增加系统按计划发展的可能性。

    理论上,人类社会控制中的这些有利手段可以在人工智能或者仿真系统中采用,仿真的一些特性也能让他们更容易被控制,但有些特性也可能很难控制。体制设计做为一种潜在技术,似乎还值得进一步探索。

    5

    将价值观植入人工智能尽管很难,但还是有一些方法的。进一步的问题又来了,假设我们解决了价值观加载的问题,那哪种价值观应该被载入呢?

    首要的,自然是不犯错误。听起来容易,做起来难。这世上,有没犯过错误的人吗?

    更何况,今天看来错误的事情,未来可能是正确的;今天看来正确的,未必它就不是错误的。不然,苏格拉底不会被判处死刑,哥白尼不会被烧死,美国的南方黑奴还在盛行。

    如果我们以现在的价值观设置了人工智能的价值观,而且是个不可更改的的信念体系,一旦将来有了变化,该怎么办呢?无疑,带来致命性道德灾难的风险很大,甚至变成了一场赢率不大的赌局。

    看来,直接粗暴是不行的,采用间接规范的方法还是有必要的。

    与其基于我们目前的理解做猜测,不如将价值观选择的一部分认知工作委托给超级智能。这个观点,我们可以概括为认知遵从原则:未来的超级智能具有认知优势,与我们的信念相比,它的信念更可能是对的。因此,我们应该在任何可能的情况下遵从超级智能的观点。

    这样的话,我们就可以把种子人工智能的目标设定为:按照它对该隐式定义标准想要它做什么的最佳推测,不停地去行动。

    明白了间接规范方法的必要性,设定了认知遵从原则,那有没有具体的方法呢?

    下次讲。

    今天的解读就到这里。倾一生之力,读经典好书,写有厚度的文字,过有深度的人生。我是杜豆豆,感谢你的收听。下节我们继续解读《100本互联网人必读》系列的第二本书《超级智能》,欢迎持续关注。

    按最佳推测,行动!

    (未完待续)

    创作不易,非授权不得转载,转载请注明出处。如果您觉的文章有用,别忘了在文末点赞哦。

    读更多好书,请访问我的文集连载:《一生必读的万卷好书》

    我是最高级别的“简书会员合伙人”。欢迎您加入“万卷好书读书会”:会员已超200人,需群主拉入。有兴趣的简友请加微信dudoudou189联系我。读书会座右铭:在浮躁的时代,安心读书写作,养育心灵。

    相关文章

      网友评论

        本文标题:《超级智能》5-1:别在技术狂热中迷失自我(上)

        本文链接:https://www.haomeiwen.com/subject/ailrcctx.html