美文网首页人工智能互联网科技@IT·互联网
AI会考虑道德吗?(原创转载请声明)

AI会考虑道德吗?(原创转载请声明)

作者: 虎说七道 | 来源:发表于2017-07-31 08:24 被阅读199次

    “拥有智能的机器”是人们长期以来的愿景,AI的发展速度这个愿景似乎就要成为现实了。当机器有了足够多的智慧,它们就能脱离人类的控制,自主运作,独立作出判断和选择。当一个机器有权利去选择的时候,问题就来了:它的选择是道德的吗?对于它们而言,它们的道德标准和人类一样吗?

    谷歌的AlphaGo与李世石的第二场围棋赛中,AlphaGo下出的第37收震惊了专家评委们。没有人理解它为什么要那么走,因为人类棋手不会走子。然而事实证明它并不是走错了,连它的创造者都明白它是怎么规划战略的,AlphaGo告诉了我们,在完成同一项任务的时候,AI的思维并不是一定和我们相同。

    名画《雅典学院》中的柏拉图(左)与亚里士多德(右)

    对于人类来说,我们对价值观或者说道德的判断几乎都是要基于一定的情感判断的。所以道德一旦掺加了人性情感的判断就变得无比复杂。历史上对道德的观点有两派:天理派和本质派。

    “天理派”认为,道德是在人类本性之上的,是永恒且客观的;而“本质派”则认为人类的道德是人类这一存在的产物,而也许其他种类的存在会有其他形式的道德。

    天理派学说的代表人物亨利·西奇威克19世纪的功利主义哲学家,他认为,一个有道德的行为从全宇宙的角度来看都应该是正当的。也就是说,一个行为道德与否不取决于任何个人的看法;一个有道德的行为应该能把全人类的利益最大化。而对于掺加了情感的道德行为,进化遗留的问题,它意味着人类还未完全进化。

    然而智能机器还没有进化遗留问题,关于道德,他们有一个崭新的开始。如果我们能教会它们从宇宙的角度去思考,那么会发生什么呢?

    请想象一下,现在是2026年。一辆无人驾驶的汽车载着你的两个孩子去上学,这时三个你不认识的小孩突然出现在前方的路上。刹车也来不及了,唯一救那三个小孩的方法就是拐进路边的水沟里,而这样做的话你的两个孩子就会淹死。你不会做这样的决定,因为你被自己对自己孩子的无逻辑的感情蒙蔽了双眼;但是这辆自驾车的道德观告诉它,从全宇宙的角度看,两个儿童的死亡好过三个的。它会拐进沟里,将全人类的利益最大化;对于“天理派”,智能机器必须做出道德上可观正确的选择,即使这种选择是我们这些有缺陷的人类无法做出的。

    如果是基于我们人类的情感来说,我们的选择肯定是保住我们自己的两个孩子。虽然这个做法着实很不道德,但是这是符合人类本性的行为。在这一点上,我们人类不得不承认,我们是一类充满缺陷的生物群体,而这种最大的缺陷却是我们最珍惜的、最值得骄傲的人性的温馨。

    但是,对于AI来说,它们肯定选择保住三个孩子,对于它们来说,价值最大是终极目标。可能这样的做法,对于它们的拥有着来说,是很难接受的,但是在他们的所谓的道德标准里面,利益最大化是终极目标。这也是区别于人类最大弱点的价值判断,没有人性。这种没有人性的道德,从全宇宙的角度来看,是最好的选择。

    伟人的思考

    但是,有一个问题:AI是由人来设计的,它的道德准则势必会受到人类的影响。我们所想象的这种几乎接近完人的机器,到底会不会存在呢?基于人类人性的特征,我们不会允许AI比我们强太多,换句话说,今天我们人类自主设计的AI不会接近完美。而不让AI接近完美的干扰因素正是我们人类的不完美因素造成的。

    在1940年的时候,科幻作家艾萨克·阿西莫夫(Isaac Asimov)提出了“机器人三定律”,旨在保证人类能在享其利的同时避其害。三定律的第一条很简单:“机器人不得伤害人类,也不得对人类受到伤害袖手旁观”。剩下的两条则要求机器人在第一条得到保证的前提下,服从指令且保护自己。对阿西莫夫来说,机器人存在的意义就是辅助我们。

    但是机器人三定律真的就足够了吗?举个例子:假设一位钢琴家的手染上了坏疽,不截肢就会导致死亡。但她发誓说,如果不能弹琴,她就不想活了;但是同时她也在发烧,所以她可能并没有真的这么想。机器人医生该怎么做呢?是该让钢琴家承受被截去手的伤害,还是坏疽带来的死亡的伤害?

    机器在面对这样的问题的时候,到底是按照自己的思路去选择,还是按照人类的思路去选择呢?或许对于这样的问题,我们无法给予一个合理的答案,因为不管怎么样,或多或少对于这位钢琴家来说,都会带来些许的伤害。至于这些伤害到底如何去选择,或许机器要用超过全宇宙的角度来抉择。

    如果教这些机器阅读人类文明的结晶——哲学巨著,想想一下,它是否会得出一些不同于人类的感悟。会不会形成自己的独到的哲学观念?

    人类对于道德的理解,其实就一句话,能够找到合理的解释来证明自己的做法是合理的就行了。同样机器人道德应该符合他们的本性,它们是独立的理性个体,虽然它们是被个体刻意创造的,但它们和创造者共享着世界,同样需要向世界证明自己选择的合理性。

    相关文章

      网友评论

      • 榴莲冰淇淋蛋糕:你想多了早着呢等它🈶️意识再说吧,现在的AI只是粗浅的程序算法。
        榴莲冰淇淋蛋糕:@不是虎是喵 机器人设计遵循的三大原则没考虑这些道德问题,恕我知识浅薄不能完美回答你的问题,但我想应该建立一套机器人道德系统(可扩展的需要不断发展完善),每一个事务操作都要满足道德体系。把这个作为机器人设计第四条基本准则,但前提是它有了思想有了意识再说,如果他就是一堆机器没有思想意识设计这个纯粹多此一举。短时间内也不会有所以不要纠结这个问题了朋友:smile:
        虎说七道: @榴莲冰淇淋蛋糕 如果碰到这样的情况,程序算法又如何设计呢?
      • 邵靖隆:给你举个现实的例子。荷兰的鹿特丹大坝采用计算机控制。关闸的警戒水位是3米。有一次水位达到了2.98米,但它就是没关。
        此时纪录片上评论:如果你是住在河口的居民,你就一定会关闸,但AI不会,这就是AI的优势
        虎说七道: @邵竧湰 好吧😊
        邵靖隆: @不是虎是喵 一样的,你文中那个撞死小孩还是开到水沟里的问题说的也是这个
        虎说七道: @邵竧湰 这个是自动化吧😌
      • 65dd797eddfe:当ai成功普及之后,便是人类大同之时。我们有了新的强力对手或是物种危机感。
        虎说七道: @千里孤行 赞成👍
      • c557cd73d697:私有AI会替你考虑,把另外三个撞水沟里
        虎说七道: @索生续命 😌定制版AI肯定会怎么做。

      本文标题:AI会考虑道德吗?(原创转载请声明)

      本文链接:https://www.haomeiwen.com/subject/fnjllxtx.html