读了阿西莫夫的短篇机器人系列《我,机器人》,那个著名的机器人三大定律一直围绕在脑海,除了赞叹作者的想象力外,还深深地为此着迷。
一、机器人三大定律:
LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管
LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外
LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存
小说中是这样阐述的,这三大定律是在制作正电子脑的时候被植入的,每个定律之间的选择根据电压来决定。
二、三大定律与人类的道德
本来一直百思不得其解,为什么作者要给机器人设立这样一个三大定律,而且还是环环相扣,到底作者是怎么思考的,等看完了《证据》这一篇后,有所明白了。
故事的大致情节是这样的,有两个哥们想竞选市长,奎因和机器人拜厄利,奎因怀疑拜厄就是一个机器人,但没有证据,所以请了机器人公司的机器人心理师苏珊来找出拜厄利是个机器人的证据,但苏珊说,她可能可以证明拜厄利是个人(高尚的人),而不能倒过来证明他是机器人。
理由:机器人学三定律,同时也是世界上大多数道德规范的最基本的指导原则。
每个人都有自我保护的本能。 对机器人来说,这就是它的第三定律。
每一个具有社会良心 和责任感的‘正派’人,他都要服从于某种权威。他听从自己 的医生、自己的主人、自己的政府、自己的精神病医师、自 己的同胞的意见;他奉公守法、依习随俗、遵守礼节,甚至 当这一切影响到他个人的安逸或安全时,他也恪守不渝。对 于机器人来说,这就是它的第二定律。
每一个“高尚的”人,都应像爱自己一样去爱别人,保护自己的同志,为救他人而不惜自己的生命。这对机器人来说,就是它的第一 定律。
简而言之,如果拜厄利履行这几条定律,那么,他既可能是个机器人,又可能是这样一个高尚的人。
我又移情考虑了一下,三大定律与孔子的“仁”,苏格拉底的“正义”到底又有何异同?
三、三大定律的缺陷
如果我想让机器人杀人,该怎么做?比如,让机器人给人下毒,我会这样下命令:
1、机器人,把这个毒药放到那杯水里,我要做个试验,完了会倒掉。机器人一想,没有违反任何三大定律,照做了。
2、机器人,把刚才的记忆删除。机器人一想,它得听我的话(第二定律),我这个命令没有违反三大定律,于是又照做了。
3、机器人,某人要喝水了,机器人把那杯有毒的水端给了他,他挂了。
所以当我把命令拆成几条都无害的命令后,机器人就傻了,这个就象小娜和SIRI,当你给了两个命令,如果它没有上下文的理解能力的话,那效果就差强人意的。
我是哪儿黑,国庆游玩途中勿忘点喜欢!
网友评论