
记得我考驾照的时候,师傅问了我们一个问题:“你在高速路上行驶,忽然看见前方有个小孩子,这时你开过去会撞死这个孩子,急打方向会牺牲你,你决定怎么办?”
大部分人都表示一定要保护孩子。师傅笑了,说:“如果真遇到这事情,瞬间就决定生死,一切凭当时的直觉吧。”
今天当我看到无人驾驶时,不由得也想问一下AI这个问题?当你遇到这个问题时会作何选择呢?
麻烦的是无论AI选择牺牲他人,还是牺牲自我,一旦确定了程序,它是一定要执行的。
也就是说只要程序确定了它一定要保护孩子,牺牲自我,它一定会坚定不移地贯彻执行。而这真的是所有的人的真实意图么?
那么会不会设计出两款无人驾驶车:一款是“优先牺牲自我款”,一款是“优先牺牲他人款”。
如果真是这样,您选择哪一款呢?如果您选择了“优先牺牲自我款”,您的家人知道了会不会阻止您呢?或者人寿保险公司知道了会不会因此提高保费呢?如果作为公众人物你选择了“优先牺牲他人款”,舆论会不会一边倒的讨伐你呢?或者你担心自己的形象受损选择了“优先牺牲自我款”事到临头你发现自己不得不遵守约定时又反悔了怎么办呢?
也许,根本不用设计两款车,只要给自己的无人驾驶车设置选项即可。
遇到不可避免的车祸时,你是勾选牺牲自我?还是牺牲他人?想好啊,AI可是会百分之百的执行。
如果是其他行业呢?比如士兵:
是选择杀死一切携带武器的敌人呢?还是对敌人的年龄性别有所区别呢?
比如医生:当需要隔离所有致命的传染病人时?能不能留下自己的家人在身边?
比如律师:是以证据为主呢?还是以委托人为主忽略掉对委托人不利的证据呢?
以上所有的问题全都指向一个问题:那就是道德问题。道德只是一个简单的是与非的问题,对人类来说,执行起来很难。但对AI来说,设定程序后必当执行。所以人类今后可能有一项重要的工作,那就是研究伦理学,以便AI能执行绝大多数人在道德范围内留给多少自己生存的机率。
于是在未来的某一天,你因为偷懒而多睡了一会,起床后发现没有早点了,因为你曾经设置自己为一个遵守时间的人,所以你的智能管家严格遵守你的设定,你失去了一顿早点。而大数据立刻记录下你违反了自己的约定,当你倒银行贷款时,AI告诉你你的信用等级降低了。你问为什么?因为大数据这样说的。于是,你学乖了。设置程序时选择自己能做到的还要低一档,一旦设定就坚定不移甚至超水平的执行。这个世界将不再有意外——曹操不再打官渡之战,因为大数据分析后告诉他不行;安娜卡列尼娜不再出轨,因为大数据按她之前的设定永远做一个贤妻良母;遇到生死关头时,你说我要为家人活下来,大数据告诉你按照人类的道德底线你必须牺牲自我——那这个世界的主人是谁呢?人?AI?
“有时候真实比小说更加荒诞,因为虚构是在一定的逻辑下进行的,而现实往往毫无逻辑可言。”马克吐温现在不必有这样的感叹了,在AI的帮助下,不按逻辑出牌的人类,将被大数据歧视,最终消失。人类进化成为巨大网络里的一个个芯片。
现在想好了么?你买哪一款无人驾驶?记住:后果自负。
网友评论