23 新电车难题:用算法来分配社会悲剧
如果你是乘客,你愿意让人工智能汽车在面对可能的车祸时,替你作出决定吗?你希望他用哪些道德算法来做决定?
行人横穿马路,刹车来不及,如果不转向,会撞死行人;如果转向,乘客会死于翻车。自动驾驶汽车应该作何选择?
这个问题已经迫在眉睫。自动驾驶汽车是最接近大规模商用的人工智能应用。无论中国,还是美国,多家公司已经上路实测,不止一家宣布要在一两年内推出自动出租车。
有汽车就有事故,有事故就有死伤,由人工智能来断谁该死谁该无恙,它该怎么断?
很早以前,人工智能、机器人刚刚出现在人类想象之中,人们就已想到要给它们定规。科幻小说大师阿西莫夫提出影响力极大的机器人三定律。
第一定律:机器人不得伤害人类,或者因不作为而使人类受到伤害;
第二定律:除非违背第一定律,否则机器人必须服从人类的命令;
第三定律:在不违背第一及第二定律下,机器人必须保护自己。
机器人三定律定义严密,层层递进,它能解决自动驾驶汽车的选择困境吗?
不能。
看第一定律:机器人不得伤害人类,或者因不作为而使人类受到伤害。自动汽车不转向就撞行人,转向则乘客死伤,都会伤害人类,它应该作为还是不作为,还有,哪个算作为哪个算不作为?我觉得机器人想这些问题能想到死机。
面对类似挑战,阿西莫夫后来给机器人三定律打了个补丁,在最前面加上第零定律:机器人不得伤害人类种族,或者因不作为而使人类种族受到伤害。
可以把第零定律理解为要机器人的选择与人类的最大整体利益相符。问题是怎么辨别最大整体利益是什么?像金庸小说《笑傲江湖》中神医平一指那样救一人杀一人,算不算?救一个小孩杀一个老人呢?救两人杀一人呢?救两个胖子杀一个瘦子呢?救两个女人杀一个男人呢?
无穷无尽的计算,根本没有正解。机器人还不如死机算了。
网友评论