美文网首页
用算法来分配社会悲剧

用算法来分配社会悲剧

作者: 007胡明 | 来源:发表于2020-08-21 19:10 被阅读0次

    先从一个经典的伦理学思想实验,电车难题开始讲起。我把这个问题稍稍做了一些转化,把它放在了人工智能时代。

    机器人三定律

    人工智能时代已经开始,如何与人工智能共处,或者说在我们还有能力的时候,给人工智能定什么规矩,不再是抽象的哲学问题,也不必上升到谁做主宰这类终级追问。它变得极为具体,比如下面这个场景:

    行人横穿马路,刹车来不及,如果不转向,会撞死行人;如果转向,乘客会死于翻车。自动驾驶汽车应该作何选择?

    这个问题已经迫在眉睫。自动驾驶汽车是最接近大规模商用的人工智能应用。无论中国,还是美国,多家公司已经上路实测,不止一家宣布要在一两年内推出自动出租车。

    有汽车就有事故,有事故就有死伤,由人工智能来断谁该死谁该无恙,它该怎么断?

    很早以前,人工智能、机器人刚刚出现在人类想象之中,人们就已想到要给它们定规。科幻小说大师阿西莫夫提出影响力极大的机器人三定律。

    第一定律:机器人不得伤害人类,或者因不作为而使人类受到伤害;

    第二定律:除非违背第一定律,否则机器人必须服从人类的命令;

    第三定律:在不违背第一及第二定律下,机器人必须保护自己。

    机器人三定律定义严密,层层递进,它能解决自动驾驶汽车的选择困境吗?

    不能。

    看第一定律:机器人不得伤害人类,或者因不作为而使人类受到伤害。自动汽车不转向就撞行人,转向则乘客死伤,都会伤害人类,它应该作为还是不作为,还有,哪个算作为哪个算不作为?我觉得机器人想这些问题能想到死机。

    面对类似挑战,阿西莫夫后来给机器人三定律打了个补丁,在最前面加上第零定律:机器人不得伤害人类种族,或者因不作为而使人类种族受到伤害。

    可以把第零定律理解为要机器人的选择与人类的最大整体利益相符。问题是怎么辨别最大整体利益是什么?像金庸小说《笑傲江湖》中神医平一指那样救一人杀一人,算不算?救一个小孩杀一个老人呢?救两人杀一人呢?救两个胖子杀一个瘦子呢?救两个女人杀一个男人呢?

    无穷无尽的计算,根本没有正解。机器人还不如死机算了。

    你想要什么样的道德算法

    自动驾驶汽车眼前就要上路了,机器人三定律不够用,怎样给它立个什么规矩?换句话说,你想机器人按什么道德算法来运行?

    首先,你得了解自己到底想要的是什么。 我给你推荐个自测工具,道德机器(Moral Machine),它放在麻省理工大学网站上(http://moralmachine.mit.edu)。点进去,你会遇到13种情境,形形色色的人群组合,老的小的男的女的好的坏的胖的瘦的。面对着自动汽车,假设你是乘客,你希望自动汽车牺牲谁拯救谁?

    我的推荐我先测,于是知道了我自己的偏好:

    孩子重于老人,胖瘦男女对我完全没差别;

    多个人重于一个人,不论是什么人;

    人重于动物,遇到撞人还是撞狗,永远选择撞狗;

    如果转向不转向都撞到同样多人,那就不转向;

    如果转向的后果是我自己完蛋,那就绝不转向。

    推荐你们也去做一遍,一分钟做完,对自己了解得很多。

    一般来说,对社会而言,救多个人比救一个人更有效用,救人比救动物更有效用。研究者发现,效用主义深入人心,绝大多数人支持用效用主义来给自动汽车编制算法。

    更有意思的是,研究里说了,人工智能采用功利主义算法来做决策,本身并不会让人们感到特别不舒服。就是说,在没有自动汽车的时候,我们在开车面临这些情境时的选择是功利主义的,如果这些选择将来由人工智能替我们做了,这件事本身不会那么令人难接受。

    我们知道人生有许多悲剧,必须有取舍,谁来做都得取舍。取舍就有错,人能够接受机器犯错。问题在于,人是自相矛盾的。

    以我为例,我认可效用主义算法,但如果自动汽车按这个算法来作选择,我却不想坐更不会买。救多个人优于救一个人,哪怕这个人是乘客,这样做决定的自动汽车,你敢坐吗?你想买吗?

    研究者发现,绝大多数人不敢,不想。他们希望买的是那种永远优先保护乘客的自动汽车。也就是说, 绝大多数人都支持自动汽车使用功利主义算法,支持别人买这样的车,但自己不买。这就会造成典型的社会困境。你希望别人做的事,自己不做。结果就是谁也不做,最后这种自动汽车根本就没人买。

    功利主义不行,并不是说换个算法就行。假如换个算法,永远优先保护乘客,你倒是愿意买了,但公众能允许这样赤裸裸地以行人为壑的做法吗?

    与效用主义针锋相对的另一种道德算法是康德式道德律令 ,它认为人是目的不是手段,一个人等于全人类,那更是让人工智能无从抉择。

    说到这里,对道德哲学有了解的朋友,你应该已经对我开头说的,自动汽车撞谁不撞谁的算法问题,就是古老的电车难题在今天的重现,有了更深的理解。

    电车难题是这样的: 电车失控,转向要伤人,不转向也要伤人,如果你是司机,该作何选择?百年来各种道德思想流派竞相抢答,没有一个公认的正解。今天无非是我们把司机换成了人工智能。

    这道选择题人类给不出正解,人工智能自然也给不出。

    相关文章

      网友评论

          本文标题:用算法来分配社会悲剧

          本文链接:https://www.haomeiwen.com/subject/ckjpjktx.html