2016 年,麻省理工大学开发出一款名为“道德机器”(Moral Machine)的调研产品,其通过向全球网⺠展示一系列图片来进行一场社会实验。
项目组通过现代化产品将“电⻋试验”做成了调研,网⻚程序会不断地像受试者展示一个紧急判断情景,要求受试者假定自己是“一台自动驾驶汽⻋”,并在 A\B 两种行⻋路线中作出选择。
在问卷中,有许多的控制变量,比如你需要判断在必须二选一的情况下,是选择撞 男人还是女人、人类还是宠物、白人还是有色人种、年⻓者还是年轻者、有钱人还 是穷人等等......最终搜集到了来自 233 个国家接近4000万的选择样本。
这一研究的完整成果发表在 2018 年 10 月的《Nature》上,感兴趣的人可以自己去检索。
道德机器(Moral Machine)这一研究让我们深刻地认识到,在紧急情况下,自动驾驶汽车需要作出道德选择。然而,这种选择往往涉及到一些非常棘手的道德问题,这些问题可能与我们所期望的道德原则相悖。
在这项实验中,受试者被要求假定自己是一台自动驾驶汽车,在A/B两条路线中做出选择。A/B两种路线的不同之处在于,一种路线会拯救更多的行人,但会撞到更多的车辆,而另一种路线则会拯救更少的行人,但会避免更多的车辆伤亡。
研究人员发现,当受试者被迫在必须二选一的情况下做出选择时,大多数人选择拯救更多的行人。这表明,大多数人认为拯救更多的生命是更重要的。
然而,当排除两种选择造成伤亡人数上的差异时,受试者的选择呈现出一些明显的偏见。
例如,受试者更倾向于避让有钱人(相比穷人)、瘦子(相比胖子)以及女性(相比男性),避让年轻人(相比老人)。
但是,在老年人方面,受试者更倾向于避让老年男性而不是老年女性。
这些结果表明,人们的道德选择往往是受到文化、社会和个人因素的影响的。
例如,人们可能会受到对特定群体的偏见或对特定人群的同情心的影响。
这些因素可能会导致人们做出不公正或不平等的选择。
这也给了我们深思。我们可以想象一个自动驾驶汽车未来需要面对这种情况:在紧急情况下,它需要在A/B两种行驶路线中进行选择,其中一条路线会避免伤害狗,而另一条路线则会避免伤害人类。我们该如何做出选择?
这个问题并不容易回答。
从人类的道德角度来看,我们可能会认为拯救人类生命是更重要的,因为人类是高等智慧生命,而狗只是动物。但是,从另一个角度来看,狗也是有感情的生命,它们也会感到痛苦和恐惧。
除了受试者的选择明显偏向某些群体,道德机器的研究还揭示出了另一个重要问题:受试者的道德选择很大程度上受到他们所处的文化环境的影响。
例如,研究发现,来自不同文化背景的人在面临相同的道德决策时,其道德选择有着显著差异。
这一结论启示我们,当我们试图将道德标准强加于 AI 时,必须要考虑到不同文化间的差异。否则,我们所认为的“正确”的道德标准,可能并不被其他文化所认同。
这也就意味着,如果我们想要在全球范围内实现道德机器人的普及,必须要在道德标准的普适性问题上进行深入的研究和讨论。
道德机器的研究还揭示了一个问题,即人们在面对道德决策时往往会表现出“双重标准”。
例如,人们往往更愿意拯救自己所处的社区的人,而不是来自其他地方的人。这种现象也体现了人们的道德选择不是完全理性的,而是受到情感和利益等因素的影响。
这一结论也告诉我们,在将道德标准应用于 AI 上时,我们需要注意到人们的双重标准,以及我们自己的主观偏见和情感因素的影响。
只有这样,我们才能够在 AI 中实现真正的道德选择,并将其与我们的道德标准相一致。
总之,道德机器的研究为我们揭示了道德选择的复杂性和多样性,以及不同文化和个人之间的道德差异。
在我们应用于 AI 上时,这些问题需要认真考虑,以确保我们的道德标准可以被尊重和接受,同时也要避免我们的主观偏见和情感因素的影响。
网友评论