今天我们来聊一下电车难题。
行人横穿马路,刹车来不及,如果不转向会撞死行人,如果转向转向,行人会死于翻车。
自动驾驶的汽车,如何选择?
这个问题已经迫在眉睫,因为自动行驶的汽车很快就要大规模使用,无论中国还是美国,大家都在为这个问题发愁。
在这之前,阿莫西就提出影响力极大的三大定律。
第一条定律。机器人不得伤害人类。
第二条定律。除非违背第一定律,否则机器人必须服从人类的命令
第三条定律。在不违背第一及第二条定律下,机器人必须保护自己。
这三条定律定义严明,层层递进,他能够解决自动驾车的问题吗?
不能。
第一定律及其不得伤害人。遇到我们刚才的情况不转向,伤行人,转向乘客死,都会伤害人,那么机器应该怎么办呢?我想机器人想这些问题会想到死机。
面对类似的问题,阿莫西后来打了补丁,也就是增加了第零条定律:机器人不得伤害人类种族。
其实这里还有说不清楚的问题,什么是人类种族呢?如何辨别人类最大的利益呢?笑傲江湖中神医平一指就一人杀一人算不算?救一个小孩杀一个老人呢,就两个人杀一个人呢。
你死我活的社会悲剧【21/30】我们究竟要需要什么样的道德算法?,才能够来解决这些问题呢
首先我们应该问问自己,应该按照什么的办法来选择。比如我们是那个司机,你会做个选择。
孩子跟老人,你怎么选?
多个人跟一个人,你怎么选?
人和动物,你怎么选?
转不转像人一样多,怎么选?
转向之后我肯定死,转不转?
建议大家想想这个问题,也非常有意思。
我们可以随便想想这些问题。但是这些问题并不是想想玩就可以了,甚至有人还专门写了学术论文来讨论这个严肃的话题,
有人提出了一个解决方案,也就是功利主义的解决方案。如果一个选择比另外一个选择更有选择效用就选它。
简单来说就是多救一个人比救一个人更有效用就能比动物就动物更有效用就是这个观点。
同时这个研究还提出了人工智能,采用这种主意来做决策的话,本身会让人感觉不舒服。因为我们的生命可能掌握在机器人的手里。
所以问题显而易见,大多数人支持这个算法,但是自己却不做选择,很多人对这种算法还是心有余悸。
功利主义的算法不太好,还没有别的算法。
当然有。
所谓的康德式道德律令,他认为人是目的不是手段,一个人也等于全人类,那更是无从选择。
这道题人类本身没有正确答案,人工智能自然也没有。
因为这个自动汽车就不上路了嘛,这倒不会。第一个解决困境的思路来自人工智能专家。
他的办法非常简单粗暴,他认为如果解决不了这个问题,那就消灭它。
在人工智能专家的手里,他认为汽车能够高速处理问题,各种情况的感知比人类本身更为精确,它不存在撞一个人还是两个人的问题,他回答不了,但是这个问题在他那里不存在,他相信机器可以解决所有的问题。
工程师对它的算法迷之自信,不管你信不信,反正我不太信。
第二个思路是寻找与困境并存的策略。
在理论上并不存在各种公平正义要求的证据。,现实中随时都有可能不够公平而出现的问题。
回答这些问题只能是全社会的责任市场政府摇号惯例,没有哪一个可以长期稳定。
有时我们采取市场的手段,有时候可能会政府直接出面,有的时候抽签交给运气。
所以真相是问题总在存在。单一策略,往往不如混合策略。
最后结论:社会的算法是周期性的轮换,我们需要在冲突中取得最优解。
回到自动驾驶汽车的问题,这个时代很快就会来临,即使没有最正确的算法也会来临。
网友评论