美文网首页
#概念#39/1000如果你来设置自动驾驶汽车出事故时应该撞谁

#概念#39/1000如果你来设置自动驾驶汽车出事故时应该撞谁

作者: 零月浅浅 | 来源:发表于2018-11-11 22:09 被阅读59次

【见】

人工智能时代已经开始,如何与人工智能共处,或者说在我们还有能力的时候,给人工智能定什么规矩。自动驾驶汽车是最接近大规模商用的人工智能应用,那么有事故就会有死伤,自动驾驶汽车应该怎么判断?

很早以前,科幻小说大师阿西莫夫提出影响力极大的机器人三定律:

第一定律:机器人不能伤害人类,或者因为不作为而使人类受到伤害;

第二定律: 除非违背第一定律,否则机器人必须服从人类的命令;

第三定律: 在不违背第一及第二定律下,机器人必须保护自己。

机器人定律严密,层层递进,它能解决自动驾驶汽车的困境吗?

不能。

自动汽车不转向就撞行人,转向则乘客死伤,都会伤害人类,它应该作为还是不作为?还有,那个算作为哪个算不作为?我觉得机器人想这些问题都能想到死机。

自动驾驶汽车马上就要上路了,机器人三定律不够用,应该怎么给它立什么规律?或者说,你想机器人按什么道德算法来运行?这个问题已经在顶级期刊《科学》上发表论文,标题是“自动驾驶的社会困境”。

这时候产生一个巨大的分歧,如果你给自动驾驶汽车设置“救多个人优于救一个人”,哪怕这个人是乘客,那么这样的汽车你敢坐吗?你想买吗?研究者发现,大多数人不敢,不想。他们希望买的是永远优先保护乘客的自动汽车。

换个算法,比如永远优先保护乘客,你倒是愿意买了,但是公众能接受这样赤裸裸的以行人为壑的做法吗?

第一个摆脱困境的思路来自人工智能专家。他们认为既然解决不了这个问题,那就消灭它。

谷歌的自动驾驶工程师说,道德算法是假问题。自动汽车能高速处理速度、距离、路况、天气等信息,用激光雷达和各种传感器提前计算出最优方案,那些“该撞谁”的选择根本不会发生。

工程师们对技术有着像对魔法一样的迷之自信,不管你信不信,反正我不信。

第二个思路是寻找与困境并存的策略,电车难题、人工智能的道德算法,本质上都是把悲剧分配给谁的问题,理论上存在满足各种公平正义要求的正解,但实践中随时随地的分配,一刻也没有停止过。

泰坦尼克号撞冰山,谁先上救生船?计划生育,如何分配生育指标?器官移植,谁优先获得器官?以及今天的问题,自动汽车撞谁不撞谁?等等等。回答这些问题只能是全社会的责任。在《悲剧性选择》中,卡拉布雷说:社会分配悲剧有四个策略:市场、政府、摇号、惯例,但没有那个能长期维持分配的稳定性。

即便如此,稀缺永恒。每个社会都在做六个杯子五个盖的腾挪,能玩就玩下去,玩不下去了,社会只能重置游戏。

也就是说,社会的道德算法必然会周期性切换:因为无法在冲突的价值观中做出取舍,所以社会都保有它们,一个都不能少,但在时间上分开。某个时段某个价值观占上风,直到它承载的负能量过多,终被另一个价值观所取代。风水轮流转、这是社会道德算法的跨时多元化策略,为相互冲突但都被珍视的基本价值观留下火种,并缓解冲击。

回到自动驾驶汽车的话题,唯一确定的是不管用哪个算法,都必然将制造属于它特有的那一类悲剧,等到这些悲剧沉重到社会必须切换另一种悲剧来承受时,齿轮转动,算法重置,悲剧的分配重新开始。

【感】

今天的话题略微沉重,我联想到很多事故。比如重庆公交车事件,还有几年前昆明火车站砍人事件。

跟大梵天聊过,此类悲剧的发生,其实也是有它正能量的一面。比如后来昆明火车站进站设置了安全检查,巡逻特警配了枪;比如重庆公交车案刚发,全社会开启了对“女司机”的抨击,然而等到黑匣子被找到,还原了出事时的场景,公众们开始对女司机道歉,意识到键盘侠对当事人的伤害,同时,更多的人提出保护公交车司机就是保护一车人的性命,等等。

【思】

不得不说,每个悲剧都有它背后的价值,被上帝掷骰子选中的人和家庭是为不幸,但是整个社会演化的过程就是这样,如同这个自动驾驶汽车的话题,当这些悲剧沉重到社会必须切换另一种悲剧来承受时,齿轮转动,算法重置,悲剧的分配重新开始。

【行】

这个话题太沉重,只想说一句话,真正的勇士,是认清生活的真相以后,依然热爱生活。

感谢你读这篇文章,真正的勇士。

以上干货内容来自大师课《三十天思维训练营》(名字平平无奇内容含金量极高),请在得到app购买正版课程,感谢王烁老师带来的精彩讲解。

相关文章

网友评论

      本文标题:#概念#39/1000如果你来设置自动驾驶汽车出事故时应该撞谁

      本文链接:https://www.haomeiwen.com/subject/mvdffqtx.html