【见】
人工智能时代已经开始,如何与人工智能共处,或者说在我们还有能力的时候,给人工智能定什么规矩。自动驾驶汽车是最接近大规模商用的人工智能应用,那么有事故就会有死伤,自动驾驶汽车应该怎么判断?
很早以前,科幻小说大师阿西莫夫提出影响力极大的机器人三定律:
第一定律:机器人不能伤害人类,或者因为不作为而使人类受到伤害;
第二定律: 除非违背第一定律,否则机器人必须服从人类的命令;
第三定律: 在不违背第一及第二定律下,机器人必须保护自己。
机器人定律严密,层层递进,它能解决自动驾驶汽车的困境吗?
不能。
自动汽车不转向就撞行人,转向则乘客死伤,都会伤害人类,它应该作为还是不作为?还有,那个算作为哪个算不作为?我觉得机器人想这些问题都能想到死机。
自动驾驶汽车马上就要上路了,机器人三定律不够用,应该怎么给它立什么规律?或者说,你想机器人按什么道德算法来运行?这个问题已经在顶级期刊《科学》上发表论文,标题是“自动驾驶的社会困境”。
这时候产生一个巨大的分歧,如果你给自动驾驶汽车设置“救多个人优于救一个人”,哪怕这个人是乘客,那么这样的汽车你敢坐吗?你想买吗?研究者发现,大多数人不敢,不想。他们希望买的是永远优先保护乘客的自动汽车。
换个算法,比如永远优先保护乘客,你倒是愿意买了,但是公众能接受这样赤裸裸的以行人为壑的做法吗?
第一个摆脱困境的思路来自人工智能专家。他们认为既然解决不了这个问题,那就消灭它。
谷歌的自动驾驶工程师说,道德算法是假问题。自动汽车能高速处理速度、距离、路况、天气等信息,用激光雷达和各种传感器提前计算出最优方案,那些“该撞谁”的选择根本不会发生。
工程师们对技术有着像对魔法一样的迷之自信,不管你信不信,反正我不信。
第二个思路是寻找与困境并存的策略,电车难题、人工智能的道德算法,本质上都是把悲剧分配给谁的问题,理论上存在满足各种公平正义要求的正解,但实践中随时随地的分配,一刻也没有停止过。
泰坦尼克号撞冰山,谁先上救生船?计划生育,如何分配生育指标?器官移植,谁优先获得器官?以及今天的问题,自动汽车撞谁不撞谁?等等等。回答这些问题只能是全社会的责任。在《悲剧性选择》中,卡拉布雷说:社会分配悲剧有四个策略:市场、政府、摇号、惯例,但没有那个能长期维持分配的稳定性。
即便如此,稀缺永恒。每个社会都在做六个杯子五个盖的腾挪,能玩就玩下去,玩不下去了,社会只能重置游戏。
也就是说,社会的道德算法必然会周期性切换:因为无法在冲突的价值观中做出取舍,所以社会都保有它们,一个都不能少,但在时间上分开。某个时段某个价值观占上风,直到它承载的负能量过多,终被另一个价值观所取代。风水轮流转、这是社会道德算法的跨时多元化策略,为相互冲突但都被珍视的基本价值观留下火种,并缓解冲击。
回到自动驾驶汽车的话题,唯一确定的是不管用哪个算法,都必然将制造属于它特有的那一类悲剧,等到这些悲剧沉重到社会必须切换另一种悲剧来承受时,齿轮转动,算法重置,悲剧的分配重新开始。
【感】
今天的话题略微沉重,我联想到很多事故。比如重庆公交车事件,还有几年前昆明火车站砍人事件。
跟大梵天聊过,此类悲剧的发生,其实也是有它正能量的一面。比如后来昆明火车站进站设置了安全检查,巡逻特警配了枪;比如重庆公交车案刚发,全社会开启了对“女司机”的抨击,然而等到黑匣子被找到,还原了出事时的场景,公众们开始对女司机道歉,意识到键盘侠对当事人的伤害,同时,更多的人提出保护公交车司机就是保护一车人的性命,等等。
【思】
不得不说,每个悲剧都有它背后的价值,被上帝掷骰子选中的人和家庭是为不幸,但是整个社会演化的过程就是这样,如同这个自动驾驶汽车的话题,当这些悲剧沉重到社会必须切换另一种悲剧来承受时,齿轮转动,算法重置,悲剧的分配重新开始。
【行】
这个话题太沉重,只想说一句话,真正的勇士,是认清生活的真相以后,依然热爱生活。
感谢你读这篇文章,真正的勇士。
以上干货内容来自大师课《三十天思维训练营》(名字平平无奇内容含金量极高),请在得到app购买正版课程,感谢王烁老师带来的精彩讲解。
网友评论