![](https://img.haomeiwen.com/i12462995/8c3d5f7c1b53d0fa.jpg)
人工智能究竟能否代替人?对这个问题,大家说法不一。
认为代替不了人的一方,常常会引用“电车难题”来说事。认为机器没有思想,遇到问题,不可能像人那样,“有温度”的思考和处理问题,所以机器永远也不可能代替人。
电车难题,是伦理学领域一个知名思想实验之一,由英国当代哲学家菲利帕·福特于1967年提出。其内容大致是:
一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,眼看就要把这五个人撞死,这时你刚好站在电车轨道的操纵杆旁边,只要你拉下操纵杆,电车就会切换到另一轨道上。可是那个轨道上也有一个人被疯子绑着。
这个操纵杆,你拉还是不拉?
如果根据功利主义原则,你可能会选择拉动操纵杆。很明显,这样可以减少损失。而且,心理学家调查的结果也是这样的:大多数人都会选择拉动操纵杆。
为了加深对这个问题的认识,心理学家们又发明了电车难题“升级版”:
“升级版”里,场景变成在天桥上看到失控电车即将撞死轨道前方的五个人时,如果可以通过将身旁的胖子推下天桥阻停电车的话,你是否还愿意这样做?
这时,心里学家发现,大多数答题者都会改变主意,不再继续坚持功利主义的选择。
道理很简单,直接上手推人撞车,导致他人死亡,无异于故意杀人,心理上无法接受。(虽然,拉动操纵杆也同样存在“故意杀人”的嫌疑)
两种情况,后果都一样:都是减少了损失,只死亡一人,区别只在于:是直接上手,推人撞车而死,还是通过拉动操纵杆改变车辆行驶路线致一人死亡。
就这么一点细小的区别,人们的选择却有了很大改变。
尽管现代科学对此不同选择,有了科学解释:
两种选择,是由于人们使用了大脑不同区域。第一个选择使用的是大脑的一般区域来运作;第二个选择使用了情感判断部分。有实验证明,当大脑情感判断部位受到损伤时,人们就又会做出第一个选择:牺牲一人,拯救五人。
但毋庸置疑的是,电车难题对人类来说,至今依然是两难选择:无动于衷不是,采取措施似乎也不是。
由此问题出来了:
人们在为自动驾驶汽车设定程序时,面对类似情况,又会是如何选择的呢?
还有一个问题需要回答:
假设当自动驾驶汽车正常行驶到隧道入口时,忽然一小孩跑到车道前方,此时自动驾驶汽车怎么决策?是继续直行撞死小孩?还是撞向隧道一侧的墙壁,选择拯救小孩,而牺牲自己:驾车人、同乘人员和车辆?
如果是后者,会不会引出一个新的问题:
谁又会愿意购买不优先保障车上人安全的自动驾驶汽车?
说白了,上面两个例子,实际上提出了两个问题:
如果相撞不可避免,自动驾驶汽车如何选择?是牺牲多的,还是牺牲少的?是牺牲别人,还是牺牲自己?
当然,有一种观点认为,简单啊,自动驾驶可以做出第三种选择:减速。然而,这个观点并不能回答前面的问题。很简单,它经不住人们进一步追问:部件失灵、减不了速时怎么办?!
伦理学上的这两个大问题,人们在制造自动驾驶汽车时,是如何思考,又是如何设定的,谁能告诉我?
选自微信公众号《墉夫秒语》
网友评论