一,人工智能无人驾驶汽车出车祸谁来负责?
1,百度无人驾驶汽车上路是一个大新闻。李彦宏在北京环路上,坐在百度无人驾驶、人工智能操纵的汽车上过了把瘾。
虽然没有法律规定,不允许上路,交警部门也第一时间要调查处罚。但过后,就没有了下文。百度投入巨资,聘请大咖研究人工智恩能够自动驾驶汽车,取得的进步还是非常可观的。
但是,有一个问题,一旦人工智能自动驾驶的汽车肇事出了交通事故,责任由谁来负?交警部门怎么判罚界定双方的责任?保险公司怎么理赔?
人工智能自动驾驶2, 美国亚利桑那州的人工智能无人驾驶汽车肇事事故
2018年3月18日晚上10点左右,美国亚利桑那州坦佩(Tempe, Arizona)发生了一起人工智能无人驾驶汽车肇事事故,无人驾驶汽车撞死一位骑自行车穿过马路的妇女艾伦.赫兹伯格(Elaine Herzberg)。
当时,无人驾驶汽车内有一个人坐在驾驶方向盘后面,汽车处于人工智能驾驶状态,后台自动控制。
这期案件,就像网传德国机械制造厂里,人工智能机器人在连续运转之下,出现故障崩溃,把一名操作人员蓄意杀死。
这些案例,引发了人工智能领域的伦理和机器原型与法律问题的广泛争议。人工智能的程序编写人员如何把社会道德义务、把生命优先权植入程序,让人工智能的自动驾驶能够在面临是撞死行人还是在自己受到伤害之间做出选择,以防止机器按照自我最优保护原则,选择撞死行人?
在亚利桑那州的交通事故中,谁来为艾伦.赫兹伯格的死亡承担责任?是坐在驾驶员位子上的操作人员?他没有实际操作。是开发人工智能无人驾驶汽车的公司?还是后台的程序设计员?或者是人工智能无人驾驶汽车的感应操作系统制造商?
现在还不得而知。
二,人工智能如何在做决策的时候避免植入程序的系统性偏好设计?
1,人工智能决策依赖数据输入,输入以前的数据来预测未来
人工智能决策需要数据支撑,然后根据设定的算法来进行最优选择决策。输入的数据肯定都是以前发生过的数据,相当于输入以前的数据来应对未来发生的局面,做出最优选择。
这有点像算命。算命不是用计算机,是人脑。也是相当于把以前人类发生的经验、经历,与环境当中的现象对应,组成数据库。然后根据当前人所面临的环境因素,来寻找相匹配的过去结果,提出面向未来的一个优选决策方案。
一些过去的数据会体现社会阶层和系统性偏好。比如西方普遍的黑人种族歧视,将来我们对于来自农村地区人群的自动分层。
比如根据以前的数据筛选工作录用、银行贷款申请和犯罪记录甄别的时候。大数据支撑的人工智能可能会基于输入的数据,在瞬间就把人群做出判断。而现场当时发生的一些场景变化情况,则可能因为缺乏数据支撑,不予考虑。
所以,从这个角度来说,人工智能还只能是人类决策的一个参考,一个辅助工具。
2,人工智能自我学习的地方化局限
人工智能自我学习能力是人工智能的一大优势。
阿尔法狗打败围棋世界一流高手,并且发展演化的进步速度非常神速。可以说,在不需要直感和情绪判断的一些计算领域,如依赖案例审理官司的美国大陆法体系,人工智能可以成为法官判案的助手。
但是人工智能数据的输入有地域性问题。比如李彦宏的百度汽车在北京上路,搜集学习的是北京的路标标识和北京的北京路况,可以通过学习积累成为北京版人工智能无人驾驶汽车。
但是如果到西藏呢?到一个与北京环境迥异的省份,以山路为主的贵州等,北京版的人工智能无人驾驶需要多长的学习时间?
在路上碰到一个新新人类创造出来的东西,人工智能不识别怎么办?比如,有人别出心栽在自己的大货车后面涂鸦一个从来没有的图案。作为人类,很容易判别和分清货车后备箱还是货车后备箱,只不过是加了个没有见过的图案而已。但是这种新的不确定性,可能让人工智能无人驾驶汽车就可能无法判断出故障。
人类之所以为人类,万物之长,就是人类在面对不确定性时候的能够理性分析环境和因素,做出适合的决策。在这个方面,人工智能可能还有较长的路要走。
3,人机沟通问题,人机合作大势所趋
人工智能在使用的时候,自我学习阶段需要人机合作,相互沟通。,
人工智能的优势在于能够在一个环境中重复性的东西,然后应用于另一个相似环境,并且不会因为疲劳或者情绪而出错。
人工智能的劣势是缺乏人类基因带有的常识和推理的能力,因此在复杂的生物环境里,面对不确定性的时候,即使拥有强大的自我学习能力,也需要学习曲线(learning curve)来付出学习的代价。所以,现在惊呼人工智能替代人类,为时尚远。
比如,现在的语音导航系统,百度、高德、谷歌和Siri,可以按照人工输入的信息告诉你医院在哪里,却不能像人类那样为一个已经受伤的人提供就医的帮助。
人机对话是人工智能的发展方向,实现人机沟通,讯飞科技已经做的很好。但是,人和机器如果进行深层次的自然交流和理解还有很远的路。因为,现在的人机对话,你只能类似标准输入。人在实际讲话时往往有些与话题完全无关的废话,或者是不同的语调表示不同的意思,有的时候在演讲中用的一些人可以听明白的一些代词,机器不一定明白。
未来的发展,需要人工智能机器和人进行深度合作,发挥各自优势,打到人机相互了解,而不是对立。
三,人类需要为自己划界的两个伦理和技术领域:人工智能和生命基因编辑
据说高斯说过一个悖论:如果宇宙里有类似人的高级生命存在,那么经过100万年发展,就一定会发现地球。现在地球上没有发现外来生命来临的痕迹,说明外星球没有类似人的高级生命存在。
这个悖论有没有道理姑且不论,这里说明人类文明进步的速度是越来越快。以当前人工智能和生命基因编辑技术发展的速度来说,人类也许已经到了一个非常危险的边缘。
1,人工智能技术和人类社会伦理道德规范
人工智能发展的边界在哪里?人工智能设备和机器人,植入人体生命来代替身体器官似乎已经近在眼前。
那么,将来身体里带有人工智能机器人器官的人,算什么?是人还是机器人?人的定义边界在哪里?
如果没有边界,随着仍能够人工智能科学的发展,坏一个器官换一个器官,最后如果人工智能的器官占主要部分,与没有植入人工智能的人如何交往?新的人际关系?
2,贺建奎基因编辑婴儿的警钟
贺建奎基因编辑婴儿事件,成为国际科学界的丑闻。广东省卫计委的初步调查已经有结论,认为是贺建奎为了个人利益,私自进行的违反伦理道德的行为。
问题的关键是:现在基因编辑技术已经非常成熟,任何人花个几十万,找几个研究人员,找个实验室也能完成。
贺建奎这次在基因编辑婴儿出生以后,就公布消息,是为了震惊科学界破格评教授?
人体基因编辑的底线在于体细胞,而不是生殖细胞。体细胞基因编辑是为了治愈稀有疾病,是为了救命。而生殖细胞编辑,是在生命未成形之前编辑,是为了产生新的基因编辑过的生命。将来随着生殖的代际遗传,势必会影响到人类的基因池,形成人类危机。
为题的严重性在于:贺建奎之后,国际学术界如何合作,防止这种成熟的技术如何再次肇事?
网友评论