美文网首页哲思无戒训练精英群想法
如何防止机器人造反?23条阿西洛马人工智能原则

如何防止机器人造反?23条阿西洛马人工智能原则

作者: 金台望道 | 来源:发表于2019-03-27 22:07 被阅读11次
远传公司的会务机器人

近两年人工智能大发展,人工智能在各方面都展示了它的无限潜力,感觉机器人触手可及。

当然,人工智能实际上离我们想要达到的效果还差得远,实现科幻电影上那个萌萌哒、可以与人类对话的机器人,很有很长的路要走。——但看来,所有人对于人类终归会达到这一点,并不怀疑。

该怀疑和担心的是,如何防止人工智能—机器人达到有了自我意识、不想再接受人类管理的那个时候。也就是说,如何防止机器人造反?

上个世纪,阿西莫夫提出“机器人三原则”:

第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.

第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。

第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。

小乔公司的机器人,药师小乔

这三条还是不够。2017年1月,“生命未来研究所”牵头,在美国加利福尼亚州阿西洛马举行了Beneficial AI会议。该组织召集了来自大学和公司的顶级人工智能研究人员,讨论人工智能的未来及其应如何监管。最后,他们制定出23条阿西洛马人工智能原则:

研究问题

1) 研究目标:人工智能研究的目标应该建立有益的智能,而不是无向的智能。

2) 研究资金: 投资人工智能的同时,应资助那些确保其创造有益价值的研究,包括计算机,经济学,法律,伦理学和社会学的棘手问题,诸如:

我们如何使得未来人工智能系统高度健全,从而不会发生故障和被入侵?

在维持人们的资源和目标的同时,如何通过自动化来提高我们的繁荣?

随着人工智能的发展,我们如何更公平和有效地修正法律系统以及管理人工智能相关的风险?

人工智能应该遵守哪些价值观?人工智能的法律和伦理状态应当是什么?

3) 科学政策链接:人工智能研究人员和政策制定者之间,应形成积极、有建设性的沟通。

4) 研究文化: 研究人员和人工智能开发人员应该被培养一种互相合作、互相信任和互相透明的文化。

5) 规避一蹴而就: 开发人工智能系统的团队应积极相互合作,以避免在达成安全标准上偷工减料。

科大讯飞导诊机器人

道德标准和价值观念

6) 安全性:人工智能系统应当是安全的,且是可适用的和可实行的。

7) 故障透明:如果一个人工智能系统引起损害,应该有办法查明原因。

8) 审判透明:在司法裁决中,但凡涉及自主研制系统,都应提供一个有说服力的解释,并由一个有能力胜任的人员进行审计。

9) 职责:高级人工智能系统的设计者和建设者是系统利用,滥用和行动的权益方,他们有责任和机会塑造这些道德含义。

10) 价值观一致:应该设计高度自主的人工智能系统,以确保其目标和行为在整个运行过程中与人类价值观相一致。

11) 人类价值观: AI系统的设计和运作应符合人类尊严,权利,自由和文化多样性的理念。

12) 个人隐私:既然人工智能系统能分析和利用数据,人们应该有权利存取,管理和控制他们产生的数据。

13) 自由与隐私:人工智能在个人数据的应用不能无理缩短人们的实际或感知的自由。

14) 共享利益:人工智能技术应该尽可能地使更多人受益和授权。

15) 共享繁荣:人工智能创造的经济繁荣应该广泛的共享,造福全人类。

16) 人类控制:人类应该选择如何以及是否代表人工智能做决策,用来实现人为目标。

17) 非颠覆:通过控制高级人工智能系统所实现的权力,应尊重和改善健康社会所基于的社会和公民进程,而不是颠覆它。

18) 人工智能军备竞赛:应该避免一个使用致命自主武器的军备竞赛。

同智科技的教育机器人,能认识人

长期问题

19) 性能警示:因为没有达成共识,我们应该强烈避免关于未来人工智能性能的假设上限。

20) 重要性:高级人工智能可以代表地球上生命历史的深奥变化,应该计划和管理相应的护理和资源。

21) 风险:对于人工智能造成的风险,尤其是那些灾难性的和存在价值性的风险,必须付出与其所造成的影响相称的努力,以用于进行规划和缓解风险。

22) 递归自我完善:那些会递归地自我改进和自我复制的AI系统若能迅速增加质量或数量, 必须服从严格的安全控制措施。

23) 共同好处:超级智能应当只为广泛分享道德理想而发展,是为了全人类而不是为了一个国家或者一个组织的利益。

这23条,应该是机器人三定律的升级版了。

汪仔 搜狗公司医疗机器人

相关文章

网友评论

    本文标题:如何防止机器人造反?23条阿西洛马人工智能原则

    本文链接:https://www.haomeiwen.com/subject/hlrfuqtx.html