第三届世界顶尖科学家论坛将于10月30日-11月1日在上海举行。包括61位诺贝尔奖得主在内,近140位诺贝尔奖、图灵奖、菲尔兹奖、沃尔夫奖、拉斯克奖等全球顶尖科学奖项得主出席。论坛期间将有130余场科学家独立演讲、70余场主题峰会,大部分活动将通过网络向公众直播。
在往届的顶尖科学家论坛上,人工智能一直是这些科学家乐于讨论的话题。面对越来越强大的人工智能技术,未来的人类该如何与之相处?数据隐私和数据安全、算法黑箱、技术滥用……落地发展至今,人工智能已经显露出许多亟需关切的监管问题。
澎湃新闻特此整理了世界顶尖科学家论坛往届参与者关于上述问题的讨论,希望可以帮助读者对于人工智能有更清晰的认识。
古往今来,技术与人类的互动关系一直是人们苦苦思考的问题。面对越来越强大的人工智能技术,未来的人类该如何与之相处?
数据隐私和数据安全、算法黑箱、技术滥用……落地发展至今,人工智能已经显露出许多亟需关切的监管问题。在全球各地“AI热”的同时,需要一点技术应用的“冷思考”。
在第二届世界顶尖科学家论坛中,许多科学家提出了对人工智能监管问题的关切。
日本诺贝尔化学奖得主野依良治担心AI武器化。他说,至少现在我们不需要对人工智能恐惧,但预测未来是很困难的。“未来如果是超级智能,并用在其他领域,比如武器领域,也许情况就不是这样了。所以我觉得人类必须要掌握使用人工智能的主动权。”
2017年诺贝尔物理学奖得主巴里·巴里什提出人工智能带来的数据安全问题。利用大数据分析,AI能帮助人类更好的提出科学发现,但AI也带来数据安全问题。巴里什对于科学研究中的数据完整性表示担忧,因为在探测到引力波的过程中,巴里什就遇到这样的情况。
“当我们第一次探测到引力波时,我们第一个想到的问题是如何证明和测试它是真的,这是做科学研究必须要想的。但紧接着我们又想到了第二问题,我们如何证明探测到的引力波不是别人入侵后,植入的数据?好在,我们的系统能够追溯信号来源,才解决了这个担忧。”巴里什说。
2007年图灵奖得主约瑟夫·斯发基斯则担心AI算法的黑箱问题。算法黑箱问题是指,科学家能够获知人工智能算法最终得出的结果,但并不清楚该结果产生的原因。“我们正处在大型的革命开端,机器在很多时候被认为可以替代人类了。但为了能够应对自主系统的挑战,我们需要进一步研究,在不尝试理解这些机器如何做出决策的情况下,不应该接受这样的技术在大量场景下使用。”斯发基斯说。
他们谈到的问题,有的已经超出了科学的范畴,需要各国政府出台相应的政策法规加以监管。世界各国正在展开这样的尝试。
欧盟:发展可信赖人工智能
人工智能可以帮助医生做出更快、更准确的诊断,帮助农民减少使用农药,帮助人们应对气候变化,它还有助于减少交通事故的数量……人工智能正在帮助我们解决许多社会难题,但与之相伴而来的是人工智能所引发的安全担忧。
关注人工智能带来的安全、隐私、尊严等方面的风险正是欧盟人工智能战略和政策的侧重点。
2018年3月,有欧盟智库之称的欧洲政治战略中心(European Political Strategy Centre)发布题为《人工智能时代:确立以人为本的欧洲战略》(The Age of Artificial Intelligence: Towards a European Strategy for Human-Centric Machines)的报告。
报告建议欧盟鼓励发展人工智能,并努力建立起人与机器的共生关系。它还建议欧盟确立以人为本的战略,把政策目标设定为使人们感到被人工智能赋能,而非被其威胁。
在此建议下,2018年4月25日,欧盟委员会发布的一份政策文件《欧盟人工智能》(Artificial Intelligence for Europe)提出了人工智能的欧盟道路。向来有着人权传统的欧盟决定着重探讨人工智能的价值观。
欧盟认为,人工智能的发展可能会引发新的伦理和法律问题,欧盟必须确保人工智能在适宜的框架内发展。这个框架应既促进科技创新,又能尊重欧盟的价值观、基本权利和道德原则。在欧洲价值观的基础上,欧盟委员会提出了一种三管齐下的方法:增加公共和私人投资,为人工智能带来的社会经济变革做好准备,并建立起适当的道德和法律框架。
2019年4月8日,欧盟委员会发布一份人工智能道德准则,该准则由2018年12月公布的人工智能道德准则草案演变而来,提出了实现可信赖人工智能的七个要素,要求不得使用公民个人资料做出伤害或歧视他们的行为。
这份人工智能道德准则提出了实现可信赖人工智能的七个要素,分别是:
1.人的能动性和监督:人工智能系统应通过支持人的能动性和基本权利以实现公平社会,而不是减少、限制或错误地指导人类自治。
2.稳健性和安全性:值得信赖的人工智能要求算法足够安全、可靠和稳健,以处理人工智能系统所有生命周期阶段的错误或不一致。
3.隐私和数据管理:公民应该完全控制自己的数据,同时与之相关的数据不会被用来伤害或歧视他们。
4.透明度:应确保人工智能系统的可追溯性。
5.多样性、非歧视性和公平性:人工智能系统应考虑人类能力、技能和要求的总体范围,并确保可接近性。
6.社会和环境福祉:应采用人工智能系统来促进积极的社会变革,增强可持续性和生态责任。
7.问责:应建立机制,确保对人工智能系统及其成果负责和问责。
网友评论