尽管AI在医学、教育、经济以及执法应用方面可以帮助人类,但依然免不了引起人们的担忧,我们会被取代吗?
笔者也曾做过一个小范围(大部分是在校大学生)的人工智能方面的问卷,发现很多人对人工智能并不是很了解,但也是喜忧参半。
不管是谷歌退出五角大楼Project Maven,还是员工站出来反对亚马逊将其人脸识别技术卖给政府,亦或是微软Azure与政府的合作造成孩子与父母分开引发众怒,这些都是人们对AI技术使用的担忧。
不可避免的,“战争技术”成为了其中最受关注的焦点。更何况推动人工智能进步的原本就是战争,从图灵的计算机产生,他们就结下了不可解的缘。
换句话说,人工智能用于战争,是将更智能地控制战争,还是会“养虎为患”,将人类推向更恐怖的战争深渊呢?
那么,是否存在一种可能,即使人工智能部署到战场上,可以遵循“不作恶”的标准呢?
谷歌员工提出:那些正在努力开发用于战争的AI技术研究员应该以道德和负责任的方式来完成这项任务。
战争与技术,除了我们习以为常的残酷,其实还有另外一面——虽然我们印象中的战争史,充满了残忍与杀戮。
举个例子,精确制导和小型弹药可以限制所谓的附带损害,即对平民和其他非战斗人员的杀戮和致残,同时,减少对家庭和关键基础设施的破坏也将成为可能。
人们运用人工智能的初心也许是好的,就像原子弹的产生也是为了战胜法西斯。人工智能的出现也是如此,技术的初创者总是怀着正义的心。但人工智能技术成本并不高,所以技术复制成为现实。恐怖分子一样可以拥有人工智能技术。
只不过,一直没有相关的公开讨论来研究如何将人工智能应用于战争,帮助缓解悲剧的发生。
在笔者看来,人工智能除了会带来伤害,或许我们还可以让她来减少战争灾难的发生。
人工智能的军事潜力,不只是技术。众所周知,技术是军事组织成功开展行动的决定因素之一。
同时,在使用这个时代下,他们还需要最大限度地发挥技术潜力,特别是获得各个国家青睐的人工智能。但这并不是最主要的,重要的是,AI也将是改变军事教育的方式之一。
正如最近的一份报告所指出的那样:AI驱动的智能辅导系统可以提供模拟人类的一对一辅导,学生们也可以从这位“终身学习伙伴”中受益,即根据学生的个人资料,进行有针对的教学。此外,人工智能还可以用于协助学习。
军事组织一直致力于分享历史课程,并建立有效的以及有凝聚力的战斗团队。人工智能在帮助培养专业技能的同时,还可以支持团队中更高水平的运营和战略规划。
在以往的战争中,指挥员的决策,一方面来源于情报、侦察、监视等手段,另一方面受指挥员自身的经验、灵感、联想等主观因素影响。
在AI的辅助下,该技术便可以为指挥员的决策提供新的参照,弥补军事信息系统的不足,从而构建起功能强大的网络信息体系,提高军队的智能化评估和辅助决策能力。
用AI减少战争造成的人道主义损伤。随着今天人工智能的快速发展,如何利用这一技术减少战争带来的人道主义损失,成为了一个值得深入思考的问题。
CNA(华人新闻通讯社)曾对战争中民众的伤亡情况以及其发生的原因进行过研究。考虑到现代军队目前拥有的能力和使用的技术程序,以及人为判断失误和程序问题导致的失误类型,人工智能极有可能可以减少战争中的民众的伤亡。
比如,AI技术可以根据情报以及图像审查情报,减少被误认为是战斗人员的平民数量。它们还可以监控战场,并对现有的附带损害估测进行双重检查,特别是随着时间的推移,情况会发生变化。
AI驱动的无人系统将让这些系统承担风险并有耐心去等待最佳“战斗”时机,从一定程度上,这可以降低平民的风险。同时,在探测到战场上民用基础设施后,AI还可以进行提醒,并提出建议来采取措施降低破坏风险的存在,就如电力和水利设施,如果不被破坏,将很有助于未来城市的恢复。
人工智能,积极影响下的潜在风险。将人工智能应用于战争中的积极成果,并不意味着我们要对其潜在的风险视而不见。
技术的有效和安全使用是复杂的,需要全面解决,而不是仅仅通过部署一个新的,更先进的系统就能实现的。
相反,有一些具体方法可以提高军事系统中人工智能的安全性,比如通过人机组合来充分利用人和机器的优势。这种组合通常产生比单独操作更好的结果。
那如何实现在战争中用人工智能拯救生命呢?如果政府选择让自己的军队审慎使用人工智能,并从中获取人道主义收益;如果国际论坛倡议将这种积极成果作为集体目标,那么这一救国就有很大可能会实现。
像谷歌这样的公司也可以在“不作恶”的承诺上,研究如何将自己的专业知识贡献给战争中的人道主义,其他人,其他企业,其他组织必然也可以寻求使用人工智能来造福世界,保护战场上的民众。
如今,人工智能的军事应用浪潮已不可避免,因此无论是应对技术还是伦理的挑战,都应坚持探索与发展人工智能技术,加强人工智能的技术预测与评估,在充分试验与分析的基础上逐步推进人工智能技术的军事应用。
网友评论