据报道,虽然人工智能控制的世界末日机器被认为是不可能的,但人工智能对核安全的危害反而在于它可能鼓励人类承担潜在的世界末日风险。
冷战期间,相互确保破坏的条件通过确保任何袭击能够通过毁灭性的报复来应对,从而维持了超级大国之间的不安宁和平。因此,相互确定的破坏通过减少两国采取可能升级为核战争的行动的动机来鼓励战略稳定。
兰德新出版物称,未来数十年,人工智能有可能削弱相互破坏的条件并破坏战略稳定。改进的传感器技术可能会导致诸如潜艇和机动导弹等报复力量可能成为目标并被摧毁的可能性。
研究人员说,尽管国家不打算进行攻击,但他们可能会试图将第一次打击能力作为获得对手的讨价还价的手段。这破坏了战略稳定性,因为即使拥有这些能力的国家无意使用它们,对手也不能确定这一点。
“非核心战争与人工智能之间的联系并不新鲜,实际上两者之间有着交织在一起的历史,”Edward Geist是非营利,无党派研究机构兰德公司的纸和副政策研究员的共同作者。“人工智能的早期发展大部分是为了支持军事努力,或是考虑到军事目标。”
他说这种工作的一个例子是20世纪80年代的Survivable自适应计划实验,该实验试图利用AI将侦察数据转化为核瞄准计划。
据报道,在偶然情况下,人工智能还可以通过提高情报收集和分析的准确性来提高战略稳定性。虽然人工智能可能会增加二次攻击力量的脆弱性,但改进用于监测和解释对手行为的分析可以减少可能导致意外升级的错误计算或曲解。
研究人员说,考虑到未来的改进,最终人工智能系统有可能开发出虽然易出故障,但比人类替代品更不易出错的功能,因此长期稳定下来。
“一些专家担心,人们越来越依赖人工智能会导致新的灾难性错误,”RAND的论文和副工程师的合着者Andrew Lohn说。“在技术成熟之前使用人工智能可能会有压力,或者它可能容易受到敌对颠覆的影响,因此,未来几十年维持战略稳定可能极其困难,所有核大国都必须参与培育制度以帮助限制核风险。”
兰德研究人员根据他们在核问题,政府部门,人工智能研究,人工授精政策和国家安全方面的专家在一系列研讨会期间收集的信息进行观察。
网友评论