评估威胁并预先制定防御机制,预防和减轻潜在威胁,对于我们而言将至关重要。OpenAI 最近就在做一项研究,“ 恶意使用人工智能:预测,预防和缓解 ” 报告中我们可以发现,快速发展的AI威胁情况,安全风险的关键领域以及我们今天可以采取的行动的权威建议。
1
AI威胁的演变:规模更大,破坏力更严重
即使当前并不明显,但仍然有可能,恶意使用人工智能的场景正在增加。正如罪犯,恐怖分子同样适用软件和计算机网络一样,未来AI犯罪的范围将极其多样化。
不要盲目追随Al,因为人工智能技术可能会被投机分子利用,并会对你产生不利影响。随着人工智能越发普及,在我们工作和生活中无处不在,AI一旦被利用,将会变成威胁,严重影响企业与用户的信息安全。
有关恶意AI报告,预测了3个具有挑战性和不断变化的潜在威胁场景:
威胁会变得更严重,人工智能将用于扩大已知的攻击,通过增加执行此类攻击所需的“人力,智力和专业知识”。
以机器流量和鱼叉式网络钓鱼攻击为例,人工智能可以:
a)为恶意攻击赋能;
b)使攻击过程更加容易和快速;
c)扩大攻击目标的类型和数量。
新的威胁将会出现,诸如利用人工智能技术,输出超真实的声音与图像的,智能罪犯将成为可能:
a)以复制真实世界的视听签名来解锁安全系统;
b)制造社会不稳定的虚假新闻,冒充政治家和名人,或以其他方式影响人们的行为某种方式;
c)恶意算法甚至可以引入其他AI或机器人系统,破坏或控制这些系统的一项或多项功能。
颠覆传统网络安全,人工智能将通过提高这种攻击的有效性,精确性和难以追踪性从根本上颠覆传统网络安全的认知。
2
AI威胁的场景:数字安全、物理安全及政治安全
通过可穿戴设备,智能设备和物联网,人工智能将不可避免地渗透到我们生活的每一个角落。但是,最有可能遭受攻击的主要领域是以下三个,其后果将是灾难性的:
网络安全,恶意实体将很容易使用AI来自动执行更有效的网络攻击。如上面所述,包括鱼叉式网络钓鱼,网络模拟和自动黑客攻击;
物理安全,尽管我们将大部分生产时间花在了网络空间,但我们确实生活在物质世界。即使在物理空间,恶意AI也将变得随处可见,并对我们构成极大威胁。除武器化无人机外,恶意AI还可以感染自动驾驶车辆,连接设备和其他设备,对人员和财产造成人身伤害。 ;
政治安全,正如2016年美国大选和其他地区所展示的那样,使用包括人工智能,预测分析,自动化和社交媒体机器人在内的技术可能会产生深远的社会影响。具体而言,敌对实体可以使用人工智能进行非法监视,宣传,欺骗和社交操纵。这种情况符合威权国家的需求和愿望,但也可以用于颠覆民主国家。
3
如何防范恶意AI
人工智能尚未造成毁灭性破坏,我们还是希望未来AI领域好人超过坏人。
但是,与恶意AI不同,未来AI安全体系的建设,需要极大的专注和严格的测试。因为,即使是善意的研究人员和工程师,也会制造出有偏见且有害的机器学习模型,并带来令人震惊的后果。
因此,这里面需要国家立法、企业文化以及有效的监管体制。同时,还需要不同背景人士的支持,包括:政府官员、消费者、人工智能研究人员以及网络安全专家和行业领导者。
以下4个关键环节,确保未来AI领域的安全:
政策制定者,技术研究人员和网络安全专家应共同探索,预防和减轻恶意AI带来的威胁;
人工智能研究人员,科学家和工程师应主动参与围绕人工智能的安全生态系统建设。这些专业人员应该注意人工智能的双重用途/性质,不断将安全功能和协议集成到他们的工作中,并且始终向用户和决策者警告正在开发的产品可能存在的误用,漏洞和风险 ;
应该为AI研究与应用,建立一套道德标准和合理的预期。包括实施更有效和全面的解决双重用途问题的方法;
更多具有不同背景的人应该成为涉及人工智能恶意应用问题的利益相关者和领域专家。同时,在构建世界AI安全框架时,组织应该倡导责任文化。
网络犯罪是一个现实,黑客利用恶意AI,潜藏在虚拟网络世界以及真是世界的每个角落,进行攻击破坏。到2021年,我们的世界将每年花费6万亿美元去处理恶意AI带来的网络犯罪问题。
我们可预见,人工智能将被应用到网络犯罪中,企业和个人别无选择,只能作出反击并确保安全。
通过集中资源并引导到所有利益相关者的教育和建立预防性安全措施,我们可以保持对恶意组织的领先。并依靠AI来对抗恶意AI
欢迎持续关注我们微信公众号(geetest_jy),还可以添加技术助理微信“geetest1024”微信,一起交流进步!
网友评论