作者 | 阿司匹林
出品 | AI科技大本营(公众号ID:rgznai100)
近日,包括 Toby Walsh、周志华、Yoshua Bengio、Geoffrey Hinton 等在内的 50 多位人工智能领域的专家发起联名抗议,抵制韩国科学技术高级研究院 KAIST 开发“杀人机器人”。
昨日晚间,周志华教授在微博上表示,已经收到韩国科学技术高级研究院 KAIST 方面的回复:
KAIST 校长 S-C Shin 给每位抗议专家写信保证 KAIST 不会开展任何与人类尊严对立的研究。不会参与发展致命性自主武器系统。与H公司的合作将不涉及任何致命性自主武器系统的研制,成立的中心将致力于研发关于高效后勤系统、无人导航、飞行训练系统的算法,并保证对相关研究人员进行教育……
而发起联名抵制的 Toby Walsh 教授则已经表示,抵制行动已经发挥作用,“KAIST 作出两大让步:不会开发自动武器,以及保证有意义的人工控制”。至于是否取消抵制,需与其他签署联名信的科研人员共同决定。
我们梳理下此次事件的来龙去脉。
2 月 20 日,KAIST 开放了国防和人工智能联合研究中心,与国防公司韩华系统(Hanwha Systems)在开发自主武器上进行合作,校长 Sung-Chul Shin 当时表示“将为发展国防技术奠定坚实的基础”。
根据该中心此前发布在学校网站上的公告,他们将专注于研究“基于 AI 的指挥决策系统,基于 AI 的智能飞机训练系统,基于 AI 智能目标跟踪和识别技术,以及为大规模水下无人交通工具结合导航算法”。
随后 Toby Walsh 教授联合Yoshua Bengio、Geoffrey Hinton、周志华等 50 多位 AI 领域有着广泛影响力的专家发起抗议。
听到抵制的消息后,Sung-Chul Shin 发表声明称,他感到很难过,认为 KAIST 重视人权和道德标准,没有任何意愿参与开发致命的自主武器系统和杀人机器人。
当然,KAIST 并不是第一家因为将 AI 技术用于武器开发而遭到抵制的机构。
今年 3 月,Google 被爆出用 AI 技术帮助美国国防部分析其无人机拍摄的视频片段,随即便遭到了 3000 名员工联名反对。
Google 在一份声明中表示:“任何将机器学习技术用于军事用途的做法都会自然引起人们的担忧,我们鼓励公司员工都参与到这个重要话题的讨论中来。”该声明还指出 Google 参与Project Maven 项目是“出于非侵犯性意图”。
然而不管是 Google 还是 KAIST,都没有在声明中透露参与项目的具体工作内容。此外,Google 和 KAIST 也都没有退出争议项目的迹象。
与此同时,由 SpaceX 创始人马斯克、Y Combinator 总裁阿尔特曼、天使投资人彼得·泰尔共同创立的人工智能非营利组织 OpenAI 则作出了很好的表率。
针对近期一系列因 AI 的用途而引发的争议,OpenAI 于今日发布了《OpenAI 章程》(OpenAI Charter),称其宗旨是建立安全而有益的通用人工智能(AGI),造福全人类。
广泛利益
我们承诺,任何部署 AGI 带来的影响都将确保其可以造福于所有人,并避免 AI 或 AGI 伤害人类,或者让权力过度集中。
我们的首要任务是对人类负责。我们预计需要调动大量资源来完成目标,但我们将坚持不懈,最大限度地减少因为员工和利益相关方之间利益冲突,造成对广泛利益的损害。
长期安全
我们致力于开展必要的研究,以确保 AGI 的安全性,并推动 AI 社区广泛采用此类研究。
我们担心后期的 AGI 开发会成为一场没有足够时间进行充分安全预防的竞赛。因此,如果一个有价值的、安全意识强的项目在我们之前就接近于构建 AGI ,我们承诺停止与之竞争并开始协助该项目。我们将根据具体情况制定具体协议,但一个典型的触发条件可能是:“在未来两年内取得成功的机会比任何时候都大”。
技术引领
为了有效地应对 AGI 对社会的影响, OpenAI 必须处于 AI 能力的最前沿,而这单靠政策和安全宣传是不够的。
我们相信 AI 将在 AGI 之前所产生的广泛社会影响,我们将努力在那些与我们的使命和专业知识有直接联系的领域发挥领导作用。
合作导向
积极与其他研究和政策机构合作;我们寻求建立一个全球性社区,共同应对 AGI 的全球挑战。
我们致力于提供公共产品,帮助社会走上 AGI 之路,这包括发表我们的大部分 AI 研究成果。但我们预计,出于对于安全和保障的担忧,我们未来将减少传统研究成果的发布,同时增加安全、政策、标准相关的研究。
技术或许是无罪的,但是技术背后是价值观是有倾向的。技术要如何造福全人类?OpenAI 的宗旨或许能给我们一些启示。
网友评论