美文网首页人工智能人工智能微刊我爱编程
热点聚焦|我们对人工智能的10大误解

热点聚焦|我们对人工智能的10大误解

作者: 智慧思特大数据 | 来源:发表于2017-04-18 14:52 被阅读56次

    AIjust自从20年前深蓝(Deep Blue)在国际象棋中击败卡斯帕罗夫(Garry Kasparov),该事件就被人们誉为机器智能最权威的证明。谷歌的AlphaGo已经在围棋比赛中以四胜一负(译者注:原文是三场中获胜两局)赢得了韩国棋手李世石,更表明了这些年来人工智能的迅猛进步。机器终会比人类更聪明的预言即将到来,但我们似乎并没有真正理解这个具有划时代意义的事件的影响。地反映我们自己的目标,McIntyre表示,它将有很好的理由不让我们停止它的操作。并且由于它的智力水平大大超过了我们自己的,我们并不能做些什么(来阻止它)。

    事实上,我们执着于对人工智能的一些严重的、甚至是危险的误解。去年年底,SpaceX公司的联合创始人伊隆·马斯克(Elon Musk)警告说,人工智能会统治世界。此话一出,引发了对人工智能或谴责或支持的激烈争论。对于这样一个重大的未来事件,关于它是否会发生,或是以何种形式发生,各方持巨大的分歧。而当我们考虑到人工智能会带来巨大的利益的同时,也可能出现风险,这一点尤其令人担忧。不同于其他任何的人类发明,人工智能具有重塑人类的潜力,但它也可能摧毁我们。

    很难知道该相信什么。但借助于计算科学家,神经科学家,和人工智能理论家的创举,我们可以逐渐了解关于人工智能更清晰的图景。下面是关于人工智能最常见的误解和虚传。

    误解一:我们永远不会创造出类似人类智慧的人工智能

    我们已经在一些游戏领域,如象棋与围棋、股市交易和谈话等创造出可以与人类智慧匹敌、甚至超过人类的计算机。而背后驱动的计算机和算法只会越来越好;因此,计算机赶超其他人类活动,将只是个时间问题。

    纽约大学的心理学家加里·马库斯(Gary Marcus)说,在人工智能领域工作的“几乎每个人”都认为,机器将最终会替代我们自己。支持者和怀疑论者之间的唯一真正的区别只是时间框架问题。像Ray Kurzweil等未来学家认为机器替代人类可能会在几十年发生,也有人说,它可能需要几个世纪。

    当怀疑论者说这是一个无法解决的技术问题,或是生物大脑有一些内在的独特之处时,是不能令人信服的。我们的大脑是生物机器,但归根到底它们仍然是机器;他们在现实世界中存在,按照物理学的基本规律运行。没有什么是不可知的。

    误解二:人工智能将有自觉意识

    关于机器智能的一个共同的假设是,它是自觉的有意识的,也就是说,它会像人类一样思考。更重要的是,像微软联合创始人保罗·艾伦的批评者认为,我们还没有实现人工普遍智能(Artificial General

    Intelligence, AGI),即能够执行任何一项人类能够进行的智能任务,因为我们缺乏关于意识的完整科学理论知识体系。但伦敦帝国大学认知机器人专家默里·沙纳汉(Murray Shanahan)指出,我们应该避免混淆这两个概念。

    意识无疑是一个有趣和重要的主题,但我不相信意识是匹敌人类水平的人工智能必要的部分,”他告诉Gizmodo。“或者,更准确地说,我们用意识这个词,是为了表明一些心理和认知的属性,而这在人类中是紧密相连互有重合的”。

    我们完全可以想像一个非常聪明的机器,缺乏一个或多个这种属性。最后,我们可以建立一个非常聪明的,但没有自我意识的,不能主观或有意识地体验世界的人工智能。沙纳汉说,将智慧和意识同时融合在一台机器里也是有可能的,但是,我们不应该忽视这样一个事实,即智慧和意识是两个不同的概念。只是因为一台机器通过图灵测试从而证实计算机和人类在智能上无区别,并不意味着它是有意识的。对我们来说,先进的人工智能可能会导致机器看起来是意识的假象,但是在自我自觉方面,它并不比一块岩石或计算器更能感知自我意识。

    误解三:"我们不应该害怕人工智能。

    今年一月,facebook创始人Mark Zuckerberg说我们不应害怕人工智能,他说这将会为世界创造很多令人惊异的好东西。他只对了一半。我们安然享受人工智能所能创造的巨大的好处:从无人驾驶汽车到新药的制造,然而我们却无法保证所有通过人工智能所实现的将会是良性的。

    一个高度智慧的系统也许能了解完成一个特定任务所需要的所有知识,例如解决一个让人头痛的财务问题,或者侵入一个敌人的系统。但除开这些它所专长的特定的领域外,它很可能非常无知和愚昧。Google的DeepMind系统精通于围棋,然而除了围棋,它对于其他领域却没有任何推理和逻辑能力。

    许多类似的系统也可能缺乏深入的安全考虑。一个很好的例子就是由美国和以色列军方共同开发的一份非常强大而复杂的武器级病毒系统Stuxnet Virus,其原本的作用是为了潜入和攻击伊朗核武器动力装置。此病毒系统却不慎(至于是有人故意而为之还是纯属意外则不得而知)感染了俄罗斯核武器动力装置。

    误解四:人工智能由于其极高智能,将不会犯任何错误。

    Surfing Samurai机器人人工智能研究者和开发者,Richard

    Loosemore认为大多数假设的人工智能将毁灭世界的情景都非常不符合逻辑。大多数类似的假设总是认为人工智能将会说:“我知道毁灭人类文明是由于设计引起的故障,但无论如何我还是很想去做。”Loosemore指出如果人工智能在打算毁灭人类时,其思路是如此自相矛盾的话,它将在其一生中面临无数自相矛盾的逻辑推理,也因此会干扰了其认知从而变得非常愚蠢,而同时根本不足以对我们造成伤害。他同时也断言,那些认为“人工智能只会做程序设定的任务”的人,将会像在电脑刚刚发明时那些说电脑将永远不会具备应变能力的谬论的人一样。

    牛津大学人类未来研究所(Future of

    Humanity Institute)的Peter Mcintyre和Stuart Armstrong对此有不同看法。他们认为人工智能将很大程度上依赖其程序锁定。他们不相信人工智能不会犯错误,或者反过来他们没有聪明到可以理解我们希望他们能做什么。

    McIntyre告诉作者:“从定义上讲,人工智能就是一个在方方面面都比最聪明的人脑要更为聪明的智慧载体”。“它将会完全知道我们设计他们来做什么”。McIntyre和Armstrong相信人工智能将只会做其程序编写的任务,但如果它足够聪明的话,它会最终理解法律的精髓和人文的意义。

    误解五:一个简单的修补程序将解决人工智能的控制问题。

    假设我们创造出强于人类的人工智能,我们将要面对一个严重的“控制问题”。未来主义者和人工智能理论家完全不知如何限制和制约一个ASI(超强人工智能),一旦它被创造出来,也不知道如何保证它将对人类友好。最近,佐治亚理工的研究人员天真地认为人工智能可以通过阅读简单的故事和社会习俗来学习人类价值观。而问题很可能会远远比这复杂。

    “人们已经提出很多简单的技巧来解决整个人工智能的控制问题,”阿姆斯特朗说,具体例子包括将ASI程序编辑成让它希望取悦人类,或者仅仅作为人类的工具。换个角度说,我们可以集成一个概念,比如爱和尊重,把这些写入它的源代码。并且为了防止它采用超简单的、单色的观点来认识世界,它可以被编程来欣赏知识、文化和社会多样性。

    但是,这些解决方案要么太简单,(比如尝试将人类喜好的整个的复杂性用精巧的语言来定义),要么包罗人类所有的复杂到简单的单词、词组或思想。举个例子来说,试图给出一个连贯的、可操作的定义“尊重”一次,是非常困难的。“这并不是说,这种简单的技巧是无用的,许多此类建议揭示了好的研究途径,而且有助于解决最终的问题,”阿姆斯特朗说。“但是,在没有大量工作来发展和探索这些技巧之前,我们不能完全信赖它们。”

    误解六:"我们将被超人工智能毁灭。"

    现在还没有证据保证人工智能会毁灭我们,或者我们将来一定没有办法来控制它。正如人工智能理论家Eliezer

    Yudkowsky所说:“人工智能不恨你,也不爱你,但你是由可以用做别的东西的原子组成的”。

    “一个人工智能或许能够非常准确地预测,我们不希望牺牲消费者、环境和非人类动物的利益为代价,来给某个公司带来最大化的利润,”McIntyre说。“因此,它会有强烈的动机以确保自己不被中断或干扰,包括被关闭,或其目标被改变,因为这样这些目标将无法实现。”

    除非ASI的目标精确

    但万事无绝对,也没有人可以肯定人工智能会采取何种形式,以及它如何可能危及人类。Musk指出,人工智能实际上可以用于控制、调节和监控其他人工智能。或者,它可能被灌输人类价值,以及强制要求友好对待人类。

    误解七:超人工智能会很友好。

    如果这是正确的,那我们可以预测“智能爆炸”将会同时引发一场“道德爆炸”。我们还可以预测由此产生的超人工智能系统将会在超智能的同时也是超道德的,因此我们大概可以推测这是良性的。

    但是认为先进的人工智能会是开明并且天生就好的观点是站不住脚的。正如Armstrong所指出的,有许多战犯都是很聪明的。智力与道德之间的联系好像并不存在于人类身上,因此他对这一联系存在于其他智能形式的假设提出了质疑。他说:“行为不道德的聪明人可能会给他愚蠢的同胞们带来更大规模的伤害。智力恰好赋予了他们更聪明地做坏事的能力,而并不会使他们变好。”

    正如McIntyre所解释的,一个代理达成目标的能力并不取决于这个目标一开始是否聪明。他说:“如果我们的人工智能具有独一无二的在变聪明的同时会变得更加道德的能力,那我们是非常幸运的。但是,单纯依靠运气面对某些可能会决定我们未来的东西,并不是很好的策略。”

    误解八:来自人工智能的危险和机器人是一回事。

    这是一个特别常见的错误,一个被不加批判的媒体和《终结者》这类好莱坞电影延续的错误。

    如果像天网(Skynet)那样的超级人工智能真的想毁灭人类,它不会使用挥舞机关枪的机器人。它会使用更有效的手段,比如:释放生物瘟疫,或发动基于纳米技术的灰蛊灾难。或者,它可以直接破坏掉大气层。人工智能是潜在的危险,并不因为它意味着机器人的未来,而是它将如何对世界展现它的存在。

    误解九:科幻小说是对未来人工智能的精神描述。

    当然,很多年以来作家和未来学家都利用科幻来作梦幻般的预言,而是由ASI带来的视界是一个不同颜色的马。更重要的是,人工智能是非常“不人道的”,因此我们很难了解和预测其准确性质和形式。

    要想让科幻来娱乐弱小而可怜的人类,我们需要将“人工智能”描述成类似我们自己。“人类的思想也是千差万别的;即使在人类内部,你可能和你的邻居完全不同,而这种差别和所有可能存在的头脑相比是微不足道的。“麦金太尔(McIntyre)说。

    大多数科幻是为了讲述一个引人入胜的故事,并不需要在科学上准确无误。因此,在科幻中即使是对等的实体之间也往往存在冲突。“想象一下,的是,”阿姆斯特朗说,“如果人工智能没有意识、喜悦、爱恨,根除了一切人类的痕迹,以实现一个无趣的目标,那将是一个多么无聊的故事。”

    误解十:人工智能将接手我们所有的工作,这太可怕了。

    人工智能自动完成人类工作的能力与它摧毁人类的潜能是两回事。但《机器人的崛起》一书的作者马丁·福特却认为:技术的进步和未来的失业往往是密不可分的。思考人工智能在未来可能扮演的角色无可厚非,但是我们更应该关注的是后面几十年的问题。人工智能主要完成的还是大规模自动化的工作。

    毫无疑问,人工智能将彻底接管包括从工厂做工到上层的白领工作在内的许多现有的工作岗位。有专家预测,在美国有一半的工作岗位可能在不久的将来实现自动化。

    但这并不意味着我们不能适应这种巨变。通过人工智能将自己从纷杂的体力和脑力劳动中解放出来,不也是人类的美好愿景吗?

    “在接下来的几十年中,人工智能会摧毁许多工作,但是这是一件好事,”米勒告诉Gizmodo。例如,自动驾驶汽车可以取代卡车司机,这将减少运输成本,从而降低它的商品购买价格。“如果你是一名卡车司机,那你可能输了,但其他人会得到有效加薪,他们的薪水可以买更多的东西,”米勒说。“而这些人将钱节省下来可以购买其他商品和服务,因而会创造新的工作。”

    所以最终的结果可能是,人工智能会产生创造财富的新途径,而人类可以腾出来做其他事情。而在人工智能的进步将带动其他领域,尤其是制造业的发展。在未来,满足人类需求会变得更加容易,而不是更难。

    文转载自网络,版权归原作者所有。转载文章仅为传播更多信息,如有侵权请及时联系我们处理。

    相关文章

      网友评论

        本文标题:热点聚焦|我们对人工智能的10大误解

        本文链接:https://www.haomeiwen.com/subject/thgfzttx.html