几周前,我写了一篇关于我在2月28日参加了麻省理工学院(MIT)施瓦茨曼计算学院(Schwarzman College of Computing)新落成庆祝——MIT对人工智能兴起的战略应对——AT技术在未来几十年将重塑“地缘政治、经济、我们的日常生活和工作”。为期一天的庆祝活动以各种各样的主题为特色,其中一些主题集中于人工智能技术的创新应用,另一些主题则是这些强大技术带来的挑战性问题。
几周后,我根据麻省理工学院Sherry Turkle教授关于反思数字文化中的摩擦的演讲,以及耶鲁大学Nicholas Christakis教授关于人工智能将如何重塑我们等文章,写了一篇关于这些挑战性问题之一的文章:人工智能对我们社会互动的影响。
现在,我想谈谈《纽约时报》专栏作家托马斯·弗里德曼(Thomas Friedman)在2月28日对美国前国务卿亨利·基辛格(Henry Kissinger)博士的访谈。这段视频中可以看到,采访是基于2018年6月基辛格博士在《大西洋月刊》上发表的一篇文章,题为《启蒙运动是如何结束的》。
弗里德曼在采访开始时指出,基辛格博士是他唯一认识的在90多岁时对人工智能感兴趣的人,并问他是如何对这门学科感兴趣的。基辛格回答说,他是在2015年的一次会议上听到关于人工智能的演讲后开始思考这个问题的,之后又与人工智能专家进行了一系列讨论。经过三年的讨论,他越来越担心人工智能的技术知识远远超出了我们对其政治、社会和人类含义的理解,以及它对历史演变的长期影响。这就是他写《大西洋月刊》文章的原因。
基辛格文章的中心论点是:“到目前为止,主要改变现代历史进程的技术革命是15世纪印刷机的发明,使得搜索经验知识取代礼拜仪式的教义,和理性时代逐渐取代宗教时代……”
“理性时代产生了塑造当代世界秩序的思想和行动。但在一场新的、更全面的技术革命中,这种秩序正在发生剧变。我们未能充分考虑到这场革命的后果。这场革命的高潮可能是一个依赖由数据和算法驱动的机器、不受伦理或哲学规范约束的世界。”
弗里德曼问道,人工智能革命预示着一个新的启蒙时代,还是一个新的黑暗时代?基辛格回答说:“我们不知道。”我们不知道如何将人工智能提供给我们的众多选择与人类的道德标准联系起来,甚至无法定义这些标准是什么。
基辛格在文章中写道:“我们所处的互联网时代预示着一些问题,而人工智能只会让这些问题变得更加尖锐。” “互联网用户强调检索和操纵信息,而不是将信息的情景化或概念化……通常,他们需要与当前实际需求相关的信息……真相变成相对。” “信息有压倒智慧的危险……社交媒体上充斥着大众的观点,用户无法进行反思……”
“互联网技术对政治的影响尤其明显。以微观群体为目标的能力打破了以往关于优先事项的协商一致意见,允许把重点放在专门目的或不满上。被利基市场压力压垮的政治领导人,被剥夺了思考或上下文反思的时间,压缩了他们发展愿景的可用空间。数字世界对速度的强调抑制了反思。它的动机赋予激进分子凌驾于深思熟虑者之上的权力。它的价值观是由子群体的共识形成的,而不是由反省形成的。”
人工智能将这些担忧带到一个完全不同的层面。到目前为止,我们已经应用技术在人类规定的系统和目标内实现流程自动化。相比之下,人工智能能够规定自己的目标。“人工智能系统,通过其自身的运作,在不断变化,因为他们获取并立即分析新的数据,然后寻求在分析的基础上改进自己。通过这个过程,人工智能发展了一种以前被认为是人类特有的能力。它对未来做出战略判断。”
基辛格认为“人工智能的影响将具有历史性意义。”“它的应用越来越有能力得出完全出乎意料的结果,与人类解决问题的方式截然不同。”
基辛格在《大西洋月刊》的文章中写道:“人工智能迟早会给医学、清洁能源供应、环境问题以及许多其他领域带来非凡的好处。但正因为人工智能对一个不断演变、尚未确定的未来做出判断,不确定性和模糊性在其结果中是固有的。”他的文章列出了三个值得关注的关键领域:
(1)人工智能应用程序可能会获得意想不到的结果。我们如何确保我们日益复杂的人工智能系统能做我们想让它们做的事情?科幻小说中充满了人工智能对其创造者发动攻击的场景,比如《2001:太空漫游》中的Hal。但是,除了科幻小说之外,还有其他一些主要方式可能并不像预期的那样工作。
我们都熟悉软件bug,尤其是高度复杂软件中的bug,这就是AI系统的情况。人工智能系统的复杂性日益增加,它们被征召到高风险的角色中,比如控制飞机、汽车、手术机器人和医疗系统,这意味着我们必须加倍努力测试和评估这些人工智能系统的质量。
除了软件缺陷,人工智能系统可能也有自己的问题,尤其是在使用机器学习算法开发和使用大型数据集训练的情况下。算法本身可能还存在其他缺陷。或者训练数据可能包含不可预见的偏差。这些系统可能会像设计的那样工作,但不会像我们实际希望的那样工作。我们很可能需要一段时间才能弄清楚问题出在底层软件、机器学习算法、训练数据,还是上述因素的某种组合上。
(2)人工智能系统可能无法解释其结论的理由。即使系统正常工作并实现了预期目标,它也可能无法用人类能够理解的方式解释它是如何做到这一点的。向人类解释机器学习算法做出特定决定或建议的原因相当困难,因为它的方法——对连接其大量人工神经元的数值权重进行细微调整——与人类使用的方法截然不同。
(3)在实现预期目标的过程中,人工智能可能会改变人类的思维过程和价值观。一般来说,人类通过开发问题的显式或概念模型来解决复杂问题。这些模型为达成解决方案或做出决策提供了环境。另一方面,人工智能通过在分析训练数据时略微调整算法,从数学上学习。这种固有的上下文缺乏可能导致人工智能误解人类指令。这使得人工智能很难考虑指导人类决策的那种主观、定性、伦理或合理等警告。
此外,考虑到人工智能的学习速度比人类快得多,它的错误和偏差很可能比人类通常犯下的错误和偏差传播和增长得更快。一个不断通过吸收新数据来学习的人工智能系统,可能不可避免地会出现微小的偏差,随着时间的推移,这些偏差可能会导致灾难性的故障。人类使用智慧、判断力和常识等定性属性来缓和和纠正自己的错误,而基于定量的人工智能系统通常没有这些属性。
“亨利,作为结语,当你10年后回来,给(麻省理工学院校长)Rafael Reif一份计算机学院的成绩单时,这个伟大的新机构的成功将由什么构成?”弗里德曼最后问道。
基辛格回答说:
“我想看看,正在探索下一个状态、下一个未来的人们,是否比现在更好地理解了人工智能产生的概念本质。”
“然后,我想看看是否有可能开发出一些概念(用于控制基于人工智能的网络攻击),与我在50年前参与的军备控制概念相媲美,这些概念并不总是成功的。但是这个理论是可以解释的。我们还没有。”
在全部或大部分人工智能领域探索“我会非常感兴趣的企业或机构是否培养他们不仅仅是解决让他们感兴趣的问题,而是……在决定我们和世界未来的影响方面取得了一些进展。”
作者:Irving Wladawsky-Berger
译者:马肯翻
原标题:AI and the Evolution of History, May 06,2019, MIT Sloan Experts Blog, https://blog.irvingwb.com/blog/2019/05/ai-and-the-evolution-of-history.html#more
(首发于肯德尔研究公众号:Kendall_Research,欢迎关注微信公众号!)
网友评论