大家还记得,李世石与 AlphaGo 的厮杀,加里·卡斯帕罗夫与深蓝的对弈吗?
人工智能之深度学习——深度学习概述
深蓝的核心在于“算”:利用强大的计算资源来优化目标函数。深蓝本身就是一套专用于国际象棋的硬件,大部分逻辑规则是以特定的象棋芯片电路实现,辅以较少量负责调度与实现高阶功能的软件代码。其算法的核心是暴力穷举:生成所有可能的下法,然后执行尽可能深的搜索,并不断对局面进行评估,尝试找出最佳的一手。
围棋的棋盘状态远比国际象棋复杂,以穷举法进行最优落子策略的推演无异于痴人说梦。事实上,顶级的围棋棋手更多地依赖模糊的直觉来评判特定的棋盘状态的好坏。但理性推演与感性判断之间似乎存在着不可逾越的巨大鸿沟,尤其是对于计算机程序而言,依赖直觉是不可能的事情。因此并没有显而易见的方式来将国际象棋领域的成功复制到围棋上,直到 AlphaGo 的横空出世。
与深蓝相比,AlphaGo 的核心则在于“想”。与专用硬件深蓝不同,AlphaGo 是一套能够运行在通用硬件之上的纯软件程序。它汲取了人类棋手海量的棋谱数据,并依赖人工神经网络和深度学习技术从这些数据中学会了预测人类棋手在任意的棋盘状态下走子的概率,模拟了以人类棋手的思维方式对棋局进行思考的过程。
但 AlphaGo 的故事还远没有结束,2017 年 10 月,其升级版 AlphaGo Zero 诞生。仅仅一个月后,DeepMind 又推出了 AlphaGo Zero 的升级版:AlphaZero。AlphaZero 一不需要人工特征,二不需要棋谱知识,三不需要特定优化,可就是这个“三无”算法实现了对围棋、国际象棋和日本将棋的通吃,以摧枯拉朽之势横扫这些棋类游戏的顶级算法,再一次向世人展示了它的无穷潜力。
AlphaGo 的胜利也是深度学习的胜利。深度学习是利用包含多个隐藏层的人工神经网络实现的学习。两个隐藏层足以解决任何类型的非线性分类问题,因而浅层神经网络最多只会包含两个隐藏层。相比于浅层神经网络,正是这“多个”隐藏层给深度学习带来了无与伦比的优势。
在深度学习中,每个层可以对数据进行不同水平的抽象,层间的交互能够使较高层在较低层得到的特征基础上实现更加复杂的特征提取。不同层上特征的组合既能解决更加复杂的非线性问题,也能识别更加复杂的非线性模式。
深度学习受启于视觉系统的感受方式。在深度学习中,这个过程可以利用多个隐藏层进行模拟。第一个隐藏层学习到“边缘”的特征,第二个隐藏层学习到的是由“边缘”组成的“形状”的特征,第三个隐藏层学习到的是由“形状”组成的“图案”的特征,最后的隐藏层学习到的是由“图案”组成的“目标”的特征。当然,这样的识别思想不只适用于视觉信息的处理,对其他类型的信息同样适用。
虽然关于深度学习认知的理论早已成熟,但真正推动深度学习走到聚光灯下的还是工程上的两大进步,也就是数据的井喷和计算力的飙升。如果说深度学习是一台探矿机,大数据就是那座有待挖掘的金矿,计算能力的进展则为这台探矿机提供了源源不断的动力。
人工智能之深度学习——深度学习概述在机器学习和浅层神经网络中,绝大部分最优解的最优性都是可以证明的。但在深度学习中,很多结果都是经验性而非理论性的,隐隐透出一丝看天吃饭的无力感。
深度学习在理论上依然有诸多要解决的问题,这也催生了“信息瓶颈”等新理论与新方法。目前看来,深度学习的背后深入的数学原理仍处在隐藏层中,我们唯一能够确定的是关于深度学习的研究依然任重道远。
网友评论