AI已经火了很多年了,为什么到现在还没有杀手锏类的应用出现?到底还缺少什么呢?是模型不够好?还是计算能力不够高?
机器学习本质是模式识别,最终都逃不过最优化问题。我们一直在试图用一个数字化的公式去精确描述真实世界。但是最优化问题很难快速给出全局最优解。科学家们就想到了各种仿生学算法,比如模拟退火,蚁群算法,遗传算法,支持向量机以及包括最热的神经网络,试图从生物界中寻找灵感,解决当下的问题。
机器学习包括神经网络(深度学习属于神经网络)都会遇到过拟合问题。在训练数据集上效果很好,但是换成实际数据效果下降很多。过拟合问题是困扰机器学习发展的关键问题。
过拟合问题现在科学家们已经基本明白它与世界六大数学难题之一NP问题密切相关。机器学习面临的问题通常是NP-hard甚至更难,而有效的学习算法必然是在多项式时间内运行完成,若可彻底避免过拟合,则通过经验误差最小化就能获最优解,这就意味着我们构造性地证明了“N=NP”,因此,只要相信“P≠NP”,过拟合就不可避免。以我粗浅的理解就是”上帝有时的确是在掷骰子”,别想精确表达世界。算法的泛化能力一直是个谜题,自适应的算法不断涌现,使用各种诡计创造了调整算法的算法。
NP完全问题同属于世界六大难题。具体的是NP完全问题、霍奇猜想、黎曼假设、杨-米尔斯存在性和质量缺口、纳卫尔-斯托可方程、BSD猜想。这六个问题都被悬赏一百万美元。
神经网络的发展数学上贡献一直不多,神经网络内部的黑盒化使得数学家们无能为力。几何大师丘成桐就对此颇为不满。反而在模拟脑结构上一直有很多进步。脑科学的对神经网络的发展反而起到积极作用。
历史上人工智能曾经出现过三次浪潮,但每次都是黯然退场。1956年开始,1980年,千禧年左右。每当人们抱着极大的希望去畅想未来如果机器有了意识怎么办,亦或以为找到了上帝造物的钥匙时,科学家们很快在商业的吹嘘中冷静下来,意识到事情远没有想象中那么简单。
当今世界AI如火如荼,也的确取得了不错的成绩,比如无人驾驶,以及语音识别、图像识别等,但这得益于几个应用科学的发展。一是芯片计算能力的提高,算法的核心没有变,改一改模型,加几个trick,调一调参数,总能获得一些好的结果,更重要的是以前在实验室环境下的算法得以产品化,带给每个终端用户;二是传感器和通信技术的发展,现在的确能获得更快、更准、更多的数据用来运算,提高模型进度。我们用svm算法的时候,它有一个极好的统计特征,就是对小样本的适应性好,大数据的今天svm算法几乎没人提起;三是分布式技术的发展,让芯片的计算能力通过集群方式进一步提高,比如alphaGo采用分布式架构,算力强劲,cpu核心甚至能达到1920个,得以让神经网络的层次变得更高,深度学习得以应用。
然而,这一切都是短暂的欢愉,数学理论停滞不前,暂时无法从根本上解决这些问题。只能等待应用科学的发展,一步一个脚印的前行。只是在这之前,人类对AI的狂热是否还在。
网友评论