最近几年,机器学习创造了一个又一个的奇迹。在某些方面,机器人已经超越了人类太多。很多人认为机器学习是解决一切问题的万能钥匙。很多人,包括我的一些朋友,都认为深度学习会对现在的金融市场产生深远的影响。甚至认为,机器人可以自己设计出能够打败市场的万能策略。事实上,在机器学习蓬勃发展的这两年,数学界和基础科学学界的进展并没有出现哪怕一项由机器学习完成的研究。同样,也没有出现一个圣杯策略能够打败市场(或许有,但是不为人知。)。
在欢呼拥抱新技术的同时,我们应该深入了解一下何谓机器学习。所有的机器学习,包括现在的DeepMind zero(给定规则,不需要训练集的一种自我迭代进化的算法。),本质上都是递归迭代算法。这些算法要解决的问题本质上都是可以通过线性化来解决的。在物理上,这些问题可以被称为微扰问题。但凡微扰问题,总是可以用逼近,迭代的办法来获得更准确的结果。
我虽然也认同机器学习的潜力无限。但是对类似递归学习的算法的能力持相当怀疑的态度。所谓递归,很难避免未来函数。完全前置递归的算法又会落入过度拟合的圈套。
记得以前读研时期,一个同学是做非线性摄动分析的,用的算法就是各种递归,他的口头禅是,只要你告诉我答案,我就可以拟合出来!可想而知算法的可靠性。
当然,现实中很多对象满足递归算法的。原因是因为自然界太多的自相似结构。说的数学一点就是我们的现实世界实际上有很多的对称性。这些对称性的存在使得很多东西,比如蛋白质折叠,遗传编码使用这种递归算法有效而精确。而金融,恰恰是没有对称性的高度非线性的系统。妄图从一个"聪明的"递归算法预测结果是违反统计学原则的。
物理学上也曾经发生过很多次这种所谓的大统一的欢呼,认为物理学走到了尽头,可以用理论解释所有的现象。结果不过是人类自身的过度自负而已。现实是研究的越深入,未知的越多。
机器学习是很牛,但是要说它能够预测金融,只是一个笑话而已。不过是一些人的自负和营销而已。当年诺奖得主scholes号称自己的理论解决了金融衍生品定价问题。结果是他管理的长期资本基金破产。这个几乎称不上"统一"的耳光还没过去几年。
很多人对于卷积神经网络很看好(打败柯洁的深度学习就是用的这种算法)。其实还不如说是被fancy的名词欺骗。卷积是一种很学院化的的说法,其实生活中它很常见。比如你走路一千步不会感到脚底难受,但是你连续走十万步,你的脚底肯定都是血泡。这就是卷积效应。很长时间内的连续刺激导致的结果就是卷积效应。
而神经网络,就是由一个又一个的计算层叠加起来的计算机。它会对训练数据进行计算,找到统计学上所谓的最概然路径。打个比方,在地形复杂的树林里找到一条不撞树的最短的穿越树林的路径就是一种神经网络算法。而且是一种卷积神经网络算法。
这样的算法对于走过的路径是极端高效的,对于相似的未来的路径也是很靠谱的。但是如果外部环境发生变化,(金融市场是外部环境经常变化的系统),这种算法必须要随时修改自己的参数来拟合路径。那就没有任何的可信度了。
但是我不是反对机器学习,我深信机器学习是未来大势所趋。而且也是科学的研究方法。我反对的是没有深入研究的滥用深度学习。滥用比伪科学还可怕。因为它是欺骗和误导。深度学习对于资产管理,标的组合,策略组合的最优化是有很大的作用的。从它的出发点来讲,它就是要找到一种最优化的组合,实现最大的利益。它不适合也绝不应该去用作开发策略,预测市场。它适合的是对已有的大量策略,标的,资产组合的最优化组合。仅此而已。
在算法没有发生根本性的革命之前,机器学习其实还是太过年轻稚嫩了点。而要研究一个新算法,实在不是容易的事情。人类发展到现在,能够计算的几种算法都是围绕着微扰,摄动打转。基本上属于泰勒展开的范畴。一言以敝之,用逼近的办法来计算。
但是,学过数学的人都知道,逼近法对于光滑数据是很有效的。碰上比如处处连续处处不可微的函数,那逼近法只能扑街了。你想想,要用逼近法来预测金融的数据,这显然是在用逼近法研究一个处处连续处处不可微的问题。这要是能够成功,那数学家就得全体自杀了。
客观的说机器学习没有那么神奇,他只是在这个缺乏奇迹的年代爆发出来的一个引人注意的现象级的研究方向。就像当年弦理论在理论物理界掀起的一段狂潮一样,高潮终将褪去,到时候可以看到那些自以为弄潮的人们在裸泳。
我们要机器学习,甚至要深入研究它。但是绝不能迷信它就是一切的万能钥匙。它用在合适的地方可以产生巨大的效率。用在不合适的地方就是致命的毒药。
网友评论