好的模型,为什么非得是人能够理解的?
有的人,对深度学习(deep learning)模型,很不以为然。
说根本没有搞清楚因果关系,只是拿出相关性来说事儿。
尤其是模型无法清楚解释——即不能像牛顿力学一样,用简单优美的数学公式刻画。
奇怪,为什么模型一定要简单到清清楚楚?
复杂系统已经被研究了这么多年,却还有人恨不得回归前信息化时代。
总不能因为你只学过文科班高中物理,就得让全世界的科学研究退回到1800年之前吧?
人是通过大脑,对信息进行加工的。
连这个加工工具,至今都没有完全搞清楚,不是吗?
那为何要对机器们在大数据上,辛辛苦苦构造出的模型,如此苛刻?
一个模型,可以准确做分类预测。而且反复在新的、没有训练的数据上尝试过,好用,那不就好了?
虽然不能排除纯是因为运气,但是这种可能概率很小。
好的模型,为什么非得是人能够理解的?
人对于宏观世界,至今缺乏理解。大爆炸只是假说。
人对于微观世界,同样缺乏理解。什么叫“测不准”来着?
人对于暗物质,意见不一。找不到证据,成为了“最好的证据”。
人连时间是什么,还说不清楚。要不然哪儿来的这么多穿越剧?
那凭什么,一个好用的模型,只是因为层数多、结构复杂、无法用数学语言解释给听众,就被鄙视?
其实原因也不难理解。
都在于人类社会协作中的共识。
大家都认同的,很有价值。
例如美元、黄金和一线城市的房地产。
极少数人才认同的,价值没有这么高。
例如2012年的比特币。
大部分人都无法理解,自然难以达成共识。
这时候有人出来批评复杂模型,看不懂的人就觉得很爽。
看,我不理解的东西,就一定是不靠谱的,哈哈。
站队的结果,就是大部分连讨论对象是啥,都没有搞清楚的人,跟随主流意见,人云亦云而已。
然而……
共识是会发生变化的,即所谓“范式转移”嘛。
网友评论