万维钢老师的《精英日课3》有几篇很有意思的文章,简单讲解了“深度学习”算法的一些概念原理。
这个技术非常有意思,因为就在我们“看不到”的很多地方已经在大量使用这种算法,我们开始发现各种设备软件更加“智能”了,手机拍摄的时候甚至可以识别非常多的人脸,而仅仅是几年前,识别多个人脸的技术只有专业单反才能看到。
说到这里不得不吐槽一下百度搜索,当全世界都在更加精准的给你提供“识别”服务的时候,百度搜索提供给你的是大量“百家号”内容,内容质量无法直视。
话说回来,其实从2012年开始,“深度学习”让计算机识别图形的能力突然变得无比强大,而目前已经超过了人类。
其实我们想想,我们人类是怎么识别猫的,比如说上图,如果问你上图有没有猫呢?你肯定会说,这太简单了!所有人都知道猫长什么样子。
但如果让你描述一只猫具体是长什么样的?你可能会说它有耳朵、胡须、尾巴等等,但这样形容远远不够,因为狗也有这些特征,猫的种类同样千奇百怪,但人偏偏就是可以很轻易的识别。
这是是一种非常奇怪的感觉,明明一眼就可以分别出来猫,但就是说不清楚是怎么看出来的。
** 这是因为大脑是由神经元组成的,大脑是一个强大的模式识别器,并且可以通过训练提高。**
那计算机是不是也可以学习一下呢?
于是有了简单的神经网络
简单神经网络那什么叫“深度学习”呢?最简单的理解,就是中间有不止一层隐藏层神经元的神经网络计算。
“深度”字面意思就是层次比较“深”。
右边是“深度学习”神经网络 识别训练库 识别图从简单的数字,到复杂的图形,其中有一个重要的突破技术是“卷积网络”算法。
卷积网络 卷积网络分层结构卷积网络简单来说,就是在最基本的像素到最终识别的物体之间加入来几个逻辑层——也就是卷积层。
“卷积”是一种数学操作,可以理解成“过滤”,或者叫“滤波”,意思是从细致的信号中识别尺度更大一点的结构。
每一个卷积层识别一种特定规模的图形模式,然后后面一层只要在前面一层的基础上进行识别,这就解决了“看什么”和“往哪看”的问题。
深度学习算法就像一个凭借高密度经验而成就的高手,万老师在文中反问这种超强经验的深度学习算法是否真的会有创造力?
这让我想到了作为一个人类,从亿万年的尺度来看,也一样是“经验”的产物,时间淘汰掉了绝大部分“不适应环境”的“算法”,只不过发展到如今,人类大脑的“算法”已经复杂到我们无法想象的地步。
如果说计算机无法真正实现“创造”,那也只是因为人类给予其成长的“信息”就是不完备的,而就目前的简单信息处理,人脑也已经无法精准表达计算机是如何“识别”的。
惊喜=熟悉+意外
创新=旧事物+新组合
虽然目前距离计算机懂得“惊喜”还很远很远,但这个很远不是时间上的概念,而是无可预测的意思。
网友评论