维基百科对深度学习定于为‘一类通过多层非线性变换对高复杂性数据建模算法的合集’,因为深层神经网络是实现 ‘多层非线性变换’最常用的方法。所以在实际中基本上可以认为深度学习就是深层神经网络的代名词。深度学习有两个非常重要的特性——多层和非线性。
- 利用计算机巨大的储存空间和超高的运算速度,完成一些对人类非常困难的问题
- 对于人类觉得十分简单的问题,机器学习却很难的去解决
- 机器学习刚开始只是仿生学习,后来发现远远不足
- 通过分类问题(任务T) 提取训练数据(经验E)判断正确率(效果P)
- 深度学习解决的核心问题之一就是自动的将物体的特征组成更加复杂的特征,使用这些组合特征解决问题
- 机器学习领域分为自然语言处理,计算机视觉和语音识别等
- 深度学习领域主要是关注如果搭建智能的计算机系统,解决人工智能中遇到的问题,计算神经学则主要关注如何建立更准确的模型来模拟人类大脑的工作
- 人工智能 --> 机器学习 --> 深度学习 (由大到小,由广到精)
- 神经网络主要有: 卷积神经网络,循环神经网络
- 深度学习如今在图像识别,语音识别,音频处理,自然语言处理,机器人,生物信息处理,化学,计算机游戏,搜索引擎,网络广告投放,医学自动诊断和金融各大领域均有应用。
监督学习
是指有求知欲的学生从老师那里获取知识,老师提供对错提示,告知最终答案的学习过程使计算机获得泛化能力,是监督学习的最终目标
监督学习,在手写识别文字,声音处理,图像处理,垃圾邮件废了,拦截,网页检索,基因诊断及股票预测等各个方面
预测值数据的回归,预测分类标签的废了,预测顺序的排序
无监督学习
计算机在互联网中自动收集信息,并获取有用的信息,无监督学习不仅仅局限于解决像监督学习那样明确答案的问题,
无监督学习在人造卫星故障诊断,视频分析,社交网站分析和声音信号解析等方面大显身手,在数据可视化以及监督学习方法前处理工具方面,
也广泛的应用,这类机器学习最典型的任务是 聚类,异常检测等
强化学习
与监督学习类似,也是使计算机获得对没有学习过的问题作出正常答案的泛化能力为目标,在学习过程中,不设置示对错,告知最终答案的环节.如果针对在学习过程中不能从周围环境中获取任何信息,强化学习就变成无监督学习了
强化学习经常会用到回归,分类,聚类,和降维等机器学习算法
卷积神经网络
在研究猫脑皮层中用于局部敏感和方向选择的神经元时
发现其独特的网络结构可以有效的降低反馈神经网络的复杂性,继而提出了卷积神经网络
特别是在模式分类领域,由于该网络避免了图像的复杂前期处理,
可以直接输入原始图像,因而得到广泛应用
(用局部敏感机方向选择的神经元时)
(发现有独特网络结构。有效降低反馈复杂度)
(CNN 避免了图像复杂前期处理)
(可直接输入原始图像)
一般地,CNN的基本结构包括两层
特征提取层:
1.每个神经元的输入与前一层的局部接受域相连,并提取局部特征
2.一旦局部特征提取后,它与其他特征间的位置也随之确定下来
特征映射层:
1.网络的每个计算层多个特征映射组成,每个特征映射是一个平面,
2.平面上所有神经元的权值相等,特征映射结构采用影响数核小的
3.sigmoid函数作为卷积网络的激活函数,使特征映射具有位移不变性,
4.由一个映射面上的神经共享权值,因而减少了网络自由参数的个数
卷积神经网络中的每一个卷积层都会跟着一个用来求局部平均与二次提取的计算层,这种特有的两次特征
提取减少了特征分辨率
CNN主要用来识别位移、缩放及其他形式扭曲不变性的二维图形。
由于CNN的特征检测层通过训练数据进行学习,所以在使用CNN时,
避免了显示的特征抽取,而隐式地从训练数据中进行学习;
再者由于同一特征映射面上的神经元权值相同,
所以网络可以并行学习,这也是卷积网络相对于神经元彼此相连网络的一大优势。
卷积神经网络以其局部权值共享的特殊结构在语音识别和图像处理方面有着独特的优越性,其布局更接近于实际的生物神经网络,
权值共享降低了网络的复杂性,特别是多维输入向量的图像可以直接输入网络这一特点避免了特征提取和分类过程中数据重建的复杂度。
(用于位移,缩放及其他扭曲的不变形的二维图形)
(监测层通过训练进行学习)
(避免显示特征抽取,隐式地从训练中学习)
(由于同一特征映射面上的元权值相同)
(所以网络可以并行学习,,这也是卷积网络相对神经元彼此相连的一大优势)
(卷积神经网络以其具备权值共享特殊结构,在语音及图形方面有独特优越性,接近实际的生物神经网络)
(权值共享减低复杂性,特别是多维输入向量的图像可以直接输入,避免特征提取和分类过程中数据重建的复杂性)
网友评论