5.深度学习算法框架总览

作者: TensorFlow开发者 | 来源:发表于2018-11-10 21:58 被阅读11次

    深度学习一词,最早是在2006~2007年,由Geoffrey Hinton 在《Science》上发表的文章开始被提出和逐步兴起的。深度学习是在机器学习的基础上发展的,神经网络的层级比机器学习的多而复杂,算法也有了很大发展。

    算法的汇总,也是按照机器学习常用算法和深度学习常用算法进行分类的,算法基础分类:

    • 机器学习Machine Learning

    • 深度学习Deep Learning

    如下图:

    算法基础分类

    机器学习算法

    机器学习算法,可根据是监督学习还是非监督学习分为两大类。 机器学习算法分类层级如下:

    机器学习:机器学习算法分类层级 ↑

    在分类中,我们看到有神经网络结构,这个也是深度学习的根基。深度学习正是在机器学习的基础上发展的,区别在于深度学习的神经网络的层级比机器学习的多而复杂。

    正是受到生物学领域中的神经网络的启发,才有了今天机器学习、深度学习中的神经网络的结构。

    生物学领域神经网络中的单个神经元 ↑ 机器学习:2层神经网络 ↑ 深度学习:3层神经网络 ↑

    提示:在统计神经网络的层数时,通常是不把输入层Input Layer计算在内的。这也是上面两个神经网络图中明明是3层、4层却分别被标记为2层、3层的神经网络的原因。

    深度学习算法

    正如深度学习是在机器学习的基础上发展的,其算法分类也可根据是监督学习还是非监督学习分为两大类。

    深度学习:机器学习算法分类层级 ↑
    神经网络信息传递过程

    下图是一个3层的神经网络,其中:每一个⭕️代表一个神经元,也可以叫做神经节点、神经结点,每个神经元有一个偏置bias。每一条线,有一个权重weight。神经网络学习的目标:就是通过减少损失loss或cost,来确定权重和偏置。

    理论上,如果有足够多的隐藏层和足够大的训练集,则可以模拟出任何方程。

    通常,一层中的神经元经过加权求和,然后再经过非线性方程得到的结果转化为输出,或者作为下一层的输入。如下图所示:

    常用的激励函数↑

    注意:非线性方程,即是通常所说的激励函数。常见的激励函数:sigmoid函数、tanh函数、ReLu函数、SoftMax函数等等。激励函数各有各的优缺点,使用时要注意对学习效果的影响。激励函数的图像如下:

    常用的激励函数↑ 激励函数:sigmoid函数图像↑ 激励函数:tanh函数图像↑ 激励函数:ReLu函数图像↑

    小结

    本文对机器学习、深度学习算法先总览,脑海中有个整体的框架认识,每种算法不做展开。接下来会用TensorFlow框架学习,等后面学习过程中用到哪种算法再进行详细阐述。


    更多了解,可关注微信公众号:人人懂编程


    微信公众号:人人懂编程

    相关文章

      网友评论

        本文标题:5.深度学习算法框架总览

        本文链接:https://www.haomeiwen.com/subject/ixutfqtx.html