美文网首页
深度学习讲稿(15)

深度学习讲稿(15)

作者: 山岳之心 | 来源:发表于2021-02-09 17:48 被阅读0次

3.11* 一个困难的插曲

需要注意的是,神经网络下的深度学习,很多时候使用的激活函数虽然是非线性的,但实际参数数目和线性映射是一样的。这样的非线性映射默认多项式映射源自于线性映射,即这种非线性映射实际上的核心还是线性映射。

虽然目前的神经网络已经十分强大。但是算法根源并没有太多的进步,虽然参数拟合以及更多的神经节点可以弥补一部分不足,但过拟合以及“只见树叶不见森林”的弱点仍然十分明显。所以现在很多生成对抗算法能够欺骗神经网络,甚至让神经网络得出人类看来是极为愚蠢的错误预测。

要让神经网络更加强大,其实在映射的算法根源就应该重新设计。这一点很多计算机科学家都已经认识到了。多项式非线性映射应该要真正独立发挥其作用而不是简单地使用线性映射的单参数推广。

比如:特征 x_1, x_2, x_3 映射到隐藏层 A_1 的映射函数是:f(x_1,x_2,x_3) = \frac{1}{1+e^{-\alpha_{11} x_1-\alpha_{12} x_2 -\alpha_{13} x_3 -\beta_1}}\quad (3.6) 这是一个典型的sigmoid映射,它实际上也是一个线性参数映射。这个映射的核心是:
k(\alpha_1,\beta_1, x) = \alpha_{11} x_1+\alpha_{12} x_2 +\alpha_{13} x_3 +\beta_1 \quad (3.7)
它是一个线性函数。对于每一个特征,都有唯一的参数与之相乘。比如\alpha_{11} x_1 。 这种类型的映射叫做单参数映射。(3.6)式就是一个典型的单参数映射。

什么是多项式映射呢?

比如如下的一个映射:f(x_1,x_2) = a_0 + a_1 x_1 + a_2 x_2 + a_{11} x_1^2 +a_{22} x_2^2 + a_{12}x_1 x_2\quad (3.8) 它就是一个齐次二项式映射,其中所有的系数都是独立的,也即彼此之间没有内在的联系。

这样的映射自由度极大,带来的参数空间维数很高,像上面的例子中的参数空间有6维,如果使用单参数映射,则最多只有3维。但它也有好处,它对特征的耦合限制很高,最高次幂只限制到二阶。在这种情况下,它会忽略所有的高阶修正,虽然参数变多了,但它不容易造成算法的过拟合。

实际上,如果定义对称多项式如下:p_1 = x_1 + x_2\quad p_2 = x_1^2 + x_2^2\quad p_{11} = x_1x_2\quad(3.9) 那么到二阶对称多项式的映射可以写成:f(x_1,x_2) = a_0 + a_1 p_1 + a_2 p_2 + a_{11} p_{11}\quad (3.10) 它关于x_1,x_2 是交换对称的。这样的映射参数为4维,正好处于单参数映射和齐次多项式映射的中间。它兼具两者的优势,既不会过拟合,也不会参数爆炸。它预设了拟合的对象中有一定的对称结构,所以它的拟合速率会非常快。各方面来看,对称多项式映射是比较好的算法映射。

本节的讨论涉及到很多前沿的算法研究,如果觉得深奥难懂,可以暂时略过。但始终需要记住一点,目前的神经网络算法是非常初等和简单的,它的强大来自于数据量和算力的膨胀,而不是算法的先进。

相关文章

  • 深度学习讲稿(15)

    3.11* 一个困难的插曲 需要注意的是,神经网络下的深度学习,很多时候使用的激活函数虽然是非线性的,但实际参数数...

  • 深度学习讲稿(2)

    1.4 深度学习的当前应用 目前,深度学习已经和商业结合得非常多。这个算法本身已经深刻地改变了人类社会,而且在未来...

  • 深度学习讲稿(1)

    深度学习 I. 从AlphaGo谈起 大家听说过2015年10月, 英国DeepMind设计的人工智能AlphaG...

  • 深度学习讲稿(4)

    第2章: 基本概念 本章主要内容: 什么是深度学习、机器学习和人工智能? 什么是参数模型和非参数模型? 什么是监督...

  • 深度学习讲稿(5)

    2.3 监督机器学习 监督学习对数据集进行转换 监督学习是一种将一个数据集转换成另一个数据集的方法。例如,如果你有...

  • 深度学习讲稿(7)

    2.6 监督参数学习 简化描述:使用旋钮进行试错学习 监督参数学习机是一台具有固定数量的旋钮(参数)的机器,通过转...

  • 深度学习讲稿(6)

    2.5 参数学习和非参数学习 简化表述:试错学习 VS. 计数和概率。前面谈的内容将所有的机器学习算法分成两组:有...

  • 深度学习讲稿(3)

    1.5 准备工作 安装jupyter Notebook 和 Numpy Python 库强烈建议安装VScode...

  • 深度学习讲稿(8)

    2.7 无监督参数学习 无监督参数学习本质上是对数据进行分类,但是在数据分类之前已经对该数据有一定的标记。比如淘金...

  • 深度学习讲稿(25)

    5.3 随机梯度下降法 我们首先来看随机梯度下降法的运算顺序。前面我们已经讲了这种算法的学习逻辑。它对整个数据集要...

网友评论

      本文标题:深度学习讲稿(15)

      本文链接:https://www.haomeiwen.com/subject/kbjcxltx.html