美文网首页
3.2 损失函数和优化:优化

3.2 损失函数和优化:优化

作者: 做只小考拉 | 来源:发表于2018-09-07 21:00 被阅读49次

计算函数的梯度,用这些题都迭代,更新参数向量。
在计算机上,计算梯度的一个有效方法是有限差分法
设想W是现在的向量参数,它给了我们当前损失可能是1.25,目标是计算梯度dW,它是和W相同维数的向量梯度上每个元素都会告诉我们在相关方向上每移动一小步损失变化多少,逐维进行一些微小变化,计算有限差分,此后将被改变的那一维数据复原,再在下一维重复此操作。但是这样计算会特别慢,而且结果也不好。

image.png image.png 在此,幸运的是学过微积分,因而我们只需要写下损失的表达式,然后实用微积分。比起有限差分对它进行分析会更有效率。一是,它会非常精确,二是只需要计算一个表达式,所以会很快。 image.png

梯度下降算法

在梯度下降算法中,我们首先初始化W为随机值,当为真时 我们计算损失和梯度,然后像梯度相反的方向更新权重值。梯度是指向函数的最大增加方向,所以梯度减小是指向函数最大减小方向,所以我们向梯度减小的方向前进一小步,然后一直重复,最后网络将会收敛。每一步的梯度决定下一步的方向。


image.png

但是步长是一个超参数,这个步长也被叫做学习率。它可能是需要设定的最重要的一个超参数。

已经定义了误差函数来计算我们的分类器在训练样本中的每一步表现有多糟,设定数据集的总误差是整个训练集误差的平均值,但是实际中数据集N可能非常大,计算可能会很慢。误差函数的梯度值是每个单项误差梯度值的总和所以如果在此计算梯度,就需要迭代整个数据集,如果N很大,就会变得非常慢,要很长很长时间才能更新一次W,所以实际中往往使用随机梯度下降法

image.png

随机梯度下降法

该算法并非计算整个训练集的误差和梯度值,而是在每一次迭代中选取一小部分训练样本成为minibatch,按照惯例这里都取2的幂次方,如32,64,128等,然后利用这一minibatch来估算误差总和以及误差梯度。
该算法即为,为真时,随机取一些minibatch数据评估minibatch的误差值和梯度,然后更新各个参数,甚至基于这一误差值的估计以及梯度的估计。

图像的特征

之前讲过的线性分类器是直接将图片的原始像素直接传入线性分类器,但是由于多模态的问题,这样做表现似乎不太好。
所以当用深度神经网络大规模运用前,常使用两步走策略:首先,计算图片的特征代表;然后 将不同的特征向量合到一块,得到图像的特征表述。
现在这些特征表述会变成输入源,而不是图片像素,传入分类器。

用特征表述的动机?就像下图所示,无法用一个线性决策边界将红点从蓝点中间分开,但是如果采用一个特征转换,该例中运用极坐标转换,我们得到转换特征,就可以将复杂的数据集变成线性可分的,由此可以由线性分类器正确分类。(这里重要的是找到正确的转换特征) image.png

相关文章

  • 3.2 损失函数和优化:优化

    计算函数的梯度,用这些题都迭代,更新参数向量。在计算机上,计算梯度的一个有效方法是有限差分法。设想W是现在的向量参...

  • 各机器学习模型的目标函数

    目标函数和损失函数的区别 损失函数:模型拟合的越好,损失应该越小; 目标函数:优化的目标,可以是“损失函数”或者“...

  • 深度学习之——优化器

    一、什么是优化器 优化器或者优化算法,是通过训练优化参数,来最小化(最大化)损失函数。损失函数是用来计算测试集中目...

  • 凸优化,梯度下降和优化算法进阶

    1. 凸优化 优化方法目标:训练集损失函数值深度学习目标:测试集损失函数值(泛化性) 1.1 优化在深度学习中的挑...

  • 06.神经网络学习-2

    神经网络的优化目标 数学目标 不论损失函数是什么形式,神经网络的优化目标都是使得损失函数最小化。对于均方误差函数和...

  • 深度学习中的各种优化算法

    优化算法的目的是为了优化损失函数,损失函数衡量的是模型与数据的偏离程度,主要思想是计算损失函数关于参数的导数(多个...

  • 数据挖掘算法基础—损失函数的说明

    1.关于损失函数的说明 损失函数是数据挖掘优化的基础,基本上对损失函数求个偏导,也就是我们说的梯度,就是优化目标函...

  • 线性分类器损失函数与最优化(下)

    最优化 Optimization 损失函数可以量化某个具体权重集W的质量。而最优化的目标就是找到能够最小化损失函数...

  • tensorflow 实现一个Softmax Regressio

    定义cross-entropy(损失函数) 优化算法

  • 损失函数和优化-损失函数(1)

    写在前面 这一节的内容比较多,仔细理解以及整理起来也着实相较之前多费了些力气,但这些力气都花得值得。 像这节中提到...

网友评论

      本文标题:3.2 损失函数和优化:优化

      本文链接:https://www.haomeiwen.com/subject/vkncgftx.html