美文网首页
第五天、代价函数、过拟合、优化器

第五天、代价函数、过拟合、优化器

作者: 幽并游侠儿_1425 | 来源:发表于2018-07-21 21:20 被阅读325次

一、二次代价函数

y代表实际值,其实就是label。y-a即误差,误差的平方和除以样本数。

第二个公式是表示只有一个样本时的代价函数。σ()是激活函数,输出前需要经过一个激活函数。W是权值,X是上一层的信号值,b是偏置值,最终得到z,z是信号的总和。

第一个式子:对w权值求偏导;(复合函数求偏导)

第二个式子:对b偏置值求偏导。

其中,z表示神经元的输入,sigma表示激活函数。w和b的梯度跟激活函数的梯度成正比,w和b的大小天正得越快,训练收敛得越快。

sigmoid函数即S形函数,值域为[0,1]。在B点出现梯度消失。

假设我们的目标是收敛到1,A点的值为0.82离目标比较远,梯度比较大,权值调整比较大。B的值为0.98离目标比较近,梯度比较小,权值调整比较小。调整方案合理。

假设我们的目标是收敛到0,A点的值为0.82离目标比较远,梯度比较大,权值调整比较大,调整方案合理。B的值为0.98,梯度比较小,权值调整比较小,调整方案不合理。

二、交叉熵代价函数

策略更加合理,故相比于二次代价函数,模型收敛更快。

三、对数似然代价函数

与softmax函数搭配使用。softmax函数是将数值转化为概率。

策略更加合理,故相比于二次代价函数,模型收敛更快。

四、优化代价函数的实战训练

"ctrl+?"组合键进行多行的注释。

第四天的最后一段代码中,更改这个部分。

如果不加tf.reduce_mean(),则准确率很低。

迭代结果:

迭代三次,准确率就达到了90%以上。使用二次代价函数时(见第四天的笔记),需要迭代7次准确率才能达到90%以上。

五、过拟合及优化

过拟合意味着,曲线虽然经过了所有的样本点,但是对于新的样本点,过拟合曲线完全不经过该新的样本点,且相差很大。对于正确拟合的情况,新的样本点会落在正确拟合的曲线上。

防止过拟合的方法:

(1)增加数据集

(2)正则化方法:在代价函数后加一个正则项。

C0为之前的代价函数,如二次代价函数等。lamda为系数,用于调节正则化的权重。

(3)Dropout:在迭代过程中,使得部分神经元不工作。

连接一个神经元的权值都是0(或者很小)的话,这个神经元可以认为是不存在的。这样就减小了网络的复杂程度。

六、Dropout代码

一般出现过拟合是因为网络模型过于复杂,已知的数据公式太少导致的

之前构建神经网络时的初始化的方式都是初始化为0,这并不是一种很好的初始化的方式。

W = tf.Variable(tf.truncated_normal([784,10],stddev=0.1)) #权值

b = tf.Variable(tf.zeros([2000])+0.1)

在码代码过程中遇到的问题:

keep_prob这个变量报错:NameError: name 'keep_prob' is not defined。

原因:应该先定义占位符,说明清楚变量类型。

keep_prob = tf.placeholder(tf.float32)

代码如下:代码中定义了多层隐藏层,为了出现过拟合。

需要跑很多时间。结果如下:

其中train_acc是训练集的准确度,意义不大;重点关注还是test_acc即测试集的准确度。

发现test_acc和train_acc相差较大。

我们把训练集的keep_prob改成0.7,计算准确率部分的test_acc和train_acc中的keep_prob不变,仍然为1。代码如下:

可以从结果上看到,使用了drop_out之后,虽然收敛速度变慢,但是test_acc和train_acc非常接近。未使用drop_out前,test_acc和train_acc相差很大。

过拟合:模型运用在训练数据集时效果很好,但是用于新的测试样本时效果不好,偏差较大。

当训练样本量很少而测试样本量很大的时候,很容易出现过拟合。这时候就需要用到drop_out。

七、Optimizer

tensorflow中一共有如下几种optimizer:

下图为一个梯度下降法的示意图:

W:要训练的参数

J(W):代价函数

即代价函数对W求导

SGD:随机梯度下降法

Momentum:

NAG(Nesterov acclerated gradient):

Adagrad:

基于随机梯度下降法。

观察公式,比如抽到的狗的照片越多,分母越大,学习率越小。

RMSprop:

RMS是均方根的缩写。(Root Mean Square)

Adadelta:

Adam:

更新参数的部分跟Adadelta和RMS类似。

各个算法的对比见下文中的动图:里面的GIF图非常有意思。

https://zhuanlan.zhihu.com/p/32626442

八、优化器在TensorFlow中的应用

使用的代码基于交叉熵时的代码。

#train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss) #0.2是学习率

train_step = tf.train.AdadeltaOptimizer(1e-2).minimize(loss)

相关文章

  • Tensorflow(3)

    优化MNIST分类简单版本二次代价函数VS交叉商代价函数防止过拟合 1. 二次代价函数 VS 交叉商代价函数 1...

  • 第五天、代价函数、过拟合、优化器

    一、二次代价函数 y代表实际值,其实就是label。y-a即误差,误差的平方和除以样本数。 第二个公式是表示只有一...

  • ml-代价函数

    目标:拟合逻辑回归模型的参数通过定义用来拟合参数的优化目标,即:代价函数 但是将代入得到的代价函数是一个非凸函数(...

  • 哲哲的ML笔记(十二:逻辑回归中的代价函数)

    代价函数 要定义用来拟合参数的优化目标或者叫代价函数 对于线性回归模型,我们定义的代价函数是所有模型误差的平方和。...

  • TensorFlow从头迈步W2.4--逻辑回归(附实例Demo

    1.Tensorflow的使用:先罗列,后操作(损失函数->优化器->训练函数) 2.使用优化器的方法来优化代价函...

  • TF - 代价函数和过拟合

    二次代价函数(quadratic cost) 其中,C表示代价函数,x表示样本,y表示实际值,a表示输出值,n表示...

  • pytorch中多种优化器性能比较

    此文章使用Pytorch进行多种优化器的性能比较,构建两层神经网络进行函数的拟合,使用不同的优化器进行优化,具体代...

  • 逻辑回归

    一.代价函数的理解 假设模型(函数): 模型(函数)参数:,例如: 参数的设定对模型拟合程度(拟合真实情况)起到决...

  • Logistic回归

    目的:寻找一个非线性函数Sigmoid的最佳拟合参数,求解过程由最优化算法来完成。 优点:计算代价不高,易于理解和...

  • Intel-ML笔记02 训练集分割验证&线性规划

    欠拟合(Underfitting)和过拟合(Overfitting) 欠拟合:拟合函数与训练集误差较大过拟合:拟合...

网友评论

      本文标题:第五天、代价函数、过拟合、优化器

      本文链接:https://www.haomeiwen.com/subject/zanrpftx.html