美文网首页我爱编程
2018-04-07 深度学习训练中 超参数调整 笔记

2018-04-07 深度学习训练中 超参数调整 笔记

作者: vghjjgdfg | 来源:发表于2018-04-07 13:31 被阅读163次

超参数

1 学习率  初始值0.1,   如何调整学习率,准确率不再下降,就减小学习率。准确率下降太慢,就增大学习率

2 mini-batch   大小,  minibatch的size太大就收敛快,计算机内存不足,但是容易陷入局部优化;太小,就是收敛慢,但是不容易陷入局部优化。合适的值是32-256

3 训练迭代epoch的次数  是一直训练下去  还是适当停止  

SessionRunHook最近版本的 TensorFlow 废弃了 Monitor 函数,而采用 SessionRunHooks 。SessionRunHook 是 tf.train 不断发展的一部分,往后似乎将是实施早期停止的一个适当位置。

到本文写作之时,tf.train 的训练钩子函数 中已存在两个预定义的停止 Monitor 函数。

StopAtStepHook:用于在特定步数之后要求停止训练的 Monitor 函数

NanTensorHook:监控损失并在遇到 NaN 损失时停止训练的 Monitor 函数

 4 隐藏层数量,第一个隐藏层,应该大于输入单元数量1,即input单元数量+1

5 隐藏层的层数,三层为佳 ,不过卷积神经网络不一样,层数越多越好

相关文章

  • 2018-04-07 深度学习训练中 超参数调整 笔记

    超参数 1 学习率 初始值0.1, 如何调整学习率,准确率不再下降,就减小学习率。准确率下降太慢,就增大学习率 2...

  • 训练集/验证集/测试集的区别

    深度学习模型的参数分为普通参数和超参数: 普通参数:在模型训练的过程中可以被梯度下降所更新的,也就是训练集所更新的...

  • 超参数调整

    什么是超参数 模型参数通常是有数据来驱动调整。 超参数不需要数据来驱动,而是在训练前或者训练中人为的进行调整的参数...

  • 吴恩达深度学习(三)

    改进深度神经网络:超参数调整,正则化和优化 Week 1 第一课:训练/开发/测试集 本周我们将学习如何在实际应用...

  • 【DL碎片4】深度学习中的的超参数调节

    深度学习中的的超参数调节 我们平时一直都在说“调参、调参”,但实际上,不是调“参数”,而是调“超参数”。 一、参数...

  • 深度学习在移动端应用

    深度学习预测过程 深度学习训练过程 根据误差调解全中参数,直到收敛。 【图4】 落地方案 服务端训练 + 移动端识...

  • 天天随手记,持续更新中(2018-05-02)

    超参数hyperparameters 超参数通过控制机器学习算法来调整模型以至于适应数据,controls how...

  • 深度学习网络调参技巧-资料汇总

    深度模型超参数量很多,如何调试这些参数需要长期经验的积累。下面,总结了相关的调参技巧方面的文章: 《神经网络训练中...

  • 深度网络调参

    重要的超参数 深度学习网络有很多超参数,下面列出了一些比较重要,常常需要调节的超参数。 最重要学习率 较重要min...

  • 如何让你的Python项目变得更优雅

    yacs--Python项目配置系统 最近深度学习的项目准备上线,但是做深度学习的小伙伴都会被网络中的众多超参数弄...

网友评论

    本文标题:2018-04-07 深度学习训练中 超参数调整 笔记

    本文链接:https://www.haomeiwen.com/subject/qmcyhftx.html