美文网首页
深度学习迭代多少次才是个头?我用实验告诉你

深度学习迭代多少次才是个头?我用实验告诉你

作者: 科技州与数据州 | 来源:发表于2020-08-16 18:19 被阅读0次

深度学习,比如卷积神经网络(CNN)要完成训练任务,需要一遍又一遍的学习。一般来说,学习次数越多,学习效果越好。

那到底要学习多少次才是个头呢?我陷入了思考。

01 是不是误差越小,学习效果就越好?

比如前面研究的自编码去噪,见前文《地震无监督自编码降噪怎样做出效果,我想清楚了几个关键问题 》。我训练的噪声图片是这样的:

那没有噪声的图片是这样的:

接下来就开始不同迭代的训练。20次迭代的训练误差的结果见图:

结果就是LOSS一路下降,也没有看到头。

那预测的效果是怎样的呢?来看看1个迭代、5个迭代、10个迭代、15个迭代和20个迭代的去噪效果。

就我们肉眼也可以看到,似乎从第10个迭代后,去噪效果反而变差了。我们并不能简单认为训练误差越小,预测的效果就越好。

02 真正的训练标准是看预测的效果

我们深度的目标就是要神经网络出色的完成任务,希望预测的结果接近我们想要的效果。

比如前面的降噪预测,可以用PSNR指标来进行衡量。

PSNR是“Peak Signal to Noise Ratio”的缩写,即峰值信噪比,是一种评价图像的客观标准。简单说,就是PSNR越大越好。

那刚才几次迭代的PSNR值是多少呢?

上面结果也验证了视觉观测结果,最好的训练效果是在10次迭代和15次迭代之间,再往后效果反而会越来越差。

03 小结

所以深度学习到底迭代多少次才是头呢?就看预测的效果什么时候最好。

当然在效果比较接近的情况下,也要考虑到训练时间,耗费资源等其它成本因素。比如训练50次和100次的效果都差不多,但训练100次的时间远超50次,是不是训练50次就足够了呢?

如果喜欢请点赞,或关注我交流。

相关文章

网友评论

      本文标题:深度学习迭代多少次才是个头?我用实验告诉你

      本文链接:https://www.haomeiwen.com/subject/wrqxjktx.html