美文网首页
神经网络编码器的学习率问题

神经网络编码器的学习率问题

作者: 刘小白DOER | 来源:发表于2022-04-13 23:36 被阅读0次

    接着上一篇文章,鉴于神经网络编码器的性能无法达到重建的要求,笔者最开始是直接调节模型中间层的数量并增加隐藏层的层数,但是模型的性能依旧不满意。这几天笔者暂停了模型调整工作,将思路移到其他领域,给脑子放个假,昨晚睡觉前突然想到其中一种重要的参数-学习率lr。自学自用,有时真的会被关键点卡住,只能花时间精力慢慢的磨。

    编码器笔者是复用fashion-minst数据集,学习率也是保持它的原值未变,为1.5。但是针对笔者的语音重建任务和fashion-minst数据集存在差异性 ,那么学习率这么大训练可能已经发散,那么应该将学习率lr设置较低,才能收敛到最优解,但是时间就会较长,然后再根据实际情况再增加学习率。

        那么突然翻开以前学习的机器学习实战里面的说明,在遇到模型性能不满意时,应该怎么调整超参数呢?有个顺序可以作为参考:

1、首先学习率;

2、尝试使用另一个优化器;

3、尝试调整模型超参数(层数、每层神经元,激活函数类型等);

4、其他超参数(批处理大小)

    调节了一晚的学习率,每训练一个轮次就要10几分钟,电脑太次了。设置learning_rate=0.02,训练两个轮次,发现loss偏高(初始0.6934):loss: 0.6829 - val_loss: 0.6705 ,重建后的语音仍没有学习到重要的信息,还是噪声。如果将epochs加大,可能loss会小很多,但是计算时间将会成倍增加。

    迈出一步,待笔者有好的计算资源再调节吧。或者,笔者直接跳过,直接使用循环编码器,那就不需要裁剪语音到固定维度了。

    自动编码器encoder:裁剪语音到固定维度

    oneclassSVM:裁剪语音到固定维度,提取MFCCs特征并标准化

    那么循环编码器可以实现自由维度的判别,更加方便快捷但是模型较为更复杂、计算复杂度更高。

相关文章

  • 神经网络编码器的学习率问题

    接着上一篇文章,鉴于神经网络编码器的性能无法达到重建的要求,笔者最开始是直接调节模型中间层的数量并增加隐藏层的...

  • 地震无监督自编码降噪怎样做出效果,我想清楚了几个关键问题

    自编码器(autoencoder)是神经网络的一种,能够实现无监督的学习,解决了训练神经网络让人头痛的标签数据的问...

  • Autoencoder(自动编码器)

    Autoencoder算法(自编码器) Autoencoder算法是一种常见的基于神经网络的无监督学习降维算法。 ...

  • AutoEncoder - Keras

    自编码器是神经网络的一种,属于无监督学习,从输入层到隐层称为编码过程,从隐层到输出层称为解码过程。 自编码器是一种...

  • tensorflow笔记:4.2神经网络优化之学习率

    指数衰减学习率在训练神经网络时,需要设置学习率(learning rate)控制参数的更新速度。学习速率设置过小,...

  • 人工智能之深度学习——自编码器

    自编码器(auto-encoder)是一类执行无监督学习任务的神经网络结构,它的目的是学习一组数据的重新表达...

  • STL_10数据集处理

    自编码,又称自编码器(autoencoder),是神经网络的一种,经过训练后能尝试将输入复制到输出。自编码器...

  • TensorFlow学习02-AutoEncoder和MLP

    自编码器和多层感知机 整个神经网络的流程: 定义算法公式,也就是神经网络的forward时的计算定义loss,选定...

  • 神经网络:学习率

    本文主要讲解使用keras时关于学习率衰减的实现,目前是国外大牛的一篇文章,英文的,先消化,后续有时间在进行翻译。...

  • 2018-09-08 自编码器

    自编码器是能够在无监督的情况下学习输入数据的有效表示(叫做编码)的人工神经网络(即,训练集是未标记)。这些编码通常...

网友评论

      本文标题:神经网络编码器的学习率问题

      本文链接:https://www.haomeiwen.com/subject/bmkzsrtx.html