美文网首页
自编码器 AutoEnoder(AE)

自编码器 AutoEnoder(AE)

作者: 贰拾贰画生 | 来源:发表于2016-10-27 20:39 被阅读1153次

转载请注明出处 http://www.jianshu.com/p/dd0761a2fdfd
作者:@贰拾贰画生


自编码器(AE)与受限玻尔兹曼机(RBM)都可以用来对神经网络进行预训练(pre-training),这种预训练都是无监督的。只是它们的实现原理不同,AE是想让输出尽可能的等于输入,当然输入与输出维度是相同的,但是在中间隐藏层的维度小于输入维度,那么训练结束后,中间层低维的神经元就可以表示高维的输入,达到降维和特征提取的功能。如果激励函数是线性函数,且只有一层隐藏层,那AE与PCA有极为类似的效果。

例如如果我输入的是X,我们的AE网络结构是X->H->X‘,我们的目的是让X’尽可能的等于X(X‘与X有相同维度),这样训练出来的H就可以用来表示或重构X。

AE与RBM的预训练有什么用呢?

预训练的主要目的是为了给神经元之间的权重一个合理的初值,防止反向传播算法陷入局部最优。预训练结束后,在用数据集进行有监督的微调(fine-tune),就可以得到全局最优。

如果将AE应用于分类的话,是要将解码层去掉的。如果AE的网络结构是X->H->X',那么在预训练结束后要将最后一层去掉,换成其他网络结构,然后分类。比如我用mnist数据集进行分类,我加一个全连接层X->H->Y,H与Y是全连接,且Y是10个输出,然后我在用mnist进行微调。微调结束后,就可以用于分类了。

今天用Tensorflow实现了重构和分类两个功能,代码在此:https://github.com/youthpasses/autoencoder

我没有使用Tensorflow自带的mnist数据流文件,而是使用的本地的图片数据,README.md给出了mnist的网盘链接。
重构功能的网络结构是:784 -> 512 -> 256 -> 512 -> 784
分类功能的网络结构是:784 -> 512 -> 256 -> 10

贴一张重构的图:



重构的图片有些模糊,这是必然的。

相关文章

  • 自编码器 AutoEnoder(AE)

    转载请注明出处 http://www.jianshu.com/p/dd0761a2fdfd作者:@贰拾贰画生 自编...

  • DL之AE&SAE

    一个自动编码器AutoEncoder(AE) 原理:自编码器可以理解为一个试图去还原其原始输入的系统 图中,虚线蓝...

  • ME自修攻略1

    ME 全称:adobe media encoder参考 简称:媒体编码器 可与:PR、AE、AU、CA等adobe...

  • 自编码器AE,VAE

    从直觉的角度来阐述 可以用于压缩数据,或从有noisy或者损坏的数据中重建原始数据。 允许我们线性的差值,比如让一...

  • SpringBoot的HttpMessageConverter使

    推荐阅读:Feign-可插拔的HTTP编码器和解码器[https://www.jianshu.com/p/ae89...

  • 无监督的神经网络模型-自编码器

    自编码器(简称AE)是一种无监督的神经网络模型,最初的AE是一个三层的前馈神经网络结构,由输入层、隐藏层和输出层构...

  • (概率)PCA和(变分)自编码器

    1.介绍 主成分分析(PCA)和自编码器(AutoEncoders, AE)是无监督学习中的两种代表性方法。 PC...

  • POSITAL编码器

    POSITAL编码器 供应POSITAL编码器 德国POSITAL编码器 POSITAL编码器型号 上海开...

  • transformer再记(解码器)

    上一篇:transformer再记(编码器)解码器与编码器在细节上有差异。 编码器与解码器的连接:编码器通过处理输...

  • 2019-08-26

    ** 步长精度 ** ** 编码器精度 ** 其中 编码器轮直径 d=0.1m 编码器线数 n=1000 其他方法...

网友评论

      本文标题:自编码器 AutoEnoder(AE)

      本文链接:https://www.haomeiwen.com/subject/gjssuttx.html