美文网首页
tensorflow使用BN—Batch Normalizati

tensorflow使用BN—Batch Normalizati

作者: 小王子威威 | 来源:发表于2017-10-20 18:06 被阅读68次

    注意:不要随便加BN,有些问题加了后会导致loss变大。

    看一下tf的实现,加到卷积后面和全连接层后面都可:

    (1)

    训练的时候:is_training为True。


    对于卷积,x:[bathc,height,width,depth]

    对于卷积,我们要feature map中共享γi和βi,所以γ,β的维度是[depth]

    另外,这里有使用batch

    normalization的示例:martin-gorner/tensorflow-mnist-tutorial

    还可以参考:resnet:https://github.com/MachineLP/tensorflow-resnet

    还可以看大师之作:CNN和RNN中如何引入BatchNorm

    训练好的模型加载:tensorflow中batch

    normalization的用法

    相关文章

      网友评论

          本文标题:tensorflow使用BN—Batch Normalizati

          本文链接:https://www.haomeiwen.com/subject/efgvuxtx.html