美文网首页
tensorflow使用BN—Batch Normalizati

tensorflow使用BN—Batch Normalizati

作者: 小王子威威 | 来源:发表于2017-10-20 18:06 被阅读68次

注意:不要随便加BN,有些问题加了后会导致loss变大。

看一下tf的实现,加到卷积后面和全连接层后面都可:

(1)

训练的时候:is_training为True。


对于卷积,x:[bathc,height,width,depth]

对于卷积,我们要feature map中共享γi和βi,所以γ,β的维度是[depth]

另外,这里有使用batch

normalization的示例:martin-gorner/tensorflow-mnist-tutorial

还可以参考:resnet:https://github.com/MachineLP/tensorflow-resnet

还可以看大师之作:CNN和RNN中如何引入BatchNorm

训练好的模型加载:tensorflow中batch

normalization的用法

相关文章

网友评论

      本文标题:tensorflow使用BN—Batch Normalizati

      本文链接:https://www.haomeiwen.com/subject/efgvuxtx.html