tensorflow dropout用法

作者: 阿发贝塔伽马 | 来源:发表于2018-05-18 22:07 被阅读6次
         dropout(x, keep_prob, noise_shape=None, seed=None, name=None)
    
    • 函数作用就是使得矩阵x的一部分(概率大约为keep_prob)变为0,其余变为element/keep_prob,
    • noise_shape可以使得矩阵x一部分行全为0或者部分列全为0
    • 用在tensorflow中使得部分神经元随机为0不参与训练,如果算法过拟合了,可以试试这个办法。
    with tf.Session() as sess:
        d = tf.to_float(tf.reshape(tf.range(1,17),[4,4]))
        sess.run(tf.global_variables_initializer())
        print(sess.run(tf.shape(d)))
        print(sess.run(d[0]))
        
        # 矩阵有一半左右的元素变为element/0.5,其余为0
        dropout_a44 = tf.nn.dropout(d, 0.5, noise_shape = None)
        result_dropout_a44 = sess.run(dropout_a44)
        print(result_dropout_a44)
    
        # 行大小相同4,行同为0,或同不为0
        dropout_a41 = tf.nn.dropout(d, 0.5, noise_shape = [4,1])
        result_dropout_a41 = sess.run(dropout_a41)
        print(result_dropout_a41)
        
        # 列大小相同4,列同为0,或同不为0
        dropout_a24 = tf.nn.dropout(d, 0.5, noise_shape = [1,4])
        result_dropout_a24 = sess.run(dropout_a24)
        print(result_dropout_a24)
        #不相等的noise_shape只能为1
    

    相关文章

      网友评论

        本文标题:tensorflow dropout用法

        本文链接:https://www.haomeiwen.com/subject/xepndftx.html