美文网首页
tensorflow接口研读constant_op

tensorflow接口研读constant_op

作者: 华夏意匠 | 来源:发表于2017-05-11 16:15 被阅读0次

    constant_op函数使用,分为生成常量,序列以及随机值。随机种子在文末介绍使用方法。

    2.1 tf.zeros(shape, dtype=tf.float32, name=None)
    功能:生成一个值全为0的tensor。默认为float32类型。
    输入:shape:一维的int32型的列表。
    例:
    a=tf.zeros([2,3])
    
    a==>[[0. 0. 0.]
         [0. 0. 0.]]
    
    2.2 tf.zeros_like(tensor, dtype=None, name=None, optimize=True)
    功能:生成一个值全为0的tensor,其形状与输入tensor相同。
    输入:dtype:未指定时返回tesnsor的类型
    例:
    x=tf.constant([1,2,3,4,5,6],shape=[2,3])
    a=tf.zeros_like(x)
    
    a==>[[0. 0. 0.]
         [0. 0. 0.]]
    
    2.3 tf.ones(shape, dtype=tf.float32, name=None)
    功能:生成一个值全为1的tensor。默认为float32类型。
    输入:shape:一维的int32型的列表。
    例:
    a=tf.ones([2,3]])
    
    a==>[[1. 1. 1.]
         [1. 1. 1.]]
    
    2.4 tf.ones_like(tensor, dtype=None, name=None, optimize=True)
    功能:生成一个值全为1的tensor,其形状与输入tensor相同。
    输入:dtype:未指定时返回tesnsor的类型
    例:
    x=tf.constant([1,2,3,4,5,6],shape=[2,3])
    a=tf.ones_like(x)
    
    a==>[[1. 1. 1.]
         [1. 1. 1.]]
    
    2.5 tf.fill(dims, value, name=None)
    功能:生成一个值全为value的tensor,其形状与dims相同。
    输入:dims:一维的int32型的列表,
    例:
    a=tf.fill([2,3],7)
    
    a==>[[7. 7. 7.]
         [7. 7. 7.]]
    
    2.6 tf.constant(value, dtype=None, shape=None, name='Const', verify_shape=False)
    功能:生成一个常量tensor
    输入:value:一个常量,或者一个list;
         dtype:数据类型;
         shape:生成形状。
    例:
    a=tf.constant([1,2,3,4,5,6],shape=[2,3])
    b=tf.constant(2,shape=[2,3])
    
    a==>[[1 2 3]
         [4 5 6]]
    b==>[[2 2 2]
         [2 2 2]]
    
    2.7 tf.linspace(start, stop, num, name=None)
    功能:生成在区间[start,stop]中定长间隔的值。序列值的间隔大小为‘(stop-start)/(num-1)’
    输入:start:区间起始值,类型为float32或float64;
         stop:区间中止值,类型为float32或float64;
         num:生成数据数量。
    例:
    a=tf.linspace(1.,7.,4)
    
    a==>[1. 3. 5. 7.]
    
    2.8 tf.range(start, limit=None, delta=1, dtype=None, name='range')
    功能:生成一个序列值,从start开始,每次递增delta,直到不超过limit的值结束。
    输入:start:起始值;
         limit:限制值,不能超过;
         delta:步长。
    例:
    a=tf.range(1,10,3)
    
    a==>[1 4 7]
    
    2.9 tf.random_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)
    功能:从正太分布中随机输出。
    输入:shape:一维整型tensor,指定tensor的形状;
         mean:正太分布的平均值,默认为0;
         stddev:正太分布的标准差,默认为1;
         seed:随机种子。
    例:
    a=tf.random_normal([2,2],seed=112)
    
    a==>[[-0.72891599 -1.35909426]
         [ 0.06045228  1.12680387]]
    
    2.10 tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)
    功能:从截断正太分布中随机输出。
    输入:shape:一维整型tensor,指定tensor的形状;
         mean:正太分布的平均值,默认为0;
         stddev:正太分布的标准差,默认为1;
         seed:随机种子。
    例:
    a=tf.truncated_normal([2,2],seed=112)
    
    a==>[[-0.72891599 -1.35909426]
         [ 0.06045228  1.12680387]]
    
    2.11 tf.random_uniform(shape, minval=0, maxval=None, dtype=tf.float32, seed=None, name=None)
    功能:从均匀分布中随机输出,默认区域为‘[0,1)’。
    输入:shape:一维整型tensor,指定tensor的形状;
         minval:均匀分布的最小值,默认为0;
         maxval:均匀分布的最大值,如果类型为float32则默认为1;
         seed:随机种子。
    例:
    a=tf.random_uniform([2,2],seed=112)
    
    a==>[[0.30445623 0.57834935]
         [0.52905083 0.00853038]]
    
    2.12 tf.random_shuffle(value, seed=None, name=None)
    功能:将tensor第一个维度的数据重新随机排列。
    输入:value:tensor。
        seed:随机种子。
    例:
    x=tf.constant([1,2,3,4,5,6],shape=[3,2])
    a=tf.random_shuffle(x,seed=11)
    
    a==>[[5 6]
         [3 4]
         [1 2]]
    
    2.13 tf.random_crop(value, size, seed=None, name=None)
    功能:将tensor按照指定大小进行随机裁剪。
    输入:value:tensor;
        size:裁剪后的大小,size<=value.shape,如果不想改变大小,应配置为value的shape。
    例:
    x=tf.constant([1,2,3,4,5,6,7,8,9],shape=[3,3])
    a=tf.random_crop(x,size=[2,2],seed=11)
    
    a==>[[2 3]
         [5 6]]
    
    2.14 tf.multinomial(logits, num_samples, seed=None, name=None)
    功能:绘制多项式分布。
    输入:logits:shape为[batch_size,num_classes]的2维tensor,每行[i,:]代表每类出现的概率。 
         num_samples:独立采样数目。
    例:
    x=tf.constant([[1,1,1]],dtype=tf.float32)#表示有3类,出现概率相等。
    a = tf.multinomial(x, 10)
    
    a==>[[0 0 2 1 2 1 2 0 0 1]]
    
    2.15 tf.random_gamma(shape, alpha, beta=None, dtype=tf.float32, seed=None, name=None)
    功能:对每一个给定的gamma分布进行shape尺度的采样。
         例如samples = tf.random_gamma([30], [[1.],[3.],[5.]], beta=[[3., 4.]])
          即给定了6个gamma分布,每个分布输出30个数据,输出tensor形状为[30,3,2]。
    输入:shape:每一个gamma分布进行采样的尺度;
         alpha: gamma分布的alpha变量,可以为任意尺度,但需和beta对应;
         beta:gamma分布的beta变量。
    例:
    a = tf.random_gamma([2], [0.5, 1.5])#每一片应为[:,0],[:,1]
    
    a==>[[3.03589034e+00 2.56953764e+00]
         [2.959940042e-03 3.52107930e+00]]
    
    2.16 tf.set_random_seed(seed)
    功能:设置随机数种子。
         为确保每次随机数生成数据一致,可以设置随机数种子。随机种子有两种设置方法:
             1、op级别的设置,如前文提高的随机输入tf.random_shuffle(value, seed=None, name=None)中,
              函数变量seed即设置种子值。
             2、graph级别,即tf.set_random_seed(seed)函数,可使整个graph的随机数产生从设置种子中获取。
    例:
        1、未设置种子
         a=tf.random_uniform([1])
         b=tf.random_normal([1])
         print("Session 1")
         with tf.Session() as sess1:
             tf.global_variables_initializer().run()
             print sess1.run(a)
             print sess1.run(a)
             print sess1.run(b)
             print sess1.run(b)
         print("Session 2")
         with tf.Session() as sess2:
             tf.global_variables_initializer().run()
             print sess2.run(a)
             print sess2.run(a)
             print sess2.run(b)
             print sess2.run(b)
        运行结果为:
          Session 1
          [ 0.71059418]
          [ 0.71678996]
          [ 0.27808592]
          [ 0.77504641]
          Session 2
          [ 0.45193291]
          [ 0.74479854]
          [-0.01035937]
          [ 0.54787332]
          因没有设置随机种子,每次运行结果都不一样
        2、设置op级别种子
         a=tf.random_uniform([1],seed=1)
         b=tf.random_normal([1])
         print("Session 1")
         with tf.Session() as sess1:
             tf.global_variables_initializer().run()
             print sess1.run(a)
             print sess1.run(a)
             print sess1.run(b)
             print sess1.run(b)
         print("Session 2")
         with tf.Session() as sess2:
             tf.global_variables_initializer().run()
             print sess2.run(a)
             print sess2.run(a)
             print sess2.run(b)
             print sess2.run(b)
        运行结果为:
          Session 1
          [ 0.23903739]
          [ 0.22267115]
          [-0.48983803]
          [-0.13116723]
          Session 2
          [ 0.23903739]
          [ 0.22267115]
          [-1.77008951]
          [-0.18568291]
          变量a设置为种子1,每次运行按照种子进行取数,每个Session都从种子的第一个数开始取值。
        3、设置graph级别种子
         tf.set_random_seed(1)
         a=tf.random_uniform([1])
         b=tf.random_normal([1])
         print("Session 1")
         with tf.Session() as sess1:
             tf.global_variables_initializer().run()
             print sess1.run(a)
             print sess1.run(a)
             print sess1.run(b)
             print sess1.run(b)
         print("Session 2")
         with tf.Session() as sess2:
             tf.global_variables_initializer().run()
             print sess2.run(a)
             print sess2.run(a)
             print sess2.run(b)
             print sess2.run(b)
        运行结果为:
          Session 1
          [ 0.77878559]
          [ 0.0978868]
          [-0.4487586]
          [-0.82540691]
          Session 2
          [ 0.77878559]
          [ 0.0978868]
          [-0.4487586]
          [-0.82540691]
          设置graph级种子后,两次运行结果完全一致。
    

    相关文章

      网友评论

          本文标题:tensorflow接口研读constant_op

          本文链接:https://www.haomeiwen.com/subject/ddtotxtx.html