美文网首页
TensorFlow中的神经网络

TensorFlow中的神经网络

作者: kokana | 来源:发表于2019-03-05 10:53 被阅读0次

    一 TensorFlow的安装

    • 首先安装numpy,需要最新版

    pip install numpy

    • 之后安装Tensorflow

    pip install tensorflow


    二 简单的TensorFlow例子

    • 让计算机自己预测y = 0.3x + b
    import tensorflow as tf
    import numpy as np
    
    # create data
    
    x_data = np.random.rand(100).astype(np.float32)#初始化100以内的值
    y_data = x_data*0.1 + 0.3#根据随机的x值计算y值
    
    ### create tensorflow structure start ###
    #这个是线性回归 y = Wx + b 其中W可能不是一个具体的数字,可能是一个矩阵,b为偏移量
    Weights = tf.Variable(tf.random_uniform([2], -1.0, 1.0))#[1]是生成一个一维的数,范围在-0.1与1之间
    
    biases = tf.Variable(tf.zeros([1]))#生成一个一维为0的数字
    
    y = Weights*x_data + biases#这个是根据计算得到的曲线 反复计算用来学习
    
    loss = tf.reduce_mean(tf.square(y-y_data))#计算估计的y与原先y的误差
    optimizer = tf.train.GradientDescentOptimizer(0.5)#定义学习效率
    train = optimizer.minimize(loss)#这个就是在训练
    
    init = tf.initialize_all_variables()#初始化整个神经网络的结构
    ### create tensorflow structure end ###
    
    sess = tf.Session()     #定义一个绘画类似指针的东西
    sess.run(init)          # Very important指向了之前定义的神经网络 并且激活
    
    for step in range(20000):
        sess.run(train)#真正的指向训练过程
        if step % 20 == 0:
            print(step, sess.run(Weights), sess.run(biases))v
    

    三 TensorFlow中的Session进一步学习

    • session其实就是负责启动这个神经网络的对象。
    • session中的run方法 如果想用到tf中的方法 变量 就要使用run指向这个对象
    • 列子:两个矩阵相乘
    import tensorflow as tf
    m1 = tf.constant([[2,3]]) #定义矩阵
    m2 = tf.constant([[2],[3]])
    product = tf.matmul(m1,m2) #这个就是矩阵相乘,与numpy中的dot一样
    # sess = tf.Session()
    # r = sess.run(product)
    # print(r)
    # sess.close()
    with tf.Session() as sess:      #开启session并且运行product
        print(sess.run(product))
    

    四 TensorFlow中的变量定义

    • 使用tensorFlow中的Variable作为变量
    • 使用tensorFlow中的constant做为常量
    import tensorflow as tf
    text1 = tf.Variable(0,'happy') #叫做happy的变量值为1 
    one = tf.constant(1)#常量
    new = tf.add(text1,one)#这是tf中的相加
    update = tf.assign(text1,new)#把new附给text1
    init = tf.initialize_all_variables()#这个很重要 初始化所有表变量
    with tf.Session() as sess:
        sess.run(init)
        for each in range(3):
            sess.run(update)
            print(sess.run(text1))
    

    五 tensorFlow中的placeholder

    • 这个模块是控制负责接受外界输入的
    import tensorflow as tf
    input1 = tf.placeholder(tf.float32) #定义一个input1参数
    input2 = tf.placeholder(tf.float32)
    update = tf.multiply(input1,input2)#这是两个两个数相乘
    with tf.Session() as sess:
        print(sess.run(update,feed_dict= {input1:0.3,input2 :0.5}))#通过feed_dict参数来输入数据,这个参数是字典的形式.
    

    六 激励函数

    • 神经网络中的每个节点接受输入值,并将输入值传递给下一层,输入节点会将输入属性值直接传递给下一层(隐层或输出层)。在神经网络中,隐层和输出层节点的输入和输出之间具有函数关系,这个函数称为激励函数。常见的激励函数有:线性激励函数、阈值或阶跃激励函数、S形激励函数、双曲正切激励函数和高斯激励函数等。
    • 我对激励函数的理解:对于输入的一个值,每一层的神经元对这个值的敏感程度不同,会用不同的敏感程度,把这个值放大或者缩小,传入下一层神经元。
      Tensorflow中激励函数传送门
    • 激励函数例子:添加一个层:
    import tensorflow as tf
    def add_layer(inputs,in_size,out_size,activation_function = None):
        Weight = tf.Variable(tf.random_normal([in_size,out_size]))
        biase = tf.Variable(tf.zeros([1,out_size]) + 0.1)
        Wx_plus_b = tf.matmul(inputs,Weight) + biase
        if activation_function is None:
            outputs = Wx_plus_b
        else:
            outputs = activation_function(Wx_plus_b)
        return outputs
    
    • 简单计算一下y = x^2 + 0.5 的损失
            
    
    """
    Please note, this code is only for python 3+. If you are using python 2+, please modify the code accordingly.
    """
    import tensorflow as tf
    import numpy as np
    import matplotlib.pyplot as plt
    
    def add_layer(inputs, in_size, out_size, activation_function=None):
        Weights = tf.Variable(tf.random_normal([in_size, out_size]))
        biases = tf.Variable(tf.zeros([1, out_size]) + 0.1)
        Wx_plus_b = tf.matmul(inputs, Weights) + biases
        if activation_function is None:
            outputs = Wx_plus_b
        else:
            outputs = activation_function(Wx_plus_b)
        return outputs
    
    # Make up some real data
    x_data = np.linspace(-1, 1, 300)[:, np.newaxis]#构造出300个x值
    noise = np.random.normal(0, 0.05, x_data.shape)#随机生成影响值
    y_data = np.square(x_data) * x_data - 0.5 + noise#根据构造的值生成函数  y = x^2 - 0.5 + noise
    
    ##plt.scatter(x_data, y_data)
    ##plt.show()
    
    # define placeholder for inputs to network
    xs = tf.placeholder(tf.float32, [None, 1])#输入的x
    ys = tf.placeholder(tf.float32, [None, 1])#输入的y
    # add hidden layer
    l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu)#这个是输入的xs的神经元 传送给10个神经元 用tf.nn.relu的激励函数
    # add output layer
    prediction = add_layer(l1, 10, 1, activation_function=None)#输出预测结果
    
    # the error between prediciton and real data
    loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction), reduction_indices=[1]))#计算损失
    train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)#训练 减少损失
    # important step
    init = tf.initialize_all_variables()
    sess= tf.Session()
    sess.run(init)
    
    # plot the real data
    fig = plt.figure()
    ax = fig.add_subplot(1,1,1)
    ax.scatter(x_data, y_data)
    plt.ion()
    plt.show()
    
    
    for i in range(1000):
        # training
        sess.run(train_step, feed_dict={xs: x_data, ys: y_data})
        if i % 50 == 0:
            # to visualize the result and improvement
            try:
                ax.lines.remove(lines[0])
            except Exception:
                pass
            prediction_value = sess.run(prediction, feed_dict={xs: x_data})
            # plot the prediction
            lines = ax.plot(x_data, prediction_value, 'r-', lw=5)
            plt.pause(1)
    

    七 数据可视化

    • 需要用到matplotlib包

    pip install matplotlib

    fig = plt.figure() #创建一个图
    ax = fig.add_subplot(1,1,1)#规定图的编号
    ax.scatter(x_data, y_data)#写入真实的数据
    plt.ion()#画图表之后不要暂停
    plt.show()#显示图标
    ax.lines.remove(lines[0])#去除第0条线
    prediction_value = sess.run(prediction, feed_dict={xs: x_data})
    lines = ax.plot(x_data, prediction_value, 'r-', lw=5)#生成红色宽度为5的线
    plt.pause(1) #暂停1秒

    相关文章

      网友评论

          本文标题:TensorFlow中的神经网络

          本文链接:https://www.haomeiwen.com/subject/mnmseqtx.html