美文网首页
Tensorflow框架使用

Tensorflow框架使用

作者: dawsonenjoy | 来源:发表于2019-07-15 16:44 被阅读0次

简介

TensorFlow是采用数据流图,用于数值计算的深度学习框架(常用于神经网络相),其中在数据流图里,节点表示数学操作,线表示节点间相互联系的数据,即张量(tensor)

安装

其分为CPU和GPU(更快,但要有硬件支持)版本,安装命令如下:

pip install tensorflow
pip install tensorflow-gpu

注:
安装时要求python版本为2.7+或者3.5+(3.5需要为64位)

使用步骤

Tensorflow不单独地运行单一的复杂计算,而是让我们可以先用图描述一系列可交互的计算操作,然后全部一起在Python之外运行,从而减少开销,因此基本上所有的 Tensorflow 代码都包含两个重要部分:
1.计算图(Graph),表示计算任务
2.会话(Session),用于执行计算图中的运算

因此使用步骤大体如下:
1.导入tensorflow框架:import tensorflow as tf
2.创建计算图,定义张量(如:常量tf.constant()、变量tf.Variable()等)和运算方法(如:矩阵乘法tf.matmul()等)
3.创建会话(sess = tf.session()),用于运行计算图中运算
4.通过会话运行计算(sess.run()
5.关闭会话(sess.close()

简单示例
import tensorflow as tf

x = tf.constant([[1,2]])
# 创建一个1行2列的矩阵
y = tf.constant([[3], [4]])
# 创建一个两行一列的矩阵
mul = tf.matmul(x, y)
# 将两个矩阵相乘

sess = tf.Session()
# 创建一个会话
result = sess.run(mul)
# 执行前面运算图中定义的常量和运算方法
print(result)
# 输出运算图中乘法运算执行的结果
sess.close()
# 关闭会话

由于会话执行结束后需要关闭,因此上面的也可以使用with关键字来实现自动关闭,举例:

import tensorflow as tf

with tf.Session() as sess:
    # 使用with关键字可以在sess使用结束时自动关闭资源
    x = tf.constant([[1, 2]])
    y = tf.constant([[3], [4]])
    mul = tf.matmul(x, y)
    result = sess.run(mul)
    print(result)

基本语句

定义常量

tf.constant()
注:
当运算图中定义了变量以后,需要在会话中先调用语句tf.global_variables_initializer()来对所有变量进行初始化

定义变量

tf.Variable()

数据类型转换

tf.cast(x, xtype),可以将前面的数据类型进行转换,举例:

x = tf.Variable([1,2,3,4,5])
y = tf.cast(x,dtype=tf.float32)

基本运算

加减乘除

tf.add(x, y)/subtract(x, y)/tf.multiply(x, y)/tf.div(x, y)(整除)/tf.divide(x, y)(小数除,需要除数被除数都为float),举例:

import tensorflow as tf

init = tf.Variable(10.0)
# 定义一个变量
two = tf.constant(2.0)
# 定义一个常量
div_two = tf.divide(init, two)
# 定义一个除法运算
矩阵相乘

tf.matmul(x, y)

平方运算

tf.square(x)

获取矩阵里数的总和/平均值/最大值/最小值

tf.reduce_sum(x)/reduce_mean(x)/reduce_max(x)/reduce_min(x)

生成几行几列的随机数矩阵

tf.random_uniform([m], x, y),即生成格式为m,数值全为xy的随机数矩阵

生成几行几列的全零矩阵

tf.zeros([m]),生成格式为m的全零矩阵

判断是否相等

tf.equal(x, y),判断x、y的值是否相等,返回bool类型

更新(赋值)变量

tf.assign(x, way),将xway方式更新数据,即赋值操作
使用举例:

import tensorflow as tf

init = tf.Variable(0)
# 定义一个变量
one = tf.constant(1)
# 定义一个常量
add_one = tf.add(init, one)
# 定义一个加法运算
update = tf.assign(init, add_one)
# 定义一个将当前值加一并更新的运算
init_var = tf.global_variables_initializer()
# 定义一个变量初始化

with tf.Session() as sess:
    sess.run(init_var)
    #  初始化变量
    for i in range(3):
        print(sess.run(update), end="\t")
        # 输出每次加1并更新后的结果

# 结果为:
# 1 2   3
返回最大值索引

tf.argmax(input,axis),返回输入内容的最大值索引,当axis为0时代表一维,根据每一列返回最大索引,axis为1时代表二维,根据每一行返回最大索引,以此类推
详细参考:
https://blog.csdn.net/u012300744/article/details/81240580

传值/返回值

feed_dict传参

对于会话中的run()方法,一般都是将常量和初始化完成的变量传入运算,但其实也可以通过feed_dict参数将数值以字典方式传入,此时对于这些值,需要先通过tf.placeholder()方法创建占位符,然后再传入对应格式的数据,举例:

import tensorflow as tf

input1 = tf.placeholder(tf.float32)
input2 = tf.placeholder(tf.float32)
# 创建两个float型占位符
output = tf.multiply(input1, input2)
# 进行乘法运算

with tf.Session() as sess:
  print(sess.run([output], feed_dict={input1:7., input2:2.}))
  # 传入两个占位符的值分别为7.0和2.0
占位符

tf.placeholder(xtype[, shape, name=xx])占位符的传参依次分别是:传入类型、传入格式和命名(name),由于命名为名称参数,主要在可视化当中使用,这里不说。这里介绍下传入类型和传入格式

  • 传入类型
tf.float32  ->  float(最常用)
tf.float64  ->  double
tf.double   ->  double(和上面那个一样的)
tf.int32    ->  int
tf.uint32   ->  int(正数部分)
...

从源代码当中也可以看到传入类型的定义:

np.bool_: (False, True),
np.bool8: (False, True),
np.uint8: (0, 255),
np.uint16: (0, 65535),
np.int8: (-128, 127),
np.int16: (-32768, 32767),
np.int64: (-2**63, 2**63 - 1),
np.uint64: (0, 2**64 - 1),
np.int32: (-2**31, 2**31 - 1),
np.uint32: (0, 2**32 - 1),
np.float32: (-1, 1),
np.float64: (-1, 1)
  • 传入格式
    传入格式需要说明的不多,就是就是定义几行几列、比如2行1列就是:[2, 1],如果多维度,就几维几行几列那样以此类推,可以参考np.array()shape,要注意的是None,这个代表任意的意思,比如任意行1列就是:[None, 1]
    举例:
tf.placeholder(tf.float32, [None, 1])
# 定义数据为浮点数,任意行,1列的占位符
Fetch返回值

执行会话操作时的sess.run()语句时,将会返回对应输入参数的结果值

其他方法
tf.pad

扩展矩阵,分别从各个维度方向扩展数据,参考:
https://blog.csdn.net/qq_40994943/article/details/85331327
https://blog.csdn.net/luoganttcc/article/details/83303522

激活函数

激活函数作用简单来说就是原来的中间层只是单纯的矩阵相乘,因此只能解决线性问题,使用激活函数以后,就能解决线性相关问题了,具体参考:
https://blog.csdn.net/program_developer/article/details/78704224

tanh

tf.nn.tanh,数据随tanh函数的曲线变化

relu

tf.nn.relu,其将所有小于0的数置为0,大于0的数保持不变
参考:https://blog.csdn.net/Random_R/article/details/80523265

sigmoid

tf.nn.sigmoid,数据随1/(1+e^-x)函数曲线变化

softmax

tf.nn.softmax
参考:https://blog.csdn.net/red_stone1/article/details/80687921

损失函数/交叉熵函数

学习训练模型时,需要有一个参照值作为训练的标准,比如设置一个损失函数,其值为预测值和正确值之差的平方和取平均值,代码如下:

loss = tf.reduce_mean(tf.square(y-prediction))

损失函数的变化梯度和激活函数的梯度相关,而交叉熵的变化梯度则和预测值和正确值之间的误差有关,当误差越大时,梯度越大,反之越小,因此线性预测时,适合用损失函数,非线性的适合用交叉熵,其中交叉熵一般和sigmoid()/softmax()结合使用(tf.nn.softmax_cross_entropy_with_logits()/tf.nn.sigmoid_cross_entropy_with_logits()),交叉熵使用举例:

loss = tf.nn.softmax_cross_entropy_with_logits(labels=y, logits=prediction)
# labels传入正确值,logits传入预测值

注:
使用上面的交叉熵函数时,里面包括了sigmoid()/softmax()方法,因此不需要再调用这些激活函数

优化器

tf.train(),其下提供了很多优化器,其中最简单的就是梯度下降GradientDescentOptimizer(),里面需要传入学习率(优化器的用法基本都差不多),举例:

optimizer = tf.train.GradientDescentOptimizer(0.01)
# 基于梯度下降法,学习率为0.01的优化器

优化器的作用就是设置一个参照值,在设置一个目标,比如越小越好,以此为根据从而不断训练,例如以前面的损失函数为标准,目标是越低越好,举例:

train = optimizer.minimize(loss)
AdamOptimizer()

这个是比较好的优化器,较为推荐

各种优化器详解

https://blog.csdn.net/weixin_40170902/article/details/80092628

学习率问题

使用优化器时,设置学习率是个很重要的问题,学习率设置过大,则可能无法拟合数据,设置过小,则可能拟合过慢,并且随着迭代次数的增加,拟合的变化量将越来越小,此时如果学习率不够小,也将无法继续拟合,因此可以在设置起始学习率时,调一个差不多的值,并随着迭代次数减小学习率,从而达到能够较快速且不断拟合的效果

拟合问题

对于模型训练,如果提供的数据量过少,则可能出现过拟合问题,此时解决方案一般有以下几种:
1.增加数据量
2.数据正则化
3.dropout随机选取

dropout()

一次随机选取一定比例的神经元,举例:

tf.nn.dropout(x, 0.5)
# 在x中选取一半的数据

会话操作

创建会话

sess = tf.Session()

执行运算

sess.run()
注:
如果只传入一个运算,那么当前会话会返回该运算执行完毕后对应的结果,但如果想进行多个运算并返回多个对应的结果,则可以通过一个列表将多个运算一起传入,结果也是一个列表,依次为每个运算的结果
注2:
当传入多个运算时,其将一起执行,而不是按传入顺序去执行,因此如果在一次run()里传入多个相同的运算,那么就相当于执行一次

关闭会话

sess.close()

模型保存和载入

保存模型

在会话操作前通过saver = tf.train.Saver()定义一个保存器,当模型训练完毕时,通过saver.save(sess, '路径')来保存模型,举例:

# 定义操作
...
saver = tf.train.Saver()
with tf.Session() as sess:
    # 模型训练操作
    ...
    saver.save(sess, 'test_model.ckpt')
    # 训练完成,保存模型
载入模型

通过saver.restore(sess, '路径')来载入模型,举例:

...
saver = tf.train.Saver()
with tf.Session() as sess:
    saver.restore(sess, 'test_model.ckpt')
    # 载入模型到sess
    # 可以直接使用模型进行操作了
    ...

简单综合示例

import tensorflow as tf

# 预测一个一元线性方程y=Wx+b的W和b的值,使其符合当x依次为1,2,3,4时,对应的y值依次为0,-1,-2,-3
W = tf.Variable(1., tf.float32)
b = tf.Variable(-1., tf.float32)
# 定义变量W和b,值分别为1.0和-1.0
x = tf.placeholder(tf.float32)
y = tf.placeholder(tf.float32)
# 定义占位符,用于执行开始时的数据输入
init = tf.global_variables_initializer()
# 定义初始化变量
linear_model = W*x + b
# 定义y=Wx+b的一元线性方程模型
squared_deltas = tf.square(linear_model - y)
# 定义期望值和实际值之差的平方,用于后面的损失函数
loss = tf.reduce_sum(squared_deltas)
# 定义损失函数,值为所有计算差的平方和
optimizer = tf.train.GradientDescentOptimizer(0.01)
# 定义一个梯度下降的优化器,学习速率为0.01
train = optimizer.minimize(loss)
# 通过梯度下降方法尽可能使损失函数的值减小
with tf.Session() as sess:
    sess.run(init)
    # 初始化变量
    for i in range(1000):
        sess.run(train, {x: [1., 2., 3., 4.], y: [0., -1., -2., -3.]})
        # 训练1000次,并在这期间自动调整W和b的大小
    print(sess.run([W, b]))
    # 输出训练1000次后W和b的值:[-0.99999523, 0.999986](最完美的是W=-1,b=1,但不可能达到)

示例2

import numpy as np
import matplotlib.pyplot as plt
import tensorflow as tf

x_data = np.linspace(-0.5, 0.5, 200)[:, np.newaxis]
# 生成-0.5到0.5的200个等差数列,并转成二维数据,即从1行200列转成200行1列
noise = np.random.normal(0, 0.02, x_data.shape)
# 生成和x_data格式相同的噪音数据
y_data = np.square(x_data) + noise
# 期望值为x_data的平方加上噪音

x = tf.placeholder(tf.float32, [None, 1])
y = tf.placeholder(tf.float32, [None, 1])
# 定义两个占位符,要求格式为:任意行,1列的数据

# 定义中间层
W1 = tf.Variable(tf.random_normal([1, 10]))
# 定义1行10列的随机矩阵权重,即中间层有10个神经元
b1 = tf.Variable(tf.zeros([1, 10]))
# 定义偏差
y_Wb1 = tf.matmul(x, W1) + b1
# 中间层对输入数据进行计算:输入数据与权重相乘后加上偏差值
lay1 = tf.nn.tanh(y_Wb1)
# 通过tanh激活函数来传达到下一层

# 定义输出层
W2 = tf.Variable(tf.random_normal([10, 1]))
# 经过中间层,输出结果由1行1列转成了1行10列,因此定义10行1列随机矩阵权重进行接收
b2 = tf.Variable(tf.zeros([1, 1]))
# 定义偏差
y_Wb2 = tf.matmul(lay1, W2) + b2
# 计算输出结果
output = tf.nn.tanh(y_Wb2)
# 激活函数输出

loss = tf.reduce_mean(tf.square(y - output))
# 损失函数值为输出结果与期望结果之差平方的平均值
train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss)
# 定义梯度下降优化器,学习率为0.1,尽量让损失值小

init = tf.global_variables_initializer()
# 注意初始化要写在所有变量定义结束后
with tf.Session() as sess:
    sess.run(init)
    # 初始化变量
    fig = plt.figure()
    plt.ion()
    # 动态交互式图形
    ax = fig.add_subplot(1,1,1)
    ax.scatter(x_data, y_data)
    # 绘画散点数据
    for i in range(2000):
        sess.run(train_step, feed_dict={x:x_data, y:y_data})
        # 训练2000次
        if i % 100 == 0:
            prediction = sess.run(output, feed_dict={x:x_data})
            # 每训练100次的预测曲线
            plt.pause(0.1)
            try:
                ax.lines.remove(lines[0])
                # 删除原先折线
            except Exception as e:
                pass
            lines = ax.plot(x_data, prediction, 'red', lw=5)
            # 绘画预测数据折线

plt.ioff()
# 关闭交互
plt.show()

上面的代码结合神经网络层的原理,还可以换成下面那样表示:

import numpy as np
import tensorflow as tf
import matplotlib.pyplot as plt

def add_layer(input, input_size, output_size, activation=None):
    '''定义神经网络层'''
    W = tf.Variable(tf.random.normal([input_size, output_size]))
    b = tf.Variable(tf.zeros([1, output_size]))
    layer = tf.matmul(input, W) + b
    if activation:
        layer = activation(layer)
    return layer

x_data = np.linspace(-0.5, 0.5, 200)[:, np.newaxis]
noise = np.random.normal(0, 0.02, x_data.shape)
y_data = np.square(x_data) + noise

x = tf.placeholder(tf.float32, [None, 1])
y = tf.placeholder(tf.float32, [None, 1])

layer1 = add_layer(x, 1, 10, tf.nn.tanh)
# 进入隐藏层
output = add_layer(layer1, 10, 1, tf.nn.tanh)
# 输出层

loss = tf.reduce_mean(tf.square(y-output))
train = tf.train.GradientDescentOptimizer(0.2).minimize(loss)

init = tf.global_variables_initializer()

with tf.Session() as sess:
    sess.run(init)
    fig = plt.figure()
    ax = fig.add_subplot(1, 1, 1)
    plt.ion()
    plt.scatter(x_data, y_data)
    for i in range(2000):
        sess.run(train, feed_dict={x: x_data, y: y_data})
        if i % 50 == 0:
            result = sess.run(output, feed_dict={x: x_data})
            plt.pause(0.1)
            try:
                ax.lines.remove(lines[0])
            except:
                pass
            lines = ax.plot(x_data, result, 'red')

plt.ioff()
plt.show()

小小拓展:
如果把一开始初始化的数据改大点(比如:-5~5),观察下运行情况可以发现上面的代码就完全不拟合了,其原因如下:
1.由于输出层使用了tanh()激活函数,最终的结果被压缩到了-1~1之间,因此无法进行拟合,此时只要把输出层的激活函数给去掉就行了。
如果依旧拟合不是很好,那么可以再参考以下优化方法:
1.增加初始化数据集的量
2.增加神经层数和神经元的数量
3.修改损失函数
4.修改优化器或优化器的学习率
...
比如修改成-5~5之间可以把代码修改如下:

import numpy as np
import matplotlib.pyplot as plt
import tensorflow as tf

x_data = np.linspace(-5, 5, 2000)[:, np.newaxis]
# 数据量增加到2000
noise = np.random.normal(0, 0.02, x_data.shape)
y_data = np.square(x_data) + noise

x = tf.placeholder(tf.float32, [None, 1])
y = tf.placeholder(tf.float32, [None, 1])

W1 = tf.Variable(tf.random_normal([1, 10]))
b1 = tf.Variable(tf.zeros([1, 10]))
y_Wb1 = tf.matmul(x, W1) + b1
lay1 = tf.nn.tanh(y_Wb1)

W2 = tf.Variable(tf.random_normal([10, 1]))
b2 = tf.Variable(tf.zeros([1, 1]))
y_Wb2 = tf.matmul(lay1, W2) + b2
output = y_Wb2
# 取消输出层的激活函数

loss = tf.reduce_mean(tf.square(y - output))
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(loss)
# 降低学习率

init = tf.global_variables_initializer()
with tf.Session() as sess:
    sess.run(init)
    fig = plt.figure()
    plt.ion()
    ax = fig.add_subplot(1,1,1)
    ax.scatter(x_data, y_data)
    for i in range(2000):
        sess.run(train_step, feed_dict={x:x_data, y:y_data})
        if i % 100 == 0:
            prediction = sess.run(output, feed_dict={x:x_data})
            plt.pause(0.1)
            try:
                ax.lines.remove(lines[0])
            except Exception as e:
                pass
            lines = ax.plot(x_data, prediction, 'red', lw=5)

plt.ioff()
plt.show()

卷积神经网络CNN

传统神经网络问题:权值多,计算量大,需要大量样本进行训练,卷积神经网络则是分块处理,取特征值,一般包括卷积层和池化层,常用于图像处理等

卷积层

通过tf.nn.conv2d(input, filter, strides, padding)实现,传入参数说明:
1.input:输入数据,是一个列表:[batch, in_height, in_width, in_channels],分别代表数据量,数据高宽,以及通道数(黑白则为1,彩色包括红绿蓝则为3)
2.filter:滤波器,即每次分块处理的参数,是一个列表:[filter_height, filter_width, in_channels, out_channels],分别代表滤波器高宽,以及输入输出通道数
3.strides:步长,也是个列表:[1, x, y, 1],第一个和最后一个参数为1,中间两个代表x,y方向的步长
4.padding:卷积操作(特征抽取),有samevalid两种方法,第一种代表当分块时整体内容不够凑一块,则周围用0补全,然后再取特征值,第二种则直接放弃特征值抽取

池化层

通过tf.nn.max_pool(input, ksize, strides, padding)实现,传入参数说明:
1.input:输入数据
2.ksize:池化窗口大小,是一个列表:[1, height, width, 1],第一个和第四个必须为1,中间两个为尺寸
3.strides:步长
4.padding:卷积操作,有samevalid两种方法

循环神经网络RNN

循环神经网络,里面存在隐层,能够将前一个的分析结果往后传递,类似反向传播,但因为RNN中信号向下传播时会逐渐减弱,因此需要有能够选择性记住靠谱信号,过滤不靠谱信号的模型,即LSTM(Long Short TermMemory)

RNN实现

1.通过tf.contrib.rnn.core_rnn_cell.BasicLSTMCell()设置LSTM单元数
2.通过tf.nn.dynamic_rnn(lstm_cell, input, dtype)实现RNN,分别传入三个参数:LTMS单元、输入数据以及格式,返回的值有输出结果和final_state,其中final_state是一个列表,第一个值为0代表cell_state,为1代表hidden_state,第二个是批次样本数batch_size,举例:

def RNN(X,weights,biases):
    inputs = tf.reshape(X,[-1,max_time,n_inputs])
    lstm_cell = tf.contrib.rnn.core_rnn_cell.BasicLSTMCell(lstm_size)
    outputs,final_state = tf.nn.dynamic_rnn(lstm_cell,inputs,dtype=tf.float32)
    results = tf.nn.softmax(tf.matmul(final_state[1],weights) + biases)
    return results

可视化框架tensorboard

使用步骤

1.首先需要给各个部分通过tf.name_scope设置命名空间
2.分别对命名空间下的数据设置name属性,否则会自动设置默认属性
3.在会话当中通过tf.summary.FileWriter('文件生成路径', sess.graph)生成图像
4.在文件生成路径的父文件夹中打开命令行输入命令:tensorboard --logdir=路径 --host 127.0.0.1,进入网址找到graph即可,举例:

tensorboard --logdir=logs --host 127.0.0.1
代码示例
import numpy as np
import tensorflow as tf

def add_layer(input, input_size, output_size, activation=None):
    '''定义神经网络层'''
    with tf.name_scope('Weight'):
        W = tf.Variable(tf.random.normal([input_size, output_size]), name='W')
    with tf.name_scope('biases'):
        b = tf.Variable(tf.random.normal([1, output_size]), name='b')
    with tf.name_scope('Y_Wb'):
        layer = tf.matmul(input, W) + b
    if activation:
        layer = activation(layer)
    return layer

lr = 0.001
x_data = np.linspace(-1, 1, 200)[:, np.newaxis]
noise = np.random.normal(0, 0.1, x_data.shape)
y_data = np.square(x_data) + noise

with tf.name_scope('input'):
    x = tf.placeholder(tf.float32, [None, 1], name='x')
    y = tf.placeholder(tf.float32, [None, 1], name='y')

with tf.name_scope('layer1'):
    layer1 = add_layer(x, 1, 3, tf.nn.relu)

with tf.name_scope('layer2'):
    layer2 = add_layer(layer1, 3, 5, tf.nn.relu)

with tf.name_scope('layer3'):
    prediction = add_layer(layer2, 5, 1, tf.nn.relu)

with tf.name_scope('loss'):
    loss = tf.reduce_mean(tf.square(y-prediction))
with tf.name_scope('train'):
    train = tf.train.AdamOptimizer(lr).minimize(loss)

init = tf.global_variables_initializer()
# 不用设置init,默认会自动创建
with tf.Session() as sess:
    sess.run(init)
    writer = tf.summary.FileWriter('logs/', sess.graph)
    for i in range(2000):
        sess.run(train, feed_dict={x: x_data, y: y_data})
        lr *= 0.99
        if i % 50 == 0:
            result = sess.run(prediction, feed_dict={x: x_data})
            print(sess.run(loss, feed_dict={x: x_data, y: y_data}))

# 在生成文件目录的上一层打开命令行输入以下命令:
# tensorboard --logdir=logs --host 127.0.0.1
# 进入提供的网址即可

注:
使用中出现问题:oserror: [errno 22] invalid argument
参考:https://blog.csdn.net/u013244846/article/details/88380860

数据记录展示

如果希望展示某些数据的走向趋势的话,可以通过tf.summary.scalar()来对数据进行曲线展示,tf.summary.histogram()进行直方图展示,然后再会话当中通过tf.summary.merge_all()合并所有展示内容,最后通过writer.add_summary()将内容写至生成文件当中,举例:

import numpy as np
import tensorflow as tf

def add_layer(input, input_size, output_size, activation=None):
    with tf.name_scope('Weight'):
        W = tf.Variable(tf.random.normal([input_size, output_size]), name='W')
    with tf.name_scope('biases'):
        b = tf.Variable(tf.random.normal([1, output_size]), name='b')
    with tf.name_scope('Y_Wb'):
        layer = tf.matmul(input, W) + b
    if activation:
        layer = activation(layer)
    return layer

lr = 0.001
x_data = np.linspace(-1, 1, 200)[:, np.newaxis]
noise = np.random.normal(0, 0.1, x_data.shape)
y_data = np.square(x_data) + noise

with tf.name_scope('input'):
    x = tf.placeholder(tf.float32, [None, 1], name='x')
    y = tf.placeholder(tf.float32, [None, 1], name='y')

with tf.name_scope('layer1'):
    layer1 = add_layer(x, 1, 3, tf.nn.relu)

with tf.name_scope('layer2'):
    layer2 = add_layer(layer1, 3, 5, tf.nn.relu)

with tf.name_scope('layer3'):
    prediction = add_layer(layer2, 5, 1, tf.nn.relu)

with tf.name_scope('loss'):
    loss = tf.reduce_mean(tf.square(y-prediction))
    with tf.name_scope('summary'):
        tf.summary.scalar('mean', tf.reduce_mean(loss))
        tf.summary.scalar('max', tf.reduce_max(loss))
        tf.summary.scalar('min', tf.reduce_min(loss))
        tf.summary.histogram('loss', loss)
        # 展示损失函数的平均、最大、最小值变化,以及自身值的直方图
with tf.name_scope('train'):
    train = tf.train.AdamOptimizer(lr).minimize(loss)

init = tf.global_variables_initializer()
merged = tf.summary.merge_all()
# 合并所有展示内容
with tf.Session() as sess:
    sess.run(init)
    writer = tf.summary.FileWriter('logs/', sess.graph)
    for i in range(2000):
        _, summary = sess.run([train, merged], feed_dict={x: x_data, y: y_data})
        writer.add_summary(summary, i)
        # 数据图表添加到文件当中
        lr *= 0.99
        if i % 50 == 0:
            result = sess.run(prediction, feed_dict={x: x_data})
            print(sess.run(loss, feed_dict={x: x_data, y: y_data}))

莫凡TensorFlow教程

https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/1-1-A-ANN-and-NN/

相关文章

网友评论

      本文标题:Tensorflow框架使用

      本文链接:https://www.haomeiwen.com/subject/akwtkctx.html