美文网首页Tensorflow实践
Keras学习指北-非线性回归(tensorflow后端)

Keras学习指北-非线性回归(tensorflow后端)

作者: 一块自由的砖 | 来源:发表于2019-12-16 18:45 被阅读0次

Sequential模型

Sequential模型字面上的翻译是顺序模型,给人的感觉是线性模型,但实际上Sequential模型可以构建非常复杂的神经网络,包括全连接神经网络、卷积神经网络(CNN)、循环神经网络(RNN)等等。Sequential更准确的理解应该是堆叠,通过堆叠许多层,构建出深度神经网络。
以前整理的Sequential模型
https://www.jianshu.com/p/2a8b83e44ff3

四大步骤

1 数据集整理
2 定义模型
3 训练/学习
4 预测/评估

对比tensorflow和keras

以前的非线性多项式回归模型(tensorflow实现)
每次一篇10分钟,小步快跑攻陷Tensorflow(非线性多项式模型)

现在用keras写一个
构建数据集,这可以用np.linspace(0, 1, 100)的方式,我这里用比较通俗的写法,比较容易看明白。

import keras
import numpy as np
import matplotlib.pyplot as plt
# Sequential按顺序构成的模型
from keras.models import Sequential
# Dense全连接层
from keras.layers import Dense, Activation
# 优化器:随机梯度下降
from keras.optimizers import SGD

# 生成非线性数据模型
import numpy as np
import tensorflow as tf
import matplotlib.pyplot as plt

#训练数据和测试数据
number = 100
x_data = np.linspace(-4, 4, number)
y_data = np.sin(x_data)+np.random.uniform(-0.5, 0.5, number)

print(x_data)
print(y_data)
# 显示随机点
plt.scatter(x_data, y_data)
plt.show()

生成数据的情况


image.png
# 构建一个顺序模型
model = Sequential()

# 在模型中添加一个全连接层
# 神经网络结构:1-10-1,即输入层为1个神经元,隐藏层10个神经元,输出层1个神经元。 

# 激活函数加法1
model.add(Dense(units=10, input_dim=1))
model.add(Activation('tanh'))
model.add(Dense(units=1))
model.add(Activation('tanh'))

# 激活函数加法2
# model.add(Dense(units=10, input_dim=1, activation='relu'))
# model.add(Dense(units=1, activation='relu'))

# 定义优化算法
sgd = SGD(lr=0.3)
# sgd: Stochastic gradient descent,随机梯度下降法
# mse: Mean Squared Error, 均方误差
model.compile(optimizer=sgd, loss='mse')

# 进行训练
for step in range(3000):
    # 每次训练一个批次
    cost = model.train_on_batch(x_data, y_data)
    # 每500个batch打印一次cost值
    if step % 200 == 0:
        print('cost: ', cost)
# 打印权值和偏置值
W, b = model.layers[0].get_weights()
print('W:', W, ' b: ', b)
# 模型有几层
print(len(model.layers))

权重:
W: [[-0.55100596 -1.7451848 0.5285127 0.41887105 1.665571 -0.42957172
0.6277028 0.92058426 -0.6879652 -1.0646867 ]]
偏移:
b: [ 0.8465626 1.8501339 -0.7023775 0.13447726 1.6190969 -0.5942881
-1.2540196 -0.13697463 1.5173076 -2.596684 ]
模型图层数量:
4
输入层x1 全连接层x2 输出层x1

# 把x_data输入网络中,得到预测值y_pred
y_pred = model.predict(x_data)

# 显示随机点
plt.scatter(x_data, y_data)
# 显示预测结果
plt.plot(x_data, y_pred, 'r-', lw=3)
plt.show()

看看效果


image.png

全部代码

到github查看https://github.com/horacepei/tensorflow_study

相关文章

网友评论

    本文标题:Keras学习指北-非线性回归(tensorflow后端)

    本文链接:https://www.haomeiwen.com/subject/ctrigctx.html