美文网首页Tensorflow实践
Keras学习指北-非线性回归(tensorflow后端)

Keras学习指北-非线性回归(tensorflow后端)

作者: 一块自由的砖 | 来源:发表于2019-12-16 18:45 被阅读0次

    Sequential模型

    Sequential模型字面上的翻译是顺序模型,给人的感觉是线性模型,但实际上Sequential模型可以构建非常复杂的神经网络,包括全连接神经网络、卷积神经网络(CNN)、循环神经网络(RNN)等等。Sequential更准确的理解应该是堆叠,通过堆叠许多层,构建出深度神经网络。
    以前整理的Sequential模型
    https://www.jianshu.com/p/2a8b83e44ff3

    四大步骤

    1 数据集整理
    2 定义模型
    3 训练/学习
    4 预测/评估

    对比tensorflow和keras

    以前的非线性多项式回归模型(tensorflow实现)
    每次一篇10分钟,小步快跑攻陷Tensorflow(非线性多项式模型)

    现在用keras写一个
    构建数据集,这可以用np.linspace(0, 1, 100)的方式,我这里用比较通俗的写法,比较容易看明白。

    import keras
    import numpy as np
    import matplotlib.pyplot as plt
    # Sequential按顺序构成的模型
    from keras.models import Sequential
    # Dense全连接层
    from keras.layers import Dense, Activation
    # 优化器:随机梯度下降
    from keras.optimizers import SGD
    
    # 生成非线性数据模型
    import numpy as np
    import tensorflow as tf
    import matplotlib.pyplot as plt
    
    #训练数据和测试数据
    number = 100
    x_data = np.linspace(-4, 4, number)
    y_data = np.sin(x_data)+np.random.uniform(-0.5, 0.5, number)
    
    print(x_data)
    print(y_data)
    # 显示随机点
    plt.scatter(x_data, y_data)
    plt.show()
    

    生成数据的情况


    image.png
    # 构建一个顺序模型
    model = Sequential()
    
    # 在模型中添加一个全连接层
    # 神经网络结构:1-10-1,即输入层为1个神经元,隐藏层10个神经元,输出层1个神经元。 
    
    # 激活函数加法1
    model.add(Dense(units=10, input_dim=1))
    model.add(Activation('tanh'))
    model.add(Dense(units=1))
    model.add(Activation('tanh'))
    
    # 激活函数加法2
    # model.add(Dense(units=10, input_dim=1, activation='relu'))
    # model.add(Dense(units=1, activation='relu'))
    
    # 定义优化算法
    sgd = SGD(lr=0.3)
    # sgd: Stochastic gradient descent,随机梯度下降法
    # mse: Mean Squared Error, 均方误差
    model.compile(optimizer=sgd, loss='mse')
    
    # 进行训练
    for step in range(3000):
        # 每次训练一个批次
        cost = model.train_on_batch(x_data, y_data)
        # 每500个batch打印一次cost值
        if step % 200 == 0:
            print('cost: ', cost)
    # 打印权值和偏置值
    W, b = model.layers[0].get_weights()
    print('W:', W, ' b: ', b)
    # 模型有几层
    print(len(model.layers))
    

    权重:
    W: [[-0.55100596 -1.7451848 0.5285127 0.41887105 1.665571 -0.42957172
    0.6277028 0.92058426 -0.6879652 -1.0646867 ]]
    偏移:
    b: [ 0.8465626 1.8501339 -0.7023775 0.13447726 1.6190969 -0.5942881
    -1.2540196 -0.13697463 1.5173076 -2.596684 ]
    模型图层数量:
    4
    输入层x1 全连接层x2 输出层x1

    # 把x_data输入网络中,得到预测值y_pred
    y_pred = model.predict(x_data)
    
    # 显示随机点
    plt.scatter(x_data, y_data)
    # 显示预测结果
    plt.plot(x_data, y_pred, 'r-', lw=3)
    plt.show()
    

    看看效果


    image.png

    全部代码

    到github查看https://github.com/horacepei/tensorflow_study

    相关文章

      网友评论

        本文标题:Keras学习指北-非线性回归(tensorflow后端)

        本文链接:https://www.haomeiwen.com/subject/ctrigctx.html