keras_classifier

作者: Ledestin | 来源:发表于2017-05-17 16:21 被阅读80次

    本文用 Keras 来构建一个分类神经网络,用到的数据集是 MNIST,就是 0 到 9 这几个数字的图片数据集
    用keras构建分类神经网络的步骤:
    1.数据预处理
    2.建立神经网络
    3.训练网络
    4.测试模型


    Demo.py

    import numpy as np
    np.random.seed(1337)  # for reproducibility
    from keras.datasets import mnist
    from keras.utils import np_utils
    from keras.models import Sequential #models.Sequential,用来一层一层一层的去建立神经层;
    from keras.layers import Dense, Activation#layers.Dense 意思是这个神经层是全连接层,
                                              #layers.Activation 激励函数。
    from keras.optimizers import RMSprop #optimizers.RMSprop 优化器采用 RMSprop,加速神经网络训练方法
    
    # 加载数据集
    #Keras 自身就有 MNIST 这个数据包,再分成训练集和测试集。x 是一张张图片,y 是每张图片对应的标签,即它是哪个数字。
    (X_train, y_train), (X_test, y_test) = mnist.load_data()
    
    # 数据预处理
    # 数据集reshape, -1表示该参数不指定, 系统通过推断来获得
    # 输入的 x 变成 60,000*784 的数据,然后除以 255 进行标准化,因为每个像素都是在 0 到 255 之间的,标准化之后就变成了 0 到 1 之间。
    X_train = X_train.reshape(X_train.shape[0], -1) / 255.0
    X_test = X_test.reshape(X_test.shape[0], -1) / 255.0
    # 将label变为向量
    # 对于 y,要用到 Keras 改造的 numpy 的一个函数 np_utils.to_categorical,把 y 变成了 one-hot 的形式,即之前 y 是一个数值, 在 0-9 之间,现在是一个大小为 10 的向量,它属于哪个数字,就在哪个位置为 1,其他位置都是 0。
    y_train = np_utils.to_categorical(y_train, 10)
    y_test = np_utils.to_categorical(y_test, 10)
    print X_train[1].shape #  打印X一行的shape,即(784,)
    print y_train[:3]  #  打印y的前三行的shape,即[[ 0.  0.  0.  0.  0.  1.  0.  0.  0.  0.]
                                                # [ 1.  0.  0.  0.  0.  0.  0.  0.  0.  0.]
                                                # [ 0.  0.  0.  0.  1.  0.  0.  0.  0.  0.]]
    
    # 建立模型
    model = Sequential([
        Dense(32, input_dim = 784),#加入 Dense 神经层。32 是输出的维度,784 是输入的维度
        Activation('relu'),#第一层传出的数据有 32 个 feature,传给激励单元,激励函数用到的是 relu 函数。 经过激励函数之后,就变成了非线性的数据。 然后再把这个数据传给下一个神经层
        Dense(10),#这个 Dense 我们定义它有 10 个输出的 feature。同样的,此处不需要再定义输入的维度,因为它接收的是上一层的输出
        Activation('softmax')#再输入给softmax 函数,用来分类。
    ])
    # 选择并定义优化求解方法
    rmsprop = RMSprop(lr = 0.001, rho = 0.9, epsilon = 1e-8, decay = 0.0)#用 RMSprop 作为优化器,它的参数包括学习率等,可以通过修改这些参数来看一下模型的效果。
    # 用 model.compile 激励神经网络,选择损失函数、求解方法、度量方法
    #优化器optimizer,可以是默认的,也可以是我们在上一步定义的。 损失函数,分类和回归问题的不一样,用的是交叉熵。 metrics,里面可以放入需要计算的 cost,accuracy,score 等。
    model.compile(optimizer = rmsprop, loss = 'categorical_crossentropy', metrics = ['accuracy'])
    # 训练模型
    #用到的是 fit 函数,把训练集的 x 和 y 传入之后,nb_epoch 表示把整个数据训练多少次,batch_size 每批处理32个。
    model.fit(X_train, y_train, epochs = 2, batch_size = 32)
    # 评估模型
    #用测试集来检验一下模型,方法和回归网络中是一样的,运行代码之后,可以输出 accuracy 和 loss。
    loss, accuracy = model.evaluate(X_test, y_test)
    print 'loss: ', loss
    print 'accuracy: ', accuracy
    

    结果:

    (784L,)
    [[ 0.  0.  0. ...,  0.  0.  0.]
     [ 1.  0.  0. ...,  0.  0.  0.]
     [ 0.  0.  0. ...,  0.  0.  0.]]
    Epoch 1/2
    60000/60000 [==============================] - 1s - loss: 0.3488 - acc: 0.9021       
    Epoch 2/2
    60000/60000 [==============================] - 1s - loss: 0.1937 - acc: 0.9440     
     7424/10000 [=====================>........] - ETA: 0sloss:  0.183165572087
    accuracy:  0.9466
    

    相关文章

      网友评论

        本文标题:keras_classifier

        本文链接:https://www.haomeiwen.com/subject/klqdxxtx.html