深度学习|Keras识别MNIST手写数字(CNN)

作者: 罗罗攀 | 来源:发表于2019-01-15 08:58 被阅读27次

    材料和方法

    今天继续使用MNIST数据。
    方法:
    这次使用的方法为卷积神经网络(CNN)。卷积神经网络通过卷积层,池化层来做特征的提取,最后再连上全连接网络。

    卷积层

    卷积层就是通过多个filter来生成多张图片,其运算如图所示。

    池化层

    池化层就是对图像进行缩减采样,让保证数据特征的情况下减少计算开销。

    数据处理

    卷积神经网络和之前的处理不一样,要将图片转换为三维的(RGB),这里MNIST为灰度图,所以是二维的。

    from keras.datasets import mnist
    from keras.utils import np_utils
    import numpy as np
    np.random.seed(10)
    
    (x_Train, y_Train), (x_Test, y_Test) = mnist.load_data()
    x_Train4D=x_Train.reshape(x_Train.shape[0],28,28,1).astype('float32')
    x_Test4D=x_Test.reshape(x_Test.shape[0],28,28,1).astype('float32')
    x_Train4D_normalize = x_Train4D / 255
    x_Test4D_normalize = x_Test4D / 255
    y_Train = np_utils.to_categorical(y_Train)
    y_Test = np_utils.to_categorical(y_Test)
    

    CNN建模

    建立模型
    from keras.models import Sequential
    from keras.layers import Dense,Dropout,Flatten,Conv2D,MaxPooling2D
    
    model = Sequential()
    model.add(Conv2D(filters=16,
                     kernel_size=(5,5),
                     padding='same',
                     input_shape=(28,28,1), 
                     activation='relu'))
    model.add(MaxPooling2D(pool_size=(2, 2)))
    model.add(Conv2D(filters=36,
                     kernel_size=(5,5),
                     padding='same',
                     activation='relu'))
    model.add(MaxPooling2D(pool_size=(2, 2)))
    model.add(Dropout(0.25))
    model.add(Flatten())
    model.add(Dense(128, activation='relu'))
    model.add(Dropout(0.5))
    model.add(Dense(10,activation='softmax'))
    
    模型训练
    model.compile(loss='categorical_crossentropy',
                  optimizer='adam',metrics=['accuracy']) 
    train_history=model.fit(x=x_Train4D_normalize, 
                            y=y_Train,validation_split=0.2, 
                            epochs=20, batch_size=300,verbose=2)
    
    模型测试

    精度明显高于MLP模型。

    相关文章

      网友评论

        本文标题:深度学习|Keras识别MNIST手写数字(CNN)

        本文链接:https://www.haomeiwen.com/subject/jqrxdqtx.html