美文网首页大数据 爬虫Python AI Sql机器学习与数据挖掘
深度学习|Keras识别MNIST手写数字(二)

深度学习|Keras识别MNIST手写数字(二)

作者: 罗罗攀 | 来源:发表于2019-01-11 09:49 被阅读5次

    数据和方法

    今天依旧使用MNIST手写数字,方法也是MLP方法,这次我们让隐含层为1000个神经元。

    数据处理

    处理还是和上次一样。

    • 图片是28X28,我们要转换为一维的,这样才可以作为我们的输入层。
    • 图片标准化
    • label值换为one-hot编码,做为输出层。

    代码:

    X_train = X_train.reshape(60000,784).astype('float32')
    X_test = X_test.reshape(10000,784).astype('float32')
    
    X_train = X_train/255
    X_test = X_test/255
    
    y_train = np_utils.to_categorical(y_train)
    y_test = np_utils.to_categorical(y_test)
    

    MLP建模

    建立模型

    这次我们在中间加入的为1000个神经元,我们只需要简单修改下代码即可。

    from keras.models import Sequential
    from keras.layers import Dense
    
    model = Sequential()
    model.add(Dense(units=1000, 
                    input_dim=784, 
                    kernel_initializer='normal', 
                    activation='relu'))
    model.add(Dense(units=10, 
                    kernel_initializer='normal', 
                    activation='softmax'))
    
    模型训练
    model.compile(loss='categorical_crossentropy', 
                  optimizer='adam', metrics=['accuracy'])
    
    train_history = model.fit(x=X_train,
                             y=y_train,validation_split=0.2, 
                             epochs=10, batch_size=200,verbose=2)
    

    这里我们将结果可视化,发现训练集精度高,而测试集的精度上升却很慢,这是典型的过拟合,所以接下来用dropout方法,防止一定的过拟合。

    dropout防止过拟合

    这里我们只需要在隐含层后面add一个Dropout即可。结果看出,过拟合得到很大的改正,而且精度也提高了不少。

    from keras.models import Sequential
    from keras.layers import Dense
    
    model = Sequential()
    model.add(Dense(units=1000, 
                    input_dim=784, 
                    kernel_initializer='normal', 
                    activation='relu'))
    
    model.add(Dropout(0.5))  ###加入dropout
    
    model.add(Dense(units=10, 
                    kernel_initializer='normal', 
                    activation='softmax'))
    

    相关文章

      网友评论

        本文标题:深度学习|Keras识别MNIST手写数字(二)

        本文链接:https://www.haomeiwen.com/subject/qfutdqtx.html