美文网首页深度学习之基础
深度神经网络的图像分类应用

深度神经网络的图像分类应用

作者: 此间不留白 | 来源:发表于2019-09-30 19:28 被阅读0次

    前言

    作业一中一步步构建了一个神经网络,本部分作业将会利用作业一中的知识构建一个神经网络图片分类器。这个图片分类器通过训练可以识别出图片中的具体内容是否是猫。

    1. 导入相关包

    首先,还是导入搭建神经网络分类器所需要的python包,并对整个程序做一些基本的设置,具体代码如下所示:

    
    import time
    import numpy as np
    import h5py
    import matplotlib.pyplot as plt
    import scipy
    from PIL import Image
    
    
    %matplotlib inline
    plt.rcParams['figure.figsize'] = (5.0, 4.0) # 设置图片默认显示大小
    plt.rcParams['image.interpolation'] = 'nearest'
    plt.rcParams['image.cmap'] = 'gray'
    
    %load_ext autoreload
    %autoreload 2
    # 设置随机种子
    np.random.seed(1)
    

    2. 数据集

    神经网络所用到的数据集主要分为训练集和测试集,都是以.h5文件存储的,处理此类文件用到的python库是h5py库。对于训练集和测试集而言,输出数据都有一个标签,要么是0(表示该图片内容不是猫),要么是1(表示该图片内容内容是猫),数据集的特征都是(num_px,num_px,3)形式的矩阵,其中,3代表的是RGB3通道。加载数据集的代码如下所示:

    
    def load_data():
        train_dataset = h5py.File('datasets/train_catvnoncat.h5', "r")
        train_set_x_orig = np.array(train_dataset["train_set_x"][:]) #训练集的特征
        train_set_y_orig = np.array(train_dataset["train_set_y"][:]) # 训练集输出的标签
    
        test_dataset = h5py.File('datasets/test_catvnoncat.h5', "r")
        test_set_x_orig = np.array(test_dataset["test_set_x"][:]) #测试集的输入特征
        test_set_y_orig = np.array(test_dataset["test_set_y"][:]) # 测试集的输出标签
    
        classes = np.array(test_dataset["list_classes"][:]) # 类别列表
        
        train_set_y_orig = train_set_y_orig.reshape((1, train_set_y_orig.shape[0]))
        test_set_y_orig = test_set_y_orig.reshape((1, test_set_y_orig.shape[0]))
        
        return train_set_x_orig, train_set_y_orig, test_set_x_orig, test_set_y_orig, classes
    
    train_x_orig, train_y, test_x_orig, test_y, classes = load_data()
    

    随便找一张数据集中的数据,显示结果如下所示:

    
    index = 7
    plt.imshow(train_x_orig[index])
    print ("y = " + str(train_y[0,index]) + ". It's a " + classes[train_y[0,index]].decode("utf-8") +  " picture.")
    

    为了确认数据集的形状并且为了方便神经网络的搭建和后续的运算,需要对数据集的形状和大小进行显示,具体代码如下所示;

     m_train = train_x_orig.shape[0]  # 训练集的样本大小
    num_px = train_x_orig.shape[1]  #样本的像素
    m_test = test_x_orig.shape[0] #测试集的样本大小
    
    print ("Number of training examples: " + str(m_train))
    print ("Number of testing examples: " + str(m_test))
    print ("Each image is of size: (" + str(num_px) + ", " + str(num_px) + ", 3)")
    print ("train_x_orig shape: " + str(train_x_orig.shape))
    print ("train_y shape: " + str(train_y.shape))
    print ("test_x_orig shape: " + str(test_x_orig.shape))
    print ("test_y shape: " + str(test_y.shape))
    

    最后,输出结果如下所示:


    单个样本的数据集的形状为(64,64,3),表示一个宽和高都是64像素且为3通道的图像,在神经网络训练之前,需要对上述数据集做出一些改变,即单个样本的矩阵转化为一个列向量,具体过程可以由下图表示:


    除了将其转化一个向量之外,还需要将其标准化,确保每一个值都是在之间,标准化的过程可以通过将每一个像素除以255得到,具体的实现代码如下所示:
    # 重新改变训练集和测试集的大小
    train_x_flatten = train_x_orig.reshape(train_x_orig.shape[0], -1).T   # The "-1" makes reshape flatten the remaining dimensions
    test_x_flatten = test_x_orig.reshape(test_x_orig.shape[0], -1).T
    
    # 标准化数据集
    train_x = train_x_flatten/255.
    test_x = test_x_flatten/255.
    
    print ("train_x's shape: " + str(train_x.shape))  #输出:(12288,209)
    print ("test_x's shape: " + str(test_x.shape))  #输出: (12288,50)
    
    

    神经网络模型的结构

    数据预处理之后,就可以搭建神经网络的模型了,对于神经网络模型的搭建,有以下的选择:

    • 搭建一个2层的神经网络模型
    • 搭建一个L层的神经网络模型

    可以通过搭建不同结构的神经网络模型来比较哪种结构的神经网络模型拥有更好的性能。

    3.1 两层的神经网络模型

    对于两层的神经网络模型的结构可以由下图所示:

    整个神经网络的结构可以总结为INPUT->LINEAR->RELU->LINEAR->SIGMOID->OUTPUT
    输入特征是(12288,1)的矩阵,对应的权重参数W^{[1]}(12288,12288)的矩阵,而权重参数W^{[2]}(1,12288)的矩阵。

    3.2 L层的神经网络模型

    L层的神经网络模型的结构可以由以下图形表示:

    L层神经网络的结构可以总结为INPUT->[LINEAR->RELU]×(L-1)->LINEAE->SGMOID

    L层神经网络的更详细的解释可以参考一步步构建了一个神经网络.

    3.3 总体实现方法

    以上结构的神经网络的总体实现方法可以总结为以下几个步骤,具体如下:

    • 初始化权重参数/定义超参数
    • 经过多次迭代:
      • 前向传播
      • 利用损失函数计算损失
      • 反向传播
      • 利用反向传播和梯度下降更新参数
    • 用训练后得到的参数预测输出

    4. 两层神经网络模型的实现

    两层神经网络的具体实现细节已经有过介绍,故以下直接给出实现代码。

    4.1 定义神经网络的结构

    首先,定义神经网络模型的结构,具体代码如下所示:

    
    n_x = 12288     # num_px * num_px * 3
    n_h = 7
    n_y = 1
    layers_dims = (n_x, n_h, n_y)
    
    4.2 两层神经网络模型的参数初始化
    #初始化权重参数
    def initialize_parameters(n_x, n_h, n_y):
         np.random.seed(1)
        
        W1 = np.random.randn(n_h, n_x)*0.01
        b1 = np.zeros((n_h, 1))
        W2 = np.random.randn(n_y, n_h)*0.01
        b2 = np.zeros((n_y, 1))
        
        assert(W1.shape == (n_h, n_x))
        assert(b1.shape == (n_h, 1))
        assert(W2.shape == (n_y, n_h))
        assert(b2.shape == (n_y, 1))
        
        parameters = {"W1": W1,
                      "b1": b1,
                      "W2": W2,
                      "b2": b2}
        
        return parameters     
    
    
    4.3 前向激活函数的计算
    
    def linear_activation_forward(A_prev, W, b, activation):
    
        if activation == "sigmoid":
        
            Z, linear_cache = linear_forward(A_prev, W, b)
            A, activation_cache = sigmoid(Z)
        
        elif activation == "relu":
           
            Z, linear_cache = linear_forward(A_prev, W, b)
            A, activation_cache = relu(Z)
        
        assert (A.shape == (W.shape[0], A_prev.shape[1]))
        cache = (linear_cache, activation_cache)
    
        return A, cache
    
    4.4 损失函数的计算
    
    def compute_cost(AL, Y):
      
        m = Y.shape[1]
       cost = (1./m) * (-np.dot(Y,np.log(AL).T) - np.dot(1-Y, np.log(1-AL).T))
        
        cost = np.squeeze(cost) 
        assert(cost.shape == ())
        
        return cost
    
    4.5 反向传播函数的计算
    
    def linear_activation_backward(dA, cache, activation):
     
        linear_cache, activation_cache = cache
        
        if activation == "relu":
            dZ = relu_backward(dA, activation_cache)
            dA_prev, dW, db = linear_backward(dZ, linear_cache)
            
        elif activation == "sigmoid":
            dZ = sigmoid_backward(dA, activation_cache)
            dA_prev, dW, db = linear_backward(dZ, linear_cache)
        
        return dA_prev, dW, db
    
    
    4.6 参数的更新
    def update_parameters(parameters, grads, learning_rate):
    
        L = len(parameters) // 2 # 神经网络的层数
        
        for l in range(L):
            parameters["W" + str(l+1)] = parameters["W" + str(l+1)] - learning_rate * grads["dW" + str(l+1)]
            parameters["b" + str(l+1)] = parameters["b" + str(l+1)] - learning_rate * grads["db" + str(l+1)]
            
        return parameters
    
    4.7 两层神经网络模型的总体实现

    根据以上代码,神经网络模型的总体实现代码,如下所示;

    def two_layer_model(X, Y, layers_dims, learning_rate = 0.0075, num_iterations = 3000, print_cost=False):
    
        np.random.seed(1)
        grads = {}
        costs = []                             
        m = X.shape[1]                      
        (n_x, n_h, n_y) = layers_dims
    # 初始化权重参数
        parameters = initialize_parameters(n_x,n_h,n_y)
      
        W1 = parameters["W1"]
        b1 = parameters["b1"]
        W2 = parameters["W2"]
        b2 = parameters["b2"]
        
    
    多次迭代
        for i in range(0, num_iterations):
    
      前向传播的实现
            
            A1, cache1 = linear_activation_forward(X,W1,b1,'relu')
            A2, cache2 = linear_activation_forward(A1,W2,b2,'sigmoid')
       # 损失函数计算
            cost = compute_cost(A2,Y)
      
     # 反向传播的第一步计算公式
            dA2 = - (np.divide(Y, A2) - np.divide(1 - Y, 1 - A2))
            #反向传播的计算
            dA1, dW2, db2 = linear_activation_backward(dA2,cache2,'sigmoid')
            dA0, dW1, db1 = linear_activation_backward(dA1,cache1,'relu')
          
            grads['dW1'] = dW1
            grads['db1'] = db1
            grads['dW2'] = dW2
            grads['db2'] = db2
            
    #参数更新
            parameters = update_parameters(parameters,grads,learning_rate)
      
            W1 = parameters["W1"]
            b1 = parameters["b1"]
            W2 = parameters["W2"]
            b2 = parameters["b2"]
            
    
            if print_cost and i % 100 == 0:
                print("Cost after iteration {}: {}".format(i, np.squeeze(cost)))
            if print_cost and i % 100 == 0:
                costs.append(cost)
           
    # 绘制损失函数图形
        plt.plot(np.squeeze(costs))
        plt.ylabel('cost')
        plt.xlabel('iterations (per tens)')
        plt.title("Learning rate =" + str(learning_rate))
        plt.show()
        
        return parameters
    

    经过多次迭代之后,可以看到损失已经下降到一个非常小的值。


    4.8 做出预测

    有了以上实现,得到了能够使损失函数最小化的参数,利用此参数和神经网络的前向传播函数做出预测如下所示;

    def predict(X, y, parameters):
       
        m = X.shape[1]
        n = len(parameters) // 2 # number of layers in the neural network
        p = np.zeros((1,m))
        
    
        probas, caches = L_model_forward(X, parameters)
        for i in range(0, probas.shape[1]):
            if probas[0,i] > 0.5:
                p[0,i] = 1
            else:
                p[0,i] = 0
        
        print("Accuracy: "  + str(np.sum((p == y)/m)))
            
        return p
    

    分别对训练集和测试集做出预测,精确度结果如下所示:
    训练集预测精度



    测试集预测精度


    5 L层神经网络模型的实现

    L层神经网络模型的实现已经在一步步实现一个神经网络中有过详细介绍了,一些多层神经网络分类器的主要的代码实现如下所示:

    5.1 多层神经网络模型的参数初始化
    def initialize_parameters_deep(layer_dims):
       
        np.random.seed(1)
        parameters = {}
        L = len(layer_dims)          #网络的层数
    
        for l in range(1, L):
            parameters['W' + str(l)] = np.random.randn(layer_dims[l], layer_dims[l-1]) / np.sqrt(layer_dims[l-1]) *0.01
            parameters['b' + str(l)] = np.zeros((layer_dims[l], 1))
            
            assert(parameters['W' + str(l)].shape == (layer_dims[l], layer_dims[l-1]))
            assert(parameters['b' + str(l)].shape == (layer_dims[l], 1))
    
            
        return parameters
    
    5.2 多层神经网络前向传播函数的实现
    
    def L_model_forward(X, parameters):
    
    caches = []
        A = X
        L = len(parameters) // 2              
        for l in range(1, L):
            A_prev = A 
            A, cache = linear_activation_forward(A_prev, parameters['W' + str(l)], parameters['b' + str(l)], activation = "relu")
            caches.append(cache)
       
        AL, cache = linear_activation_forward(A, parameters['W' + str(L)], parameters['b' + str(L)], activation = "sigmoid")
        caches.append(cache)
        
        assert(AL.shape == (1,X.shape[1]))
                
        return AL, caches
    
    
    5.3 多层神经网络模型的反向传播实现
    
    def L_model_backward(AL, Y, caches):
        
        grads = {}
    
        m = AL.shape[1]
        Y = Y.reshape(AL.shape) 
      
        dAL = - (np.divide(Y, AL) - np.divide(1 - Y, 1 - AL))
        current_cache = caches[L-1]
        grads["dA" + str(L)], grads["dW" + str(L)], grads["db" + str(L)] = linear_activation_backward(dAL, current_cache, activation = "sigmoid")
        
        for l in reversed(range(L-1)):
     
            current_cache = caches[l]
            dA_prev_temp, dW_temp, db_temp = linear_activation_backward(grads["dA" + str(l + 2)], current_cache, activation = "relu")
            grads["dA" + str(l + 1)] = dA_prev_temp
            grads["dW" + str(l + 1)] = dW_temp
            grads["db" + str(l + 1)] = db_temp
    
        return grads
    
    
    5.4 参数更新
    
    def update_parameters(parameters, grads, learning_rate):
    
        L = len(parameters) // 2 # number of layers in the neural network
        for l in range(L):
            parameters["W" + str(l+1)] = parameters["W" + str(l+1)] - learning_rate * grads["dW" + str(l+1)]
            parameters["b" + str(l+1)] = parameters["b" + str(l+1)] - learning_rate * grads["db" + str(l+1)]
            
        return parameters
    
    
    5.5 多层神经网络的整体实现代码

    将以上所有的代码按照神经网络的计算方式组合在一起,如下所示:

    
    def L_layer_model(X, Y, layers_dims, learning_rate = 0.0075, num_iterations = 3000, print_cost=False):#lr was 0.009
         np.random.seed(1)
        costs = []                         # keep track of cost
    
        parameters = initialize_parameters_deep(layers_dims)
    
        for i in range(0, num_iterations):
    
            AL, caches = L_model_forward(X,parameters)
          
            cost = compute_cost(AL, Y)
         
            grads = L_model_backward(AL,Y,caches)
           
            parameters = update_parameters(parameters,grads,learning_rate)
         
            if print_cost and i % 100 == 0:
                print ("Cost after iteration %i: %f" %(i, cost))
            if print_cost and i % 100 == 0:
                costs.append(cost)
                
      
        plt.plot(np.squeeze(costs))
        plt.ylabel('cost')
        plt.xlabel('iterations (per tens)')
        plt.title("Learning rate =" + str(learning_rate))
        plt.show()
    

    在运行以上代码之前,需要定义一个网络的结构,包括输入层,隐藏层和输出层的基本信息,具体实现代码如下所示:

    
    layers_dims = [12288, 20, 7, 5, 1] #  5-层的神经网络
    

    最后,以上代码运行结果和损失的下降过程如下所示:

    5.6 做出预测

    根据4.7的预测代码,分别对训练集和测试集做出预测,其结果分别如下所示:

    可以看出,与浅层神经网络相比,多层神经网络的性能有所上升。

    6 分类结果分析

    利用以下代码对神经网络分类不正确的图像进行输出

    
    def print_mislabeled_images(classes, X, y, p):
        """
        
        X -- 数据集
        y --真实标签
        p -- 预测标签
        """
        a = p + y  # 相加同为2或者同为0表示预测结果正确
        mislabeled_indices = np.asarray(np.where(a == 1))
        plt.rcParams['figure.figsize'] = (40.0, 40.0) 
        num_images = len(mislabeled_indices[0])
        for i in range(num_images):
            index = mislabeled_indices[1][i]
            
            plt.subplot(2, num_images, i + 1)
            plt.imshow(X[:,index].reshape(64,64,3), interpolation='nearest')
            plt.axis('off')
            plt.title("Prediction: " + classes[int(p[0,index])].decode("utf-8") + " \n Class: " + classes[y[0,index]].decode("utf-8"))
    print_mislabeled_images(classes, test_x, test_y, pred_test)
    

    最后,造成这种异常结果的原因可能如下:

    • 猫的身体处在照片中不合适的位置
    • 猫的颜色与图片背景色太过接近
    • 猫的颜色较为罕见
    • 拍照角度
    • 图片的亮度
    • 猫的身体在图片中过大或者过小

    相关文章

      网友评论

        本文标题:深度神经网络的图像分类应用

        本文链接:https://www.haomeiwen.com/subject/tbrqpctx.html