美文网首页技术之镜深度学习
CNN发展历程(LeNet、AlexNet、VGG、Incept

CNN发展历程(LeNet、AlexNet、VGG、Incept

作者: 萧风博宇 | 来源:发表于2019-06-19 16:08 被阅读33次

    唉。
    人生如梦,回首过往竟有青春逝去不再来,美好时光不再有的感觉。匆匆忙忙的我们竟然走过了这么多荆棘与坎坷,是否还能不忘初心拥有一颗纯净的心灵。年轻时候,最喜欢蒋捷的《听雨》:
    少年听雨歌楼上,红烛昏罗帐。
    壮年听雨客舟中,江阔云低断雁叫西风。
    而今听雨僧庐下,鬓已星星星也。
    悲欢离合总无情,一任阶前、点滴到天明。


    深度学习领域,卷积神经网络(Convolutional Neural Networks,简称CNN)在图像识别中取发挥了重要作用,CNN发展到今天已有很多变种,其中有几个经典模型在CNN发展历程中有着里程碑的意义,它们分别是:LeNet、AlexNet、Googlenet、VGG、ResNet等,接下来将进行逐一介绍,并给出keras的简单实现。

    LeNet

    LeNet

    LeNet利用卷积、参数共享、池化等操作提取特征(这是卷积网络的共同特点),避免了大量的计算成本,最后再使用全连接神经网络进行分类识别,这个网络也是之后大量神经网络架构的起点,给这个领域带来了许多灵感。

    下面以手写字体识别网络LeNet5进行介绍,在上图中,不包含输入层,LeNet由7层CNN组成,输入的原始图像大小是32×32像素,Ci表示卷积层,Si表示池化操作的子采样层,Fi表示全连接层。

    • C1层:
      6@28×28:该层使用了6个卷积核,每个卷积核的大小为5×5,这样就得到了6个feature map(特征图)大小为(32-5+1)×(32-5+1)= 28×28,没有padding操作,步长为1。参数个数为(5×5+1)×6= 156,其中5×5为卷积核参数,1为偏置参数;卷积后的图像大小为28×28,因此每个特征图有28×28个神经元,每个卷积核参数为(5×5+1)×6,因此,该层的连接数为(5×5+1)×6×28×28=122304。
    • S2层(下采样,池化层):
      6@14×14:该层主要是做池化或者特征映射(特征降维),池化单元为2×2,因此,6个特征图的大小经池化后即变为(28/2)即14×14(池化单元之间没有重叠,在池化区域内进行聚合统计后得到新的特征值,因此经2×2池化后,每两行两列重新算出一个特征值出来,相当于图像大小减半,因此卷积后的28×28图像经2×2池化后就变为14×14)
      这一层的计算过程是:2×2 单元里的值相加,然后再乘以训练参数w,再加上一个偏置参数b(每一个特征图共享相同的w和b),然后取sigmoid值(S函数:0-1区间),作为对应的该单元的值。卷积操作与池化的示意图如下:
      卷积-池化
      S2层由于每个特征图都共享相同的w和b这两个参数,因此需要2×6=12个参数;下采样之后的图像大小为14×14,因此S2层的每个特征图有14×14个神经元,每个池化单元连接数为2×2+1(1为偏置量),因此,该层的连接数为(2×2+1)×14×14×6 = 5880
    • C3层:
      16@10×10:C3层有16个卷积核,卷积模板大小为5×5;特征图大小为(14-5+1)×(14-5+1)= 10×10;需要注意的是,C3与S2并不是全连接而是部分连接,有些是C3连接到S2三层、有些四层、甚至达到6层,通过这种方式提取更多特征,连接的规则如下表所示:


      连接规则

      C3层的参数数目为(5×5×3+1)×6 +(5×5×4+1)×9 +5×5×6+1 = 1516;卷积后的特征图大小为10×10,参数数量为1516,因此连接数为1516×10×10= 151600。

    • S4(下采样层,也称池化层):16@5×5
      池化单元大小为2×2,因此,该层与C3一样共有16个特征图,每个特征图的大小为5×5;所需要参数个数为16×2 = 32;连接数为(2×2+1)×5×5×16 = 2000;
    • C5层(卷积层):120
      该层有120个卷积核,每个卷积核的大小仍为5×5,因此有120个特征图。由于S4层的大小为5×5,而该层的卷积核大小也是5×5,因此特征图大小为(5-5+1)×(5-5+1)= 1×1。这样该层就刚好变成了全连接,这只是巧合,如果原始输入的图像比较大,则该层就不是全连接了,不过这种方式是可以代替全连接的,后续的网络结构有这种实现。本层的参数数目为120×(5×5×16+1) = 48120;由于该层的特征图大小刚好为1×1,因此连接数为48120×1×1=48120。
    • F6层(全连接层):84
      F6层有84个单元,之所以选这个数字的原因是来自于输出层的设计,对应于一个7×12的比特图,如下图所示,-1表示白色,1表示黑色,这样每个符号的比特图的黑白色就对应于一个编码。


    该层有84个特征图,特征图大小与C5一样都是1×1,与C5层全连接。参数数量为(120+1)×84=10164。跟经典神经网络一样,F6层计算输入向量和权重向量之间的点积,再加上一个偏置,然后将其传递给sigmoid函数得出结果。由于是全连接,连接数与参数数量一样,也是10164。

    • OUTPUT层(输出层):10
      Output层也是全连接层,共有10个节点,分别代表数字0到9。如果第i个节点的值为0,则表示网络识别的结果是数字i。
      该层采用径向基函数(RBF)的网络连接方式,假设x是上一层的输入,y是RBF的输出,则RBF输出的计算方式是:


    上式中的Wij的值由i的比特图编码确定,i从0到9,j取值从0到7×12-1。RBF输出的值越接近于0,表示当前网络输入的识别结果与字符i越接近。
    参数个数为84×10=840;连接数与参数个数一样,也是840
    下图是识别数字3的过程:


    数字3的识别过程

    基于keras可实现如下:

    import numpy as np
    import keras
    from keras.datasets import mnist
    from keras.utils import np_utils
    from keras.models import Sequential
    from keras.layers import Dense, Activation, Conv2D, MaxPooling2D, Flatten
    from keras.optimizers import Adam
    
    #load the MNIST dataset from keras datasets
    (X_train, y_train), (X_test, y_test) = mnist.load_data()
    
    #Process data
    X_train = X_train.reshape(-1, 28, 28, 1) # Expend dimension for 1 cahnnel image
    X_test = X_test.reshape(-1, 28, 28, 1)  # Expend dimension for 1 cahnnel image
    X_train = X_train / 255 # Normalize
    X_test = X_test / 255 # Normalize
    
    #One hot encoding
    y_train = np_utils.to_categorical(y_train, num_classes=10)
    y_test = np_utils.to_categorical(y_test, num_classes=10)
    
    #Build LetNet model with Keras
    def LetNet(width, height, depth, classes):
        # initialize the model
        model = Sequential()
    
        # first layer, convolution and pooling
        model.add(Conv2D(input_shape=(width, height, depth), kernel_size=(5, 5), filters=6, strides=(1,1), activation='tanh'))
        model.add(MaxPooling2D(pool_size=(2, 2), strides=(2, 2)))
    
        # second layer, convolution and pooling
        model.add(Conv2D(input_shape=(width, height, depth), kernel_size=(5, 5), filters=16, strides=(1,1), activation='tanh'))
        model.add(MaxPooling2D(pool_size=(2, 2), strides=(2, 2)))
    
        # Fully connection layer
        model.add(Flatten())
        model.add(Dense(120,activation = 'tanh'))
        model.add(Dense(84,activation = 'tanh'))
    
        # softmax classifier
        model.add(Dense(classes))
        model.add(Activation("softmax"))
    
        return model
    
    LetNet_model = LetNet(28,28,1,10)
    LetNet_model.summary()
    LetNet_model.compile(optimizer=Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-08),loss = 'categorical_crossentropy',metrics=['accuracy'])
    
    #Strat training
    History = LetNet_model.fit(X_train, y_train, epochs=5, batch_size=32,validation_data=(X_test, y_test))
    
    #Plot Loss and accuracy
    import matplotlib.pyplot as plt
    plt.figure(figsize = (15,5))
    plt.subplot(1,2,1)
    plt.plot(History.history['acc'])
    plt.plot(History.history['val_acc'])
    plt.title('model accuracy')
    plt.ylabel('accuracy')
    plt.xlabel('epoch')
    plt.legend(['train', 'test'], loc='upper left')
    
    plt.subplot(1,2,2)
    plt.plot(History.history['loss'])
    plt.plot(History.history['val_loss'])
    plt.title('model loss')
    plt.ylabel('loss')
    plt.xlabel('epoch')
    plt.legend(['train', 'test'], loc='upper left')
    plt.show()
    plt.show()
    
    训练过程-5轮即可达到98.7%的精度
    acc-loss

    AlexNet

    AlexNet

    AlexNet有几个关键的改进点,也为后续的卷积网络架构设计奠定了基础。

    1. 使用了非线性激活函数:ReLU
      传统的神经网络普遍使用Sigmoid或者tanh等非线性函数作为激励函数,然而它们容易出现梯度弥散或梯度饱和的情况。以Sigmoid函数为例,当输入的值非常大或者非常小的时候,这些神经元的梯度接近于0(梯度饱和现象),如果输入的初始值很大的话,梯度在反向传播时因为需要乘上一个Sigmoid导数,会造成梯度越来越小,导致网络变的很难学习。
      在AlexNet中,使用了ReLU (Rectified Linear Units)激励函数,该函数的公式为:f(x)=max(0,x),当输入信号<0时,输出都是0,当输入信号>0时,输出等于输入,如下图所示:


      ReLu

      使用ReLU替代Sigmoid/tanh,由于ReLU是线性的,且导数始终为1,计算量大大减少,收敛速度会比Sigmoid/tanh快很多。

    2. Data augmentation(数据扩充)
      有一种观点认为神经网络是靠数据喂出来的,如果能够增加训练数据,提供海量数据进行训练,则能够有效提升算法的准确率,因为这样可以避免过拟合,从而可以进一步增大、加深网络结构。而当训练数据有限时,可以通过一些变换从已有的训练数据集中生成一些新的数据,以快速地扩充训练数据。其中,最简单、通用的图像数据变形的方式:水平翻转图像,从原始图像中随机裁剪、平移变换,颜色、光照变换等。
      AlexNet在训练时,在数据扩充(data augmentation)这样处理:
      (1)随机裁剪,对256×256的图片进行随机裁剪到224×224,然后进行水平翻转,相当于将样本数量增加了((256-224)^2)×2=2048倍;
      (2)测试的时候,对左上、右上、左下、右下、中间分别做了5次裁剪,然后翻转,共10个裁剪,之后对结果求平均。作者说,如果不做随机裁剪,大网络基本上都过拟合;
      (3)对RGB空间做PCA(主成分分析),然后对主成分做一个(0, 0.1)的高斯扰动,也就是对颜色、光照作变换,结果使错误率又下降了1%。
    3. 重叠池化 (Overlapping Pooling)
      在AlexNet中使用的池化(Pooling)却是可重叠的,也就是说,在池化的时候,每次移动的步长小于池化的窗口长度。AlexNet池化的大小为3×3的正方形,每次池化移动步长为2,这样就会出现重叠。重叠池化可以避免过拟合,这个策略贡献了0.3%的Top-5错误率。
    4. 局部归一化(Local Response Normalization,简称LRN)
    5. Dropout
      不言而喻,现在的深度学习网络架构中,Dropout几乎是抑制过拟合的标配。
    6. 多GPU训练
      AlexNet当时使用了GTX580的GPU进行训练,由于单个GTX 580 GPU只有3GB内存,这限制了在其上训练的网络的最大规模,因此他们在每个GPU中放置一半核(或神经元),将网络分布在两个GPU上进行并行计算,大大加快了AlexNet的训练速度。以至于其网络结构是这样的:


      上下分别在两块gpu中训练

      其实也可以弄成一层网络进行训练,比如下图,和LeNet比较类似:


      一层的AlexNet

    AlexNet网络结构共有8层,前面5层是卷积层,后面3层是全连接层,最后一个全连接层的输出传递给一个1000路的softmax层,对应1000个类标签的分布。以下为在开源数据dataset oxflower17上运行的AlexNet实现:

    import numpy as np
    import keras
    from keras.datasets import mnist
    from keras.utils import np_utils
    from keras.models import Sequential
    from keras.layers import Dense, Activation, Conv2D, MaxPooling2D, Flatten,Dropout
    from keras.optimizers import Adam
    
    #Load oxflower17 dataset
    import tflearn.datasets.oxflower17 as oxflower17
    from sklearn.model_selection import train_test_split
    x, y = oxflower17.load_data(one_hot=True)
    
    #Split train and test data
    X_train, X_test, y_train, y_test = train_test_split(x, y, test_size=0.2,shuffle = True)
    
    #Data augumentation with Keras tools
    from keras.preprocessing.image import ImageDataGenerator
    img_gen = ImageDataGenerator(
        rescale=1./255,
        shear_range=0.2,
        zoom_range=0.2,
        horizontal_flip=True
        )
    
    #Build AlexNet model
    def AlexNet(width, height, depth, classes):
        
        model = Sequential()
        
        #First Convolution and Pooling layer
        model.add(Conv2D(96,(11,11),strides=(4,4),input_shape=(width,height,depth),padding='valid',activation='relu'))
        model.add(MaxPooling2D(pool_size=(3,3),strides=(2,2)))
        
        #Second Convolution and Pooling layer
        model.add(Conv2D(256,(5,5),strides=(1,1),padding='same',activation='relu'))
        model.add(MaxPooling2D(pool_size=(3,3),strides=(2,2)))
        
        #Three Convolution layer and Pooling Layer
        model.add(Conv2D(384,(3,3),strides=(1,1),padding='same',activation='relu'))
        model.add(Conv2D(384,(3,3),strides=(1,1),padding='same',activation='relu'))
        model.add(Conv2D(256,(3,3),strides=(1,1),padding='same',activation='relu'))
        model.add(MaxPooling2D(pool_size=(3,3),strides=(2,2)))
        
        #Fully connection layer
        model.add(Flatten())
        model.add(Dense(4096,activation='relu'))
        model.add(Dropout(0.5))
        model.add(Dense(4096,activation='relu'))
        model.add(Dropout(0.5))
        model.add(Dense(1000,activation='relu'))
        model.add(Dropout(0.5))
        
        #Classfication layer
        model.add(Dense(classes,activation='softmax'))
    
        return model
      
    AlexNet_model = AlexNet(224,224,3,17)
    AlexNet_model.summary()
    AlexNet_model.compile(optimizer=Adam(lr=0.00001, beta_1=0.9, beta_2=0.999, epsilon=1e-08),loss = 'categorical_crossentropy',metrics=['accuracy'])
    
    #Start training using dataaugumentation generator
    History = AlexNet_model.fit_generator(img_gen.flow(X_train*255, y_train, batch_size = 16),
                                          steps_per_epoch = len(X_train)/16, validation_data = (X_test,y_test), epochs = 30 )
    
    #Plot Loss and Accuracy
    import matplotlib.pyplot as plt
    plt.figure(figsize = (15,5))
    plt.subplot(1,2,1)
    plt.plot(History.history['acc'])
    plt.plot(History.history['val_acc'])
    plt.title('model accuracy')
    plt.ylabel('accuracy')
    plt.xlabel('epoch')
    plt.legend(['train', 'test'], loc='upper left')
    
    plt.subplot(1,2,2)
    plt.plot(History.history['loss'])
    plt.plot(History.history['val_loss'])
    plt.title('model loss')
    plt.ylabel('loss')
    plt.xlabel('epoch')
    plt.legend(['train', 'test'], loc='upper left')
    plt.show()
    plt.show()
    
    
    参数量达到千万级
    acc-loss

    VGGNet

    vgg结构
    2014年,牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研发出了新的深度卷积神经网络:VGGNet,并取得了ILSVRC2014比赛分类项目的第二名(第一名是GoogLeNet,也是同年提出的)和定位项目的第一名。
    VGGNet探索了卷积神经网络的深度与其性能之间的关系,成功地构筑了16~19层深的卷积神经网络,证明了增加网络的深度能够在一定程度上影响网络最终的性能,使错误率大幅下降,同时拓展性又很强,迁移到其它图片数据上的泛化性也非常好。到目前为止,VGG仍然被用来提取图像特征。
    VGGNet可以看成是加深版本的AlexNet,都是由卷积层、全连接层两大部分构成如下图示。

    其特点是:
    1. 结构简明
    VGG由5层卷积层、3层全连接层、softmax输出层构成,层与层之间使用max-pooling(最大化池)分开,所有隐层的激活单元都采用ReLU函数。
    2. 小卷积核和多卷积子层
    VGG使用多个较小卷积核(3x3)的卷积层代替一个卷积核较大的卷积层,一方面可以减少参数,另一方面相当于进行了更多的非线性映射,可以增加网络的拟合/表达能力。
    小卷积核是VGG的一个重要特点,虽然VGG是在模仿AlexNet的网络结构,但没有采用AlexNet中比较大的卷积核尺寸(如7x7),而是通过降低卷积核的大小(3x3),增加卷积子层数来达到同样的性能(VGG:从1到4卷积子层,AlexNet:1子层)。
    VGG的作者认为两个3x3的卷积堆叠获得的感受野大小,相当一个5x5的卷积;而3个3x3卷积的堆叠获取到的感受野相当于一个7x7的卷积。这样可以增加非线性映射,也能很好地减少参数(例如7x7的参数为49个,而3个3x3的参数为27)。
    3.小池化核
    相比AlexNet的3x3的池化核,VGG全部采用2x2的池化核。
    4. 通道数多
    VGG网络第一层的通道数为64,后面每层都进行了翻倍,最多到512个通道,通道数的增加,使得更多的信息可以被提取出来。
    5 .层数更深、特征图更宽
    由于卷积核专注于扩大通道数、池化专注于缩小宽和高,使得模型架构上更深更宽的同时,控制了计算量的增加规模。
    6、全连接转卷积(测试阶段)
    这也是VGG的一个特点,在网络测试阶段将训练阶段的三个全连接替换为三个卷积,使得测试得到的全卷积网络因为没有全连接的限制,因而可以接收任意宽或高为的输入,这在测试阶段很重要。输入图像是224x224x3,如果后面三个层都是全连接,那么在测试阶段就只能将测试的图像全部都要缩放大小到224x224x3,才能符合后面全连接层的输入数量要求,这样就不便于测试工作的开展。
    而“全连接转卷积”,替换过程如下:
    f --> conv
    其卷积结构可表示如下:
    VGGNet
    • 输入224x224x3的图片,经64个3x3的卷积核作两次卷积+ReLU,卷积后的尺寸变为224x224x64
    • 作max pooling(最大化池化),池化单元尺寸为2x2(效果为图像尺寸减半),池化后的尺寸变为112x112x64
    • 经128个3x3的卷积核作两次卷积+ReLU,尺寸变为112x112x128
    • 作2x2的max pooling池化,尺寸变为56x56x128
    • 经256个3x3的卷积核作三次卷积+ReLU,尺寸变为56x56x256
    • 作2x2的max pooling池化,尺寸变为28x28x256
    • 经512个3x3的卷积核作三次卷积+ReLU,尺寸变为28x28x512
    • 作2x2的max pooling池化,尺寸变为14x14x512
    • 经512个3x3的卷积核作三次卷积+ReLU,尺寸变为14x14x512
    • 作2x2的max pooling池化,尺寸变为7x7x512
    • 与两层1x1x4096,一层1x1x1000进行全连接+ReLU(共三层)
    • 通过softmax输出1000个预测结果
      同样基于数据集oxflower17实现VGG16Net:
    import numpy as np
    import keras
    from keras.datasets import mnist
    from keras.utils import np_utils
    from keras.models import Sequential
    from keras.layers import Dense, Activation, Conv2D, MaxPooling2D, Flatten,Dropout
    from keras.optimizers import Adam
    
    #Load oxflower17 dataset
    import tflearn.datasets.oxflower17 as oxflower17
    from sklearn.model_selection import train_test_split
    x, y = oxflower17.load_data(one_hot=True)
    
    #Split train and test data
    X_train, X_test, y_train, y_test = train_test_split(x, y, test_size=0.2,shuffle = True)
    
    #Data augumentation with Keras tools
    from keras.preprocessing.image import ImageDataGenerator
    img_gen = ImageDataGenerator(
        rescale=1./255,
        shear_range=0.2,
        zoom_range=0.2,
        horizontal_flip=True
        )
    
    #Build VGG16Net model
    def VGG16Net(width, height, depth, classes):
        
        model = Sequential()
        
        model.add(Conv2D(64,(3,3),strides=(1,1),input_shape=(224,224,3),padding='same',activation='relu'))
        model.add(Conv2D(64,(3,3),strides=(1,1),padding='same',activation='relu'))
        model.add(MaxPooling2D(pool_size=(2,2)))
        model.add(Conv2D(128,(3,2),strides=(1,1),padding='same',activation='relu'))
        model.add(Conv2D(128,(3,3),strides=(1,1),padding='same',activation='relu'))
        model.add(MaxPooling2D(pool_size=(2,2)))
        model.add(Conv2D(256,(3,3),strides=(1,1),padding='same',activation='relu'))
        model.add(Conv2D(256,(3,3),strides=(1,1),padding='same',activation='relu'))
        model.add(Conv2D(256,(3,3),strides=(1,1),padding='same',activation='relu'))
        model.add(MaxPooling2D(pool_size=(2,2)))
        model.add(Conv2D(512,(3,3),strides=(1,1),padding='same',activation='relu'))
        model.add(Conv2D(512,(3,3),strides=(1,1),padding='same',activation='relu'))
        model.add(Conv2D(512,(3,3),strides=(1,1),padding='same',activation='relu'))
        model.add(MaxPooling2D(pool_size=(2,2)))
        model.add(Conv2D(512,(3,3),strides=(1,1),padding='same',activation='relu'))
        model.add(Conv2D(512,(3,3),strides=(1,1),padding='same',activation='relu'))
        model.add(Conv2D(512,(3,3),strides=(1,1),padding='same',activation='relu'))
        model.add(MaxPooling2D(pool_size=(2,2)))
        model.add(Flatten())
        model.add(Dense(4096,activation='relu'))
        model.add(Dropout(0.5))
        model.add(Dense(4096,activation='relu'))
        model.add(Dropout(0.5))
        model.add(Dense(1000,activation='relu'))
        model.add(Dropout(0.5))
        model.add(Dense(17,activation='softmax'))
        
        return model
      
    VGG16_model = VGG16Net(224,224,3,17)
    VGG16_model.summary()
    VGG16_model.compile(optimizer=Adam(lr=0.00001, beta_1=0.9, beta_2=0.999, epsilon=1e-08),loss = 'categorical_crossentropy',metrics=['accuracy'])
    
    #Start training using dataaugumentation generator
    History = VGG16_model.fit_generator(img_gen.flow(X_train*255, y_train, batch_size = 16),
                                          steps_per_epoch = len(X_train)/16, validation_data = (X_test,y_test), epochs = 30 )
    
    #Plot Loss and Accuracy
    import matplotlib.pyplot as plt
    plt.figure(figsize = (15,5))
    plt.subplot(1,2,1)
    plt.plot(History.history['acc'])
    plt.plot(History.history['val_acc'])
    plt.title('model accuracy')
    plt.ylabel('accuracy')
    plt.xlabel('epoch')
    plt.legend(['train', 'test'], loc='upper left')
    
    plt.subplot(1,2,2)
    plt.plot(History.history['loss'])
    plt.plot(History.history['val_loss'])
    plt.title('model loss')
    plt.ylabel('loss')
    plt.xlabel('epoch')
    plt.legend(['train', 'test'], loc='upper left')
    plt.show()
    plt.show()
    
    

    参数量接近AlexNet的3倍

    要得到一个好的结果训练时间比较长,我就没等它跑完了。代码运行是没问题的。

    Inception(GoogLeNet)

    GoogLeNet在2014年ILSVRC的分类比赛中拿到了第一名,GoogLeNet做了一个创新,他并不是像VGG或是AlexNet那种加深网络的概念,而是加入了一个叫做Inception的结构来取代原本单纯的卷积层,而他的训练参数也比AlexNet少上好几倍,而且准确率相对更好,所以当时才拿下了第一名,一直到现在,Inception已更新到InceptionV4。


    GoogLeNet架构

    而GoogLeNet最重要的就是Inception架构:


    Inception架构

    GoogleNet有以下几种不同的地方:

    • 将单纯的卷积层和池化层改成Inception架构
    • 最后分类时使用average pooling代替了全连接层
    • 网络加入了两个辅助分类器,为了避免梯度消失的情況

    我们用InceptionV1论文中提到的这个Table实现GoogLeNet的网络,上面一样,都用dataset oxflower17进行训练。

    import numpy as np
    import keras
    from keras.datasets import mnist
    from keras.utils import np_utils
    from keras.models import Sequential
    from keras.layers import Dense, Activation, Conv2D, MaxPooling2D, Flatten,Dropout,BatchNormalization,AveragePooling2D,concatenate,Input, concatenate
    from keras.models import Model,load_model
    from keras.optimizers import Adam
    
    #Load oxflower17 dataset
    import tflearn.datasets.oxflower17 as oxflower17
    from sklearn.model_selection import train_test_split
    x, y = oxflower17.load_data(one_hot=True)
    
    #Split train and test data
    X_train, X_test, y_train, y_test = train_test_split(x, y, test_size=0.2,shuffle = True)
    
    #Data augumentation with Keras tools
    from keras.preprocessing.image import ImageDataGenerator
    img_gen = ImageDataGenerator(
        rescale=1./255,
        shear_range=0.2,
        zoom_range=0.2,
        horizontal_flip=True
        )
    
    #Define convolution with batchnromalization
    def Conv2d_BN(x, nb_filter,kernel_size, padding='same',strides=(1,1),name=None):
        if name is not None:
            bn_name = name + '_bn'
            conv_name = name + '_conv'
        else:
            bn_name = None
            conv_name = None
    
        x = Conv2D(nb_filter,kernel_size,padding=padding,strides=strides,activation='relu',name=conv_name)(x)
        x = BatchNormalization(axis=3,name=bn_name)(x)
        return x
      
    #Define Inception structure
    def Inception(x,nb_filter_para):
        (branch1,branch2,branch3,branch4)= nb_filter_para
        branch1x1 = Conv2D(branch1[0],(1,1), padding='same',strides=(1,1),name=None)(x)
    
        branch3x3 = Conv2D(branch2[0],(1,1), padding='same',strides=(1,1),name=None)(x)
        branch3x3 = Conv2D(branch2[1],(3,3), padding='same',strides=(1,1),name=None)(branch3x3)
    
        branch5x5 = Conv2D(branch3[0],(1,1), padding='same',strides=(1,1),name=None)(x)
        branch5x5 = Conv2D(branch3[1],(1,1), padding='same',strides=(1,1),name=None)(branch5x5)
    
        branchpool = MaxPooling2D(pool_size=(3,3),strides=(1,1),padding='same')(x)
        branchpool = Conv2D(branch4[0],(1,1),padding='same',strides=(1,1),name=None)(branchpool)
    
        x = concatenate([branch1x1,branch3x3,branch5x5,branchpool],axis=3)
    
        return x
      
    #Build InceptionV1 model
    def InceptionV1(width, height, depth, classes):
        
        inpt = Input(shape=(width,height,depth))
    
        x = Conv2d_BN(inpt,64,(7,7),strides=(2,2),padding='same')
        x = MaxPooling2D(pool_size=(3,3),strides=(2,2),padding='same')(x)
        x = Conv2d_BN(x,192,(3,3),strides=(1,1),padding='same')
        x = MaxPooling2D(pool_size=(3,3),strides=(2,2),padding='same')(x)
    
        x = Inception(x,[(64,),(96,128),(16,32),(32,)]) #Inception 3a 28x28x256
        x = Inception(x,[(128,),(128,192),(32,96),(64,)]) #Inception 3b 28x28x480
        x = MaxPooling2D(pool_size=(3,3),strides=(2,2),padding='same')(x) #14x14x480
    
        x = Inception(x,[(192,),(96,208),(16,48),(64,)]) #Inception 4a 14x14x512
        x = Inception(x,[(160,),(112,224),(24,64),(64,)]) #Inception 4a 14x14x512
        x = Inception(x,[(128,),(128,256),(24,64),(64,)]) #Inception 4a 14x14x512
        x = Inception(x,[(112,),(144,288),(32,64),(64,)]) #Inception 4a 14x14x528
        x = Inception(x,[(256,),(160,320),(32,128),(128,)]) #Inception 4a 14x14x832
        x = MaxPooling2D(pool_size=(3,3),strides=(2,2),padding='same')(x) #7x7x832
    
        x = Inception(x,[(256,),(160,320),(32,128),(128,)]) #Inception 5a 7x7x832
        x = Inception(x,[(384,),(192,384),(48,128),(128,)]) #Inception 5b 7x7x1024
    
        #Using AveragePooling replace flatten
        x = AveragePooling2D(pool_size=(7,7),strides=(7,7),padding='same')(x)
        x =Flatten()(x)
        x = Dropout(0.4)(x)
        x = Dense(1000,activation='relu')(x)
        x = Dense(classes,activation='softmax')(x)
        
        model=Model(input=inpt,output=x)
        
        return model
    
    InceptionV1_model = InceptionV1(224,224,3,17)
    InceptionV1_model.summary()
    
    InceptionV1_model.compile(optimizer=Adam(lr=0.00001, beta_1=0.9, beta_2=0.999, epsilon=1e-08),loss = 'categorical_crossentropy',metrics=['accuracy'])
    History = InceptionV1_model.fit_generator(img_gen.flow(X_train*255, y_train, batch_size = 16),steps_per_epoch = len(X_train)/16, validation_data = (X_test,y_test), epochs = 30 )
    
    #Plot Loss and accuracy
    import matplotlib.pyplot as plt
    plt.figure(figsize = (15,5))
    plt.subplot(1,2,1)
    plt.plot(History.history['acc'])
    plt.plot(History.history['val_acc'])
    plt.title('model accuracy')
    plt.ylabel('accuracy')
    plt.xlabel('epoch')
    plt.legend(['train', 'test'], loc='upper left')
    
    plt.subplot(1,2,2)
    plt.plot(History.history['loss'])
    plt.plot(History.history['val_loss'])
    plt.title('model loss')
    plt.ylabel('loss')
    plt.xlabel('epoch')
    plt.legend(['train', 'test'], loc='upper left')
    plt.show()
    plt.show()
    


    嗯参数量真不算大

    ResNet

    在经过试验发现:网络层数的增加可以有效的提升准确率沒錯,但如果到达一定的层数后,训练的准确率就会下降了,因此如果网络过深的话,会变得更加难以训练。


    DRN

    那么我们作这样一个假设:假设现有一个比较浅的网络(Shallow Net)已达到了饱和的准确率,这时在它后面再加上几个恒等映射层(Identity mapping,也即y=x,输出等于输入),这样就增加了网络的深度,并且起码误差不会增加,也即更深的网络不应该带来训练集上误差的上升。而这里提到的使用恒等映射直接将前一层输出传到后面的思想,便是著名深度残差网络ResNet的灵感来源。

    ResNet引入了残差网络结构(residual network),通过这种残差网络结构,可以把网络层弄的很深(据说目前可以达到1000多层),并且最终的分类效果也非常好,残差网络的基本结构如下图所示,很明显,该图是带有跳跃结构的:


    残差结构

    在上图的残差网络结构图中,通过“shortcut connections(捷径连接)”的方式,直接把输入x传到输出作为初始结果,输出结果为H(x)=F(x)+x,当F(x)=0时,那么H(x)=x,也就是上面所提到的恒等映射。于是,ResNet相当于将学习目标改变了,不再是学习一个完整的输出,而是目标值H(X)和x的差值,也就是所谓的残差F(x) := H(x)-x,因此,后面的训练目标就是要将残差结果逼近于0,使到随着网络加深,准确率不下降。
    这种残差跳跃式的结构,打破了传统的神经网络n-1层的输出只能给n层作为输入的惯例,使某一层的输出可以直接跨过几层作为后面某一层的输入,其意义在于为叠加多层网络而使得整个学习模型的错误率不降反升的难题提供了新的方向。
    至此,神经网络的层数可以超越之前的约束,达到几十层、上百层甚至千层,为高级语义特征提取和分类提供了可行性。
    下图是一个不同架构的对比,感受下:


    vgg-19-resnet

    基于上表,我们实现一个ResNet:

    #!/usr/bin/env python3
    # -*- coding: utf-8 -*-
    """
    Created on Tue Jun 18 08:21:36 2019
    
    @author: XFBY
    """
    
    import numpy as np
    import keras
    from keras.datasets import mnist
    from keras.utils import np_utils
    from keras.models import Sequential
    from keras.layers import Dense, Activation, Conv2D, MaxPooling2D, Flatten,Dropout,BatchNormalization,AveragePooling2D,concatenate,Input, concatenate
    from keras.models import Model,load_model
    from keras.optimizers import Adam
    
    #Load oxflower17 dataset
    import tflearn.datasets.oxflower17 as oxflower17
    from sklearn.model_selection import train_test_split
    x, y = oxflower17.load_data(one_hot=True)
    
    #Split train and test data
    X_train, X_test, y_train, y_test = train_test_split(x, y, test_size=0.2,shuffle = True)
    
    #Data augumentation with Keras tools
    from keras.preprocessing.image import ImageDataGenerator
    img_gen = ImageDataGenerator(
        rescale=1./255,
        shear_range=0.2,
        zoom_range=0.2,
        horizontal_flip=True
        )
    
    #Define convolution with batchnromalization
    def Conv2d_BN(x, nb_filter,kernel_size, padding='same',strides=(1,1),name=None):
        if name is not None:
            bn_name = name + '_bn'
            conv_name = name + '_conv'
        else:
            bn_name = None
            conv_name = None
    
        x = Conv2D(nb_filter,kernel_size,padding=padding,strides=strides,activation='relu',name=conv_name)(x)
        x = BatchNormalization(axis=3,name=bn_name)(x)
        return x
      
    #Define Residual Block for ResNet34(2 convolution layers)
    def Residual_Block(input_model,nb_filter,kernel_size,strides=(1,1), with_conv_shortcut =False):
        x = Conv2d_BN(input_model,nb_filter=nb_filter,kernel_size=kernel_size,strides=strides,padding='same')
        x = Conv2d_BN(x, nb_filter=nb_filter, kernel_size=kernel_size,padding='same')
        
        #need convolution on shortcut for add different channel
        if with_conv_shortcut:
            shortcut = Conv2d_BN(input_model,nb_filter=nb_filter,strides=strides,kernel_size=kernel_size)
            x = add([x,shortcut])
            return x
        else:
            x = add([x,input_model])
            return x
        
    #Built ResNet34
    def ResNet34(width, height, depth, classes):
        
        Img = Input(shape=(width,height,depth))
        
        x = Conv2d_BN(Img,64,(7,7),strides=(2,2),padding='same')
        x = MaxPooling2D(pool_size=(3,3),strides=(2,2),padding='same')(x)  
    
        #Residual conv2_x ouput 56x56x64 
        x = Residual_Block(x,nb_filter=64,kernel_size=(3,3))
        x = Residual_Block(x,nb_filter=64,kernel_size=(3,3))
        x = Residual_Block(x,nb_filter=64,kernel_size=(3,3))
        
        #Residual conv3_x ouput 28x28x128 
        x = Residual_Block(x,nb_filter=128,kernel_size=(3,3),strides=(2,2),with_conv_shortcut=True)# need do convolution to add different channel
        x = Residual_Block(x,nb_filter=128,kernel_size=(3,3))
        x = Residual_Block(x,nb_filter=128,kernel_size=(3,3))
        x = Residual_Block(x,nb_filter=128,kernel_size=(3,3))
        
        #Residual conv4_x ouput 14x14x256
        x = Residual_Block(x,nb_filter=256,kernel_size=(3,3),strides=(2,2),with_conv_shortcut=True)# need do convolution to add different channel
        x = Residual_Block(x,nb_filter=256,kernel_size=(3,3))
        x = Residual_Block(x,nb_filter=256,kernel_size=(3,3))
        x = Residual_Block(x,nb_filter=256,kernel_size=(3,3))
        x = Residual_Block(x,nb_filter=256,kernel_size=(3,3))
        x = Residual_Block(x,nb_filter=256,kernel_size=(3,3))
        
        #Residual conv5_x ouput 7x7x512
        x = Residual_Block(x,nb_filter=512,kernel_size=(3,3),strides=(2,2),with_conv_shortcut=True)
        x = Residual_Block(x,nb_filter=512,kernel_size=(3,3))
        x = Residual_Block(x,nb_filter=512,kernel_size=(3,3))
    
    
        #Using AveragePooling replace flatten
        x = GlobalAveragePooling2D()(x)
        x = Dense(classes,activation='softmax')(x)
        
        model=Model(input=Img,output=x)
        return model  
    
    #Plot Loss and accuracy
    import matplotlib.pyplot as plt
    plt.figure(figsize = (15,5))
    plt.subplot(1,2,1)
    plt.plot(History.history['acc'])
    plt.plot(History.history['val_acc'])
    plt.title('model accuracy')
    plt.ylabel('accuracy')
    plt.xlabel('epoch')
    plt.legend(['train', 'test'], loc='upper left')
    
    plt.subplot(1,2,2)
    plt.plot(History.history['loss'])
    plt.plot(History.history['val_loss'])
    plt.title('model loss')
    plt.ylabel('loss')
    plt.xlabel('epoch')
    plt.legend(['train', 'test'], loc='upper left')
    plt.show()
    plt.show()
    

    严重参考

    https://my.oschina.net/u/876354/blog/1632862

    https://medium.com/%E9%9B%9E%E9%9B%9E%E8%88%87%E5%85%94%E5%85%94%E7%9A%84%E5%B7%A5%E7%A8%8B%E4%B8%96%E7%95%8C/%E6%A9%9F%E5%99%A8%E5%AD%B8%E7%BF%92-ml-note-cnn%E6%BC%94%E5%8C%96%E5%8F%B2-alexnet-vgg-inception-resnet-keras-coding-668f74879306

    相关文章

      网友评论

        本文标题:CNN发展历程(LeNet、AlexNet、VGG、Incept

        本文链接:https://www.haomeiwen.com/subject/ewchqctx.html