美文网首页tensorflow2.0
tensorflow2.0(3)-Resnet模型

tensorflow2.0(3)-Resnet模型

作者: copain_sir | 来源:发表于2019-09-30 14:50 被阅读0次

      tensorflow2不再需要静态建图启动session(),抛弃很多繁杂的功能设计,代码上更加简洁清晰,而在工程上也更加灵活。
    但是一些基础的用法,单靠api接口去训练模型是远远无法满足实际的应用,基于这种框架,更多还需要自己在其上自定义开发。

    例如:model.fit() 虽然能一句代码把训练跑起来,但你根本无法知道整个模型内部数据的变化,也难以去查看某些变量。我们不可能永远停留在MNIST之类的数据集上。

    Resnet

      个人更倾向在实战中学习深化基础,而不是把基础理论学好了再去实践。本篇基于tf2.0是搭建Resnet网络,Resnet有很多变种,也作为很多模型的骨干网络,这次实战项目就从它开始
    需要对Resnet有一定的认知了解,本文只是代码实现

    网络结构

       官方给出的Resnet网络结构,分别为18,34,50,101,152层,可以看出,不同层数之间总体的结构是一样的,这样就很方便用类去实例化每一个模块了


    image

    基础模块

      从conv2_x到conv5_x,18和34layer的结构是一样的,50,101和152是一样的,具体分别为:

    image

    先定义18or34layer的模块

    # for 18 or 34 layers
    class Basic_Block(keras.Model):
    
        def __init__(self, filters, downsample=False, stride=1):
            self.expasion = 1
            super(Basic_Block, self).__init__()
    
            self.downsample = downsample
    
            self.conv2a = keras.layers.Conv2D(filters=filters,
                                              kernel_size=3,
                                              strides=stride,
                                              kernel_initializer='he_normal',
                                              )
            self.bn2a = keras.layers.BatchNormalization(axis=-1)
    
            self.conv2b = keras.layers.Conv2D(filters=filters,
                                              kernel_size=3,
                                              padding='same',
                                              kernel_initializer='he_normal'
                                              )
            self.bn2b = keras.layers.BatchNormalization(axis=-1)
    
            self.relu = keras.layers.ReLU()
    
            if self.downsample:
                self.conv_shortcut = keras.layers.Conv2D(filters=filters,
                                                         kernel_size=1,
                                                         strides=stride,
                                                         kernel_initializer='he_normal',
                                                         )
                self.bn_shortcut = keras.layers.BatchNormalization(axis=-1)
    
        def call(self, inputs, **kwargs):
            x = self.conv2a(inputs)
            x = self.bn2a(x)
            x = self.relu(x)
    
            x = self.conv2b(x)
            x = self.bn2b(x)
            x = self.relu(x)
    
            if self.downsample:
                shortcut = self.conv_shortcut(inputs)
                shortcut = self.bn_shortcut(shortcut)
            else:
                shortcut = inputs
    
            x = keras.layers.add([x, shortcut])
            x = self.relu(x)
    

    代码虽然长了点,但看一下call() 里面就很清晰了,就是2个 conv+bn+relu,最后与input做点加操作
    同理应用在50,101or152layer:

    # for 50, 101 or 152 layers
    class Block(keras.Model):
    
        def __init__(self, filters, block_name,
                     downsample=False, stride=1, **kwargs):
            self.expasion = 4
            super(Block, self).__init__(**kwargs)
    
            conv_name = 'res' + block_name + '_branch'
            bn_name = 'bn' + block_name + '_branch'
            self.downsample = downsample
    
            self.conv2a = keras.layers.Conv2D(filters=filters,
                                              kernel_size=1,
                                              strides=stride,
                                              kernel_initializer='he_normal',
                                              name=conv_name + '2a')
            self.bn2a = keras.layers.BatchNormalization(axis=3, name=bn_name + '2a')
    
            self.conv2b = keras.layers.Conv2D(filters=filters,
                                              kernel_size=3,
                                              padding='same',
                                              kernel_initializer='he_normal',
                                              name=conv_name + '2b')
            self.bn2b = keras.layers.BatchNormalization(axis=3, name=bn_name + '2b')
    
            self.conv2c = keras.layers.Conv2D(filters=4 * filters,
                                              kernel_size=1,
                                              kernel_initializer='he_normal',
                                              name=conv_name + '2c')
            self.bn2c = keras.layers.BatchNormalization(axis=3, name=bn_name + '2c')
    
            if self.downsample:
                self.conv_shortcut = keras.layers.Conv2D(filters=4 * filters,
                                                         kernel_size=1,
                                                         strides=stride,
                                                         kernel_initializer='he_normal',
                                                         name=conv_name + '1')
                self.bn_shortcut = keras.layers.BatchNormalization(axis=3, name=bn_name + '1')
    
        def call(self, inputs, **kwargs):
            x = self.conv2a(inputs)
            x = self.bn2a(x)
            x = tf.nn.relu(x)
    
            x = self.conv2b(x)
            x = self.bn2b(x)
            x = tf.nn.relu(x)
    
            x = self.conv2c(x)
            x = self.bn2c(x)
    
            if self.downsample:
                shortcut = self.conv_shortcut(inputs)
                shortcut = self.bn_shortcut(shortcut)
            else:
                shortcut = inputs
    
            x = keras.layers.add([x, shortcut])
            x = tf.nn.relu(x)
    
            return x
    

    对于downsample的操作,如果input和最后一层输出的chanels不一样就需要downsample来保持chanel一致,这样才能相加,一般解析resnet的文章都会提到。
    用类封装了模块的功能,接下来只需要在主体网路结构里添加这个模块就好了

    主体结构

    用subclassing的方式去搭建model,就像砌墙一样,一个模块一个模块拼上去就好了,先在init()里面定义好需要用到的方法,再在call()把他们调用起来。
    对于resnet的主体结构,先看一下call()里是该如何写的:

    def call(self, inputs, **kwargs):
        x = self.padding(inputs)
        x = self.conv1(x)
        x = self.bn_conv1(x)
        x = tf.nn.relu(x)
        x = self.max_pool(x)
    
        # layer2
        x = self.res2(x)
        # layer3
        x = self.res3(x)
        # layer4
        x = self.res4(x)
        # layer5
        x = self.res5(x)
    
        x = self.avgpool(x)
        x = self.fc(x)
        return x
    

    一目了然,跟文章开头的结构图一摸一样,
    最重要的是中间conv2-5 的操作,这个需要对resnet结构熟悉

    在Resnet的init()里面,这样去定义中间的4个层

    # layer2
    self.res2 = self.mid_layer(block, 64, layers[0], stride=1, layer_number=2)
    
    # layer3
    self.res3 = self.mid_layer(block, 128, layers[1], stride=2, layer_number=3)
    
    # layer4
    self.res4 = self.mid_layer(block, 256, layers[2], stride=2, layer_number=4)
    
    # layer5
    self.res5 = self.mid_layer(block, 512, layers[3], stride=2, layer_number=5)
    

    函数self.mid_layer() 就是把block模块串起来

    def mid_layer(self, block, filter, block_layers, stride=1, layer_number=1):
        layer = keras.Sequential()
        if stride != 1 or filter * 4 != 64:
            layer.add(block(filters=filter,
                            downsample=True, stride=stride,
                            block_name='{}a'.format(layer_number)))
    
        for i in range(1, block_layers):
            p = chr(i + ord('a'))
            layer.add(block(filters=filter,
                            block_name='{}'.format(layer_number) + p))
    
        return layer
    

    到此主体的结构就定义好了,官方源码Resnet,是直接从上到下直接编写的,就是一边构建网络一边计算,类似于这样

    x = input()
    x = keras.layers.Conv2D()(x)
    x = keras.layers.MaxPooling2D()(X)
    x = keras.layers.Dense(num_classes)(x)
    

      相对来说更喜欢用subclassing的方式去搭建model,虽然代码量多了点,但是结构清晰,自己要中间修改的时候也很简单,也方便别的地方直接调用,但有一点不好就是,当想打印模型model.summary() 的时候,看不到图像在各个操作后的shape,直接显示multiple,目前不知道有没其他的方法。。

    image

    代码

      上述代码呈现了Resnet的大部分内容,可以随便实现18-152layer,全部代码放在了我的github里:https://github.com/angryhen/learning_tensorflow2.0/blob/master/base_model/ResNet.py

      持续更新中,tensorflow2.0这一系列的代码也会放在上面,包括VGG,Mobilenet的基础网络,以后也会更新引入senet这种变种网络。

    Thanks

    相关文章

      网友评论

        本文标题:tensorflow2.0(3)-Resnet模型

        本文链接:https://www.haomeiwen.com/subject/ppzcpctx.html