上一篇文章我们介绍了下VGG这一个经典的深度学习模型,今天便让我们通过使用VGG开源的VGG16模型去复现一下该论文.
话不多说,直接上代码:
一:了解结构

上述文件便是我们复现VGG时候的所有文件,其中cat和pic是我们的测试图像,在这一次的代码里,因为考虑到不同人的不同设备之间的训练速度有所差异,我们一次只读取一张图片进行识别.其中,VGG16.py是我们的主要文件,在这个文件中我们复现了VGG16的网络架构,untils.py为我们输入图片预处理的程序,Nclasses.py则是我们给定的每个图像的标签,以及对应的索引值,最后的app.py则是我们的调用文件,最终我们只需要调用它即可.
二:详述代码
1:VGG16.py
代码如下:

这一部分我们是导入了常用的一些模块,这些模块不必多说,主要是VGG_MEAN这句话需要解释下,

在https://gist.github.com/ksimonyan/211839e770f7b538e2d8#file-readme-md 中他们介绍到我们输入的图像应该以平均的像素去求解,也就是最后我们需要用BGR去求解,因此我们要减去这一些像素值即可

在这里我们后续的代码都将写入到VGG16这个类当中,当前部分的操作,我们引入VGG16.npy这个二进制文件,并且遍历data_dict中的每个键,并且打印输入.

这一个部分我们是创建在前向传播中要调用的卷积核,偏置,池化层以及全连接层,大家观察代码会发现,这里的创建的结果其实和我们之前在学习卷积神经网络的时候类似,并且读起代码来也比较容易,这里需要说一下的是全连接层的建立,这里我们创建全连接层首先需要读取到该层的维度信息列表,然后我们要改变特征图的形状,在第六层将得到的多维特征进行拉伸操作,使其符合全连接层的输入即可,这里的shape中有元素[-1],表示将该维度打平到一维,实现降维的目的.

这一部分代码是实现前向传播的关键代码,这一部分代码实现了VGG16的所有结构,还记得我们刚开始所说的VGG_MEAN中要将图像处理为BGR,现在我们GBR当中的每个元素相减VGG_MEAN当中的元素,这样图片就由GBR改为BGR

VGG16的各层参数可以参考下图所示

2:untils.py

这一部分主要是实现了输入的图像处理,并且展现出来,主要的思路是将图像归一化后进行处理,实现结果如下图所示:

3:app.py

在这一部分,我们要做的是调用VGG16的网络结构,然后计算概率,输出概率最大的五种可能性,并且和标签一一对应,最后用柱状图画下来,表达出结果.
接着上图的测试,画出柱状图来,如下:

三:测试
1:第一组


2:第二组


3:第三组(这个翻车了…..)


网友评论
https://zhuanlan.zhihu.com/p/37891183,这篇文章下边有代码地址