美文网首页实习日记~
菜鸟实习日记~day3(FRRU+ResNet)

菜鸟实习日记~day3(FRRU+ResNet)

作者: 飞翔的小瓜瓜 | 来源:发表于2017-08-21 19:13 被阅读0次

    生活:

    上午来回跑着修电脑,原以为硬盘又坏了,气吼吼地去找学八地下的维修点算账,结果人一检查发现,硬盘没毛病....是接口接触不良.....哦漏看来以后再遇到这种问题,先拆机重装一下硬盘再说........

    然后回到所里已经11点了,实在不想吃食堂的饭...午饭就吃了一个苹果,下午四点多饿的不行了又吃了一个面包~晚上还要加班弄懂ResNet~估计一会得晚饭也不吃了吧~减肥~减肥~减肥~

    【今日无图】


    科研:

    先吐槽一句:贵所打印机真多.....终于把打印机搞定了...............................................................

    刚弄懂的几个名词:

    1.鲁棒性(Robustness)

    原本是应用在生物学领域,在机器学习领域说为“健壮性”好像更好

    计算机科学中,健壮性(英语:Robustness)是指一个计算机系统在执行过程中处理错误,以及算法在遭遇输入、运算等异常时继续正常运行的能力。 诸如模糊测试之类的形式化方法中,必须通过制造错误的或不可预期的输入来验证程序的健壮性。很多商业产品都可用来测试软件系统的健壮性。健壮性也是失效评定分析中的一个方面。(WIKI)

    2.自编码网络(AutoEncoder)

    简单讲就是在正常的对原始图片进行压缩(encoder)之后,再利用很多池化层balabala,使特征图的尺寸变回原来的大小(decoder),得到一张处理后的图片。最后,如果处理后的图片与原图片相比,各方面差距不那么大,那么之前的压缩网络是很好的,可以使用的。

    你的输出和原始输入一样,就是autoencoder。

    所以,后面部分的扩展decoder,相当于对前面压缩网络encoder的一个可用有效性的证明。

    最近几年,用的很广泛,相关论文还没有看。

    论文:

    1.《Full-Resolution Residual Networks for Semantic Segmentation in Street Scenes》(FRRU)

    提出背景:已有的许多网络能够对识别(recogntiton)有很高的accurcy,但是往往忽略的对location accuracy的注意,比如boundary之类的....

    @1 文章的主要思路是采用 two streams.一个是residual stream(残差),用于允许low level features 在网络中毫不费力的传播;另一个是pooling stream(普通的前馈网络),用于对high-level feature的识别。

    The result of the second(red) conv unit is used in two ways:

    Firstly,it forms the pooling stream input of the next FRRU in the network and second it is the basis for the computed residual.(计算结果可以重复利用)

    @2 为什么这样做呢?作者发现,如果pooling layer太多,会造成边缘定位困难(difficulties tracking low-level features,such as edges and boundaries,in deeper layers);但是,如果pooling layers太少,又会造成相反的效果,可以定位边界之类,但是perform poorly at recognizing the actual objects.

    3本网络没有局限于pre-trained

    pre-trained(where a large number of weights for the target task can be pre-set by an auxiliary classification task预先设置权重)的坏处:训练后,新的网络元素或新的激活功能通常不能添加,限制了设计空间。

    但是 it is better than scratch using the data of the target appplication.(比使用目标应用程序数据从头开始开始训练网络相比更好)

    @4 为了利用反向传播算法,the entire forward pass has to be stored in the memory。所以为了解决训练时的这个问题(测试时不会出现这个问题):partition the computation graph into several subsequent blocks by manually placing cut points in the graph.(在图中手动放置定位点)

    @5 为防止过拟合:translation augmentation && gamma augmentation.

    2.ResNet

    天才般的,在向后传播的过程中,将N层都化为深度为3层,大大减少了梯度弥散或爆炸。这个地方等到学长七点才弄明白,实在是受不了了(出虚汗...),明天来了再好好理解这一块,还有FRRU里面涉及的部分。

    明天见啦~


    相关文章

      网友评论

        本文标题:菜鸟实习日记~day3(FRRU+ResNet)

        本文链接:https://www.haomeiwen.com/subject/sskhdxtx.html