美文网首页实习日记~
菜鸟实习日记~day6(FlowNet)

菜鸟实习日记~day6(FlowNet)

作者: 飞翔的小瓜瓜 | 来源:发表于2017-08-29 13:58 被阅读0次

    科研:

    1、这篇文章里对FlowNet的解释很不错~

    神经光流网络——用卷积网络实现光流预测(FlowNet: Learning Optical Flow with Convolutional Networks)

    2、对end-to-end的理解(端到端)

    作者:陈永志

    我从目标检测角度来说说我对end-to-end的理解。

    非end-to-end方法:

    目前目标检测领域,效果最好,影响力最大的还是RCNN那一套框架,这种方法需要先在图像中提取可能含有目标的候选框(region proposal), 然后将这些候选框输入到CNN模型,让CNN判断候选框中是否真的有目标,以及目标的类别是什么。在我们看到的结果中,往往是类似与下图这种,在整幅图中用矩形框标记目标的位置和大小,并且告诉我们框中的物体是什么。

    这种标记的过程,其实是有两部分组成,一是目标所在位置及大小,二是目标的类别。在整个算法中,目标位置和大小其实是包含在region proposal的过程里,而类别的判定则是在CNN中来判定的。

    这种标记的过程,其实是有两部分组成,一是目标所在位置及大小,二是目标的类别。在整个算法中,目标位置和大小其实是包含在region proposal的过程里,而类别的判定则是在CNN中来判定的。

    end-to-end方法:

    end-to-end方法的典型代表就是有名的yolo。前面的方法中,CNN本质的作用还是用来分类,定位的功能其并没有做到。而yolo这种方法就是只通过CNN网络,就能够实现目标的定位和识别。也就是原始图像输入到CNN网络中,直接输出图像中所有目标的位置和目标的类别。这种方法就是end-to-end(端对端)的方法,一端输入我的原始图像,一端输出我想得到的结果。只关心输入和输出,中间的步骤全部都不管。

    3.pre-trained(预训练)

    深度网络存在问题:

    网络越深,需要的训练样本数越多。若用监督则需大量标注样本,不然小规模样本容易造成过拟合(深层网络意味着特征比较多,机器学习里面临多特征:1、多样本 2、规则化 3、特征选择);

    多层神经网络参数优化是个高阶非凸优化问题,常收敛较差的局部解;

    梯度扩散问题,BP算法计算出的梯度随着深度向前而显著下降,导致前面网络参数贡献很小,更新速度慢。

    解决方法:

    逐层贪婪训练,无监督预训练(unsupervised pre-training)即训练网络的第一个隐藏层,再训练第二个…最后用这些训练好的网络参数值作为整体网络参数的初始值。

    1、无监督学习——->参数初始值;

    2、监督学习——->fine-tuning(微调),即训练有标注样本

    经过预训练最终能得到比较好的局部最优解。

    fine-tuning对神经网络权值改变很小,似乎权值被困在某个局部区域。而且第一层改变最少,第二层次之…最后一层最大。

    相关文章

      网友评论

        本文标题:菜鸟实习日记~day6(FlowNet)

        本文链接:https://www.haomeiwen.com/subject/fyvwdxtx.html