美文网首页
模型集成

模型集成

作者: gpfworld | 来源:发表于2019-08-23 17:18 被阅读0次

    数据层面的集成:

    测试阶段数据扩充:
    训练阶段的若干数据扩充策略,实际上,这些 扩充策略在模型测试阶段同样适用,诸如图像多尺度、随机裁剪等。以随机扣取为例,对某张测试图像可得到 n 张随机扣取图 像,测试阶段只需用训练好的深度网络模型对 n 张图分别做预测,之后将预测 的各类置信度平均作为该测试图像最终预测结果即可。

    “简易集成”法:
    具体来说,“简易集成”法对于样本较多的类采取降采样,每次采样数依照样本数目最少的类别而定,这样每类 取到的样本数可保持均等。采样结束后,针对每次采样得到的子数据集训练模 型,如此采样、训练反复进行多次。最后对测试数据的预测则依据训练得到若 干个模型的结果取平均或投票获得。总结来说,“简易集成”法在模型集成的同时,还能缓解数据不平 衡带来的问题,可谓一举两得。

    模型层面的集成:

    单模型集成:

    多层特征融合:
    就是提取多个卷积层特征做预测,常见的在检测和分割领域。在图像语义分割 、细粒度图像检 索 、基于视频的表象性格分析等任务中常见多层特征融合策略的使用

    网络“快照”集成法:

    简单来说:就是痛殴循环调整网络学习率可使网络依次收敛到不同的局部最优,并快照。预测时,根据多个快照预测结果,可以采用直接平均法。

    循环余弦退火”对学习率的调整后,每个循环结束可使模型收敛到 一个不同的局部最优解,若将收敛到不同局部最优解的模型保存便可得到 M 个处于不同收敛状态的模型,

    多模型集成:

    多模型生成策略:
    1、同一模型不同初始化
    2、同一模型不同训练轮数(轮数集成”)
    3、不同目标函数:以分类任务为例,可 将“交叉熵损失函数”、“合页损失函数”、“大间隔交叉熵损失函数”和“中心损失函数”作为目标函数分别训练模型。在预测阶段,既可以直接 对不同模型预测结果做“置信度级别”的平均或投票,也可 以做“特征级别”(的模型集成:将不同网络得到的深度特 征抽出后级联作为最终特征,之后离线训练浅层分类器(如支持向量机) 完成预测任务。
    4、不同网络结构

    多模型集成方法

    1、直接平均法(平均置信度)

    2、加权平均法(加权置信度):实际使用时关于权重 ωi 的取值可根据不同模型在验证集上各自单独的准确率而定,高准确率的模型权重较高,低准确率模型可设置稍小权重

    3、投票法(将置信度转为预测类别,)

    多数表决法:即最高置信度对应 的类别标记 ci ∈ {1, 2, . . . , C } 作为该模型的预测结果。多数表决法中在得 到样本 x 的最终预测时,若某预测类别获得一半以上模型投票,则该样 本预测结果为该类别;若对该样本无任何类别获得一半以上投票,则拒绝 作出预测。

    相对多数表决法:与多数表 决法会输出“拒绝预测”不同的是,相对多数表决法一定会返回某个类别 作为预测结果,因为相对多数表决是选取投票数最高的类别作为最后预测 结果。

    4、堆叠法:拿 刚才的例子来说,对于样本 x,堆叠法的输入是 N 个模型的预测置信 度 [s1,s2 . . . sn],这些置信度可以级联作为新的特征表示。之后基于这样 的“特征表示”训练学习器将其映射到样本原本的标记空间。注意,此时 的学习器可为任何学习算法习得的模型,如支持向量机、随机森林,当然也可以是神经网络模型。不 过在此需要指出的是,堆叠法有较大过拟合风险。

    相关文章

      网友评论

          本文标题:模型集成

          本文链接:https://www.haomeiwen.com/subject/sqrlsctx.html