美文网首页
boosting和bagging

boosting和bagging

作者: ALTHE | 来源:发表于2016-10-23 22:34 被阅读46次

bagging算法思想:

① 对于一个给定的含有n个训练样本的数据集D={x1,x2,.....xn};

② 重复步骤①进行T遍得到T个训练集Si;

③ 在每个训练集上采用某种分类算法独立地训练出T个基分类器Ci;

④ 对于每个测试样本x,采用多输投票方式得到最终的预测结果c*(x)。

Boosting算法的思想:

先赋予训练集中每个样本相同的权重,然后进行T次迭代,每次迭代后,对分类错误的样本加大重采样权重,使得在下一次的迭代中更加关注这些样本。这样训练的多个弱分类器进行加权融合,产生一个最后的结果分类器。在这T个弱小分类器中,每个分类器的准确率不一定很高,但他们联合后的结果有很高的准确率,这样便提高了该弱分类算法的准确率。单个弱分类器训练的时候,可以用相同的分类算法,也可以用不同的分类算法,这些算法一般是不稳定的弱分类算法,如神经网络(BP) ,决策树(C4.5)等。

相关文章

网友评论

      本文标题:boosting和bagging

      本文链接:https://www.haomeiwen.com/subject/fnmkuttx.html