1、集成学习
就是对于同一个分类问题,同一组训练集,构建多个分类器,有多个分类器的平均值或者众数决定分类结果,以此来减小分类的波动性。
集成学习.PNG
2、算法步骤
现在训练集中随机抽取K个样本,然后利用这K个样本作为新的训练集构建决策树,重复上述步骤构建N个决策树,引用这N个决策树对新的样本进行分类,选择N棵决策树分类结果的MODE(众数)作为分类结果。
步骤.PNG
就是对于同一个分类问题,同一组训练集,构建多个分类器,有多个分类器的平均值或者众数决定分类结果,以此来减小分类的波动性。
现在训练集中随机抽取K个样本,然后利用这K个样本作为新的训练集构建决策树,重复上述步骤构建N个决策树,引用这N个决策树对新的样本进行分类,选择N棵决策树分类结果的MODE(众数)作为分类结果。
本文标题:随机森林原理
本文链接:https://www.haomeiwen.com/subject/uyxgqftx.html
网友评论