提升方法的思路就是学习多个分类器,对多个分类器进行线性组合,提高分类的性能。首先定义强可学习和弱可学习。如果存在一个多项式的学习算法可以学习一个分类,并且正确率很高,则称为强可学习。如果一个多项式的学习算法可以学习一个分类,并且正确率相比随机猜测要略好,那么称为弱可学习。事实上,两者是等价的,即一个问题弱可学习,则可以强可学习。提升方法的目标就是组合弱分类器,使其称为一个强分类器。大多数的提升方法都是改变训练数据的概率分布(训练数据的权值分布),针对不同的训练数据分布调用弱学习算法学习一系列弱分类器。
提升方法需要解决两个问题:
(1)每一轮如何改变训练数据的权值或概率分布
(2)如何将若分类器组合成一个强分类器
对于这两个问题,Adaboost(适应性提升方法)的做法是:
(1)训练数据被分类错误,权值上升,被分类正确,权值下降
(2)加权多数表决,误差率越小,权值越高
AdaBoost算法
输入:训练数据集,其中,;弱学习算法
输出:最终分类器。
(1)初始化训练数据的权值分布
(2)对
(a)使用具有权值分布的训练数据集学习,得到基本分类器
(b)计算在训练数据集上的分类误差率
(c)计算的系数
这里的对数是自然对数。
(d)更新训练数据集的权值分布
这里,是规范化因子
它使成为一个概率分布。
(3)构建基本分类器的线性组合
得到最终分类器
对AdaBoost算法作如下说明
(1)训练数据集初始权值均匀分布,保证能够在原始数据上学习基本分类器
(2)每轮训练一个分类器,轮共训练个弱分类器
(a)使用加权的数据集学习弱分类器
(b)分类的误差率也是加权得到的
(c)系数根据计算公式可以得知,随着误差率(在时,因为弱分类器分类误差小于等于)的减小而增大,即误差越小的弱分类器,所起的作用越大。
(d)权值更新公式
因为弱分类器分类误差,所以。当分类正确时,,样本权值变小,当分类错误时,,样本权值变大。
提升树
提升树是以分类树或回归树为基本分类器的提升方法。提升树被认为是统计学习中性能最好的方法之一。决策树部分可以查看决策树,此处略。分类提升树只需将上述算法的弱分类器限制为二类分类树,这里介绍回归提升树,推导过程略。
回归问题的提升树算法
输入:训练数据集,其中,;
输出:提升树。
(1)初始化
(2)对
(a)计算残差
(b)拟合残差学习一个回归树,得到
(c)更新
(3)得到回归问题提升树
需要注意的是,这里残差是根据平方误差损失计算得到的。
梯度提升
上述算法中的残差是基于损失函数是平方误差损失得到的,如果不是平方误差损失,则根据梯度提升算法,可以用损失函数的负梯度作为上述算法残差的近似,即
可以看到在使用平方误差损失时:
所以上述回归问题的提升树算法是梯度提升算法在使用平方误差损失时的一个特例。
梯度提升算法
输入:训练数据集,其中,;损失函数
输出:回归树。
(1)初始化
(2)对
(a)对,计算
(b)对拟合一个回归树,得到第棵树的叶结点区域,
(c)对,计算
(d)更新
(3)得到回归树
需要注意的是,在第(1)步初始化时,选择的是让损失函数最小的常数值。在(2)(b)时,估计叶结点区域(个区域),以拟合残差的近似值。(2)(c)时利用现行搜索,搜索估计叶结点区域的值,使损失函数最小化(在平方误差损失时,容易得知是该结点区域所有的均值)。
网友评论