美文网首页
机器学习技法(二)

机器学习技法(二)

作者: 宣的写字台 | 来源:发表于2017-12-15 10:46 被阅读0次

    《机器学习技法》是国立台湾大学林轩田讲授的一门课程,课程的上集是《机器学习基石》。相关资源可以在youtube找到,也可在评论区索要云盘链接。本文主要是我学完一遍基石&技法后的笔记梳理,如果存疑请以原课程讲授内容为准,欢迎讨论~[注]本文仅适用于帮助复习,不适用于代替视频课程。

    技法分为3个部分,分别为

    ● 核模型:嵌入大量特征(6小节)

    ● 融合模型:融合预测性特征(5小节)

    ● 抽取模型:提取隐性特征(4小节)

    本文主要梳理第二部分。

    二 融合模型:融合预测性特征(5)

    1融合模型

    1.1 VS validation

    1.2融合模型的功效

    1.3融合模型的种类

    2 uniform blending

    2.1 for classification

    2.2 for regression

    2.3理论保证

    2.4 Bagging算法(Bootstrap

    Aggregation)拔靴法融合

    2.4.1例子

    3 non-uniform blending

    3.1 linear blending

    for classification:

    for regression:只需把sign改成1/N。

    3.1.1α的计算

    实践中通常是用minEval(α)

    3.2 Any Blending

    3.3 AdaBoost(Adptive

    Boosting自适应增强) 皮匠法

    3.3.1动机 三个臭皮匠赛过诸葛亮

    3.3.2 teacher

    3.3.2.1作用

    u可以看作是子资料的权重,我们需要调整子资料的权重来获得更多样性的假设集。

    3.3.2.2调整子资料的权重来获得更多样性的假设集

    3.3.2.3算法

    4决策树(conditionallearning)

    4.1基本算法

    4.2 Classification and RegressionTree(C&RT)

    4..2.1 regularization by pruning(剪枝)

    4.2.2 C&RT的特点

    4.2.2.1容易处理类别特征

    4.2.2.2容易处理丢失特征

    4.2.3例子

    4.2.4特点

    5随机森林(bagging+fully-grownDTree)

    5.1动机

    5.2用特征分解的方式产生不同的树

    5.3用OOB做自检

    5.3.1 OOB的来源与大小

    5.3.2自检

    用于投影维度(d’’)的选择:

    5.4特征选择

    DTree和Adaboosting(stump横刀/纵刀针对x1/x2)都是rare model with built-in feature selection少有的内建特征选择的模型

    对于RF:

    5.4.1实现方法:permutation

    test排列测试

    优化:

    5.5例子

    例1

    DTree RF

    例2(有杂讯):

    RF

    DTree会overfit,经过投票,RF能够容噪(蓝区内允许x,红区内允许o)

    5.6调参经验

    6 Gradient Boosted Decision Tree梯度提升决策树(Adaboost+pruned DTree)

    6.1动机

    加权取样,训练出不同的决策树,再用线性blending融合。

    6.2 weighted

    SVM的话直接改Ein部分即可,

    DTree为了保证不对算法本身做修改,只能在取样下文章。

    6.3 pruned DTree

    完全长成的树不可行

    完全剪枝的树会退化成AdaBoost-Stump

    6.4 Adaboost

    这里橙色部分,可以看成

    ①线性投票

    ②离hyperplane的距离

    看成距离以后,若yn为负希望sn越负越好,若yn为正希望sn越正越好。

    6.4.1误差函数

    这个目标函数希望最小化,可以把它当作以前的误差函数,即使它并不是误差。

    把这个误差做好了,同时也能把s和y同号这个二分类问题做好,即最后s和y差不多都是同号的。

    6.4.2最小化误差函数

    加一个好的g和α进去,由于g和α都还不知道,先用h和η表示

    ①找到好的h:

    最终返回一个在u(t)资料上Ein最小的h加到融合模型里头。h可看作是梯度下降的方向。

    ②找到好的η:

    ③总结:AdaBoost可看作steepest descent(η) with approximate(泰勒) functional gradient(h)

    6.5 GradientBoost

    以下for regression

    6.5.1好的h

    6.5.2好的η

    6.5.3应用:GBDT

    7总结

    7.1 blending

    7.2 learning

    7.3 aggregation

    效果:

    相关文章

      网友评论

          本文标题:机器学习技法(二)

          本文链接:https://www.haomeiwen.com/subject/rtmrwxtx.html