机器学习 西瓜书 Day22 规则学习

作者: 皇家马德里主教练齐达内 | 来源:发表于2018-05-30 10:17 被阅读8次

    p347 - p371
    前几天休刊了,今天回来了= =
    进入第15章

    第15章 规则学习模型

    15.1 基本概念

    “规则”通常指语义明确,能描述数据分布隐含的客观规律或领域概念,可写成“若..则..”。

    与其他黑箱模型相比,规则学习具有更好的可解释性。
    绝大多数人类知识都能通过数理逻辑来进行刻画,因此便于引进领域知识。

    符合一条规则的样本称为被该规则“覆盖”

    当同一个示例被判别结果不同的多条规则覆盖时,称发生了冲突
    解决冲突的方法称为冲突消解,包括投票法、排序法、元规则法。

    一般都要设置默认规则,来处理规则集合未覆盖的样本。

    命题规则VS一阶规则(关系型规则) p348

    15.2 序贯覆盖

    规则学习最直接的做法是“序贯覆盖”,即逐条归纳。
    每学到一条规则,就将该规则覆盖的样本去掉,以剩下的样例继续训练。
    由于每次只处理一部分数据,所以也被称为“分治”策略。

    基于穷尽搜索的做法
    例子:p350。

    但现实中会因为组合爆炸而不可行。
    通常有两种策略:
    自顶向下(生成-测试) vs 自底向上(数据驱动)

    前者是从一般的规则开始,逐渐添加新文字,是规则逐渐“特化”的过程
    更容易产生泛化性能较好的规则。
    对噪声鲁棒性强。
    例子p351-352。
    可每次采用多个最优文字来避免过于贪心。

    后者是从特殊的规则开始,减少文字,是“泛化”的过程。
    更适用于训练样本较少。

    15.3 剪枝优化

    规则生成本质是一个贪心搜索过程,需要缓解过拟合。
    最常见做法是剪枝

    预剪枝 vs 后剪枝

    CN2算法的预剪枝。借助了统计性检验。

    REP的后剪枝,O(m^4)。
    IREP O(m log^2 m)
    著名的规则学习算法 RIPPER 后处理机制,将R中所有规则再进行一次优化,就是通过全局的考虑来缓解了贪心算法的局部性。

    15.4 一阶规则学习

    通常很难定义属性值。
    因此可以采用“色泽更深(2,1)、更好(2,1)”这样的表述方式。

    色泽更深 这样的原子公式称为“背景知识”
    更好 这样由样本类别转化而来的原子公式称为“关系数据样例”

    一阶学习能容易的引入领域知识,是相比命题学习的一大优势。

    在命题规则学习乃至一般的统计学习中,引入领域知识通常有两种做法:
    1)通过领域知识构造新属性。
    2)基于领域知识设计某种函数机制(如正则化)来对假设空间进行约束。

    FOIL算法:著名的一阶规则学习算法。
    遵循序贯覆盖并采用自顶向下的归纳策略。
    并采用后剪枝进行优化。
    使用FOIL增益来选择文字。

    15.5 归纳逻辑程序设计(ILP)

    在一阶学习中引入了函数和逻辑表达式嵌套
    容易看到这样就不能自顶向上了,因为无法穷举。

    15.5.1 最小一般泛化(LGG)

    ILP都采用自底向上的策略。
    如何把特殊规则转化为一般规则?
    最基础的技术是LGG
    举例:p358 - p359

    15.5.2 逆归结

    归结原理:一阶谓词演算中的演绎推理能用一条十分简洁的规则描述。
    可将复杂的逻辑规则和背景知识联系起来化繁为简

    逆归结:能基于背景知识来发明新的概念和关系

    p360-p363 具体过程有些抽象
    逆归结的一大特点是可以自动发明新谓词,这些新谓词可能对应于一些新知识。

    15.6 阅读材料

    规则学习是符号主义学习的主要代表。

    相关文章

      网友评论

        本文标题:机器学习 西瓜书 Day22 规则学习

        本文链接:https://www.haomeiwen.com/subject/kixtsftx.html