美文网首页
第十一课 贝叶斯统计正则化

第十一课 贝叶斯统计正则化

作者: yz_wang | 来源:发表于2016-12-15 15:48 被阅读0次

**就是要找更好的估计方法来减少过度拟合情况的发生。 **

大纲

  • 贝叶斯统计及正则化
  • 在线学习
  • 如何使用机器学习算法解决具体问题:诊断算法,销蚀分析,过早优化

笔记:http://www.cnblogs.com/XBWer/p/4336071.html

问题提出
如果选取的特征太少,欠拟合,对于训练集的拟合效果不好,对于测试集的预测效果应该也不会好;但是如果选取的特征太多,过拟合,对于训练集的拟合效果非常好,但是对于测试集的集合效果会变差。

欠拟合 合适的拟合 过拟合

解决过拟合的方法:

  • 减少特征的数量:
    -人工的选择保留哪些特征;
    -模型选择算法(上一讲)

  • 正则化
    -保留所有的特征,但是降低参数的量/值;
    -正则化的好处是当特征很多时,每一个特征都会对预测y贡献一份合适的力量;

</br>

1. 贝叶斯统计及其正则化

</br>
贝叶斯公式(用来求后验概率的):


贝叶斯公式

对于参数theta的值

  • 频率学派认为这个值是固定的,我们可以通过极大似然估计去猜测这个值。MLE:最大似然估计
  • 贝叶斯学派认为这个值是一个随机变量。服从某个先验分布(实际应用中一般是自然分布作为先验分布),theta-p(theta)。后验概率可以用贝叶斯公式求出 MAP:maximum a posteriori 最大后验估计
后验概率

这个公式的计算量其实很大,所以实际应用中一般都用最大化后验概率来求出theta,然后带入假设模型htheta(x)中预测:

最大化后验概率

可以与极大似然估计求theta的公式比较一下:

极大似然估计

发现其实用贝叶斯法求theta只是在末尾加了一个p(theta).

用后验概率法得到的参数theta更不容易拟合,从而降低了过拟合的概率。

</br>
正则化
模型选择的典型方法是正则化。正则化是结构风险最小化策略的实现,是在经验风险上加一个正则化项(regularizer)或罚项(penalty term)。正则化项一般是模型复杂度的单调递增函数,模型越复杂,正则化值就越大。比如,正则化项可以是模型参数向量的范数。

对于代价函数:

  • 最大似然估计法是用最小二乘的原理


  • 后验概率分布估计则是又引入了一个相当于惩罚项的正则项



    这样就可以使得高次项的贡献权重降低,减少过拟合的可能性。

线性回归的正则化

逻辑回归的正则化

</br>
</br>

2. 在线学习

</br>
什么是在线学习?

  • 之前学习的算法都属于批量学习(batch learning),一次性批量输入给学习算法,可以被形象的称为填鸭式学习。
  • 在线学习(online learning),按照顺序,循序的学习,不断的去修正模型,进行优化。
    在线学习首先有一个初始的分类器,当第一个样本到来时,对该样本进行预测,得到预测结果,然后利用该样本的信息对分类器进行更新(比如,考虑感知器算法的更新规则,见笔记 1-2);然后第二个样本到来时做同样的操作,以此类推。这样,我们就对 m 个样本都有一个预测值,只不过它们都是在训练的过程中得到的,对这些预测值进行统计,就得到了在线训练误差。这就是过程上在线学习与批处理的不同之处。

感知器
就是二类分类的线性分类模型,其输入为样本的特征向量,输出为样本的类别,取+1和-1二值,即通过某样本的特征,就可以准确判断该样本属于哪一类。顾名思义,感知机能够解决的问题首先要求特征空间是线性可分的,再者是二类分类,即将样本分为{+1, -1}两类。

对于感知器算法来说,若正负样本线性可分,那么在线学习算法也是收敛的。

3. 算法的改进方法

</br>
a. 算法诊断
如果现存算法的预测效果比较差,可以考虑的改进因素一般有:

怎么去选择最有效的改进算法是这部分的目的。

  • 方差/偏差分析
    高方差--过拟合,训练误差很小但泛化误差很大。
    需要更多的数据解决或者更少的特征解决。
    高方差的误差率
    </br>
    高偏差--模型本身不合适,比如特征数目过少,表现是训练误差和泛化误差都很大。
    需要更多的特征或者更复杂的模型来解决。
    高偏差的误差率

</br>

  • 是否收敛和目标函数是否正确的判断*
    可以画出迭代次数和目标函数的趋势图,但一般很难判断,因为每次优化的只是一小部分。
    (这部分还不太懂)

b. 销蚀分析
比如对于垃圾邮件分类器来说,先构建一个初始分类器,然后考虑一些比较高级的特征,比如邮件的语法风格、邮件的主机信息、邮件标题等。先将所有特征全加入到分类器中,然后逐个剔除,观察性能的下降幅度,将那些没有使性能下降或下降很少的特征删去。

相关文章

网友评论

      本文标题:第十一课 贝叶斯统计正则化

      本文链接:https://www.haomeiwen.com/subject/dgwwmttx.html