美文网首页
条件概率分布与机器学习

条件概率分布与机器学习

作者: jackben | 来源:发表于2019-03-01 14:47 被阅读0次

基本上很多机器学习的算法的目标函数都是条件概率分布。所以这里会重点的谈谈我对条件概率分布的理解。 

条件概率分布到底意味着什么呢?

条件概率分布的数学表达公式为:P(Y|X)。这里X 和 Y 都是随机变量。 如何理解该公式呢? 

该公式可以理解为:寻找一种观察结果的最可能原因

说白了, 就是从结果反推出原因。 那么哪个是原因? 哪个是结果?

在条件概率分布中,  X代表结果, Y代表原因, 这一点非常重要。由于结果是可观察的, 所以X是已知变量, Y是要求解的未知变量。

所以条件概率分布可以理解在不确定环境下的因果推导模型。 

比较常见的例子就是医疗诊断,医生会根据患者的症状(观察的结果),推断出具体病因(原因)。 

如何进行条件概率的推理?

根据贝叶斯定理,有如下公式:

P(Y| X) = \frac{P(X, Y)}{P(X)}

从贝叶斯推理可知:

只要能求解随机变量 X, Y的联合概率分布, 就可以求得条件概率分布。

如何求解联合概率分布?

根据如下概率公式

P(X, Y) = P(X|Y) * P(Y)= P(x_{1}, x_{2} ... x_{n}| Y ) * P(Y)

在这里X是一个向量。 从上述公式看, 关键在于求解 P(x_{1}, x_{2} ... x_{n}| Y ) 。如果特征变量x_{i} 是布尔类型, 则向量X的取值范围有2^n , 这个值是指数级别的,是不可计算的。

所以,有没有办法降低计算复杂度呢? 

另辟道路:变量的独立性

如果假设 x_{1}, x_{2} ... x_{n} 是互相独立的, 那么则可以推导出:

P(x_{1}, x_{2} ... x_{n}| Y ) =\prod_{i=1}^n P(x_{i}|Y)

则求解的复杂度从指数级降低到了线性。 

但是, 天下没有免费的午餐。 现实情况中, 随机变量的绝对独立性非常少见。 所以,这种计算方法虽然提高了计算效率, 但是降低了对现实模拟的准确度

所以,有没有其它办法,即可提高计算效率, 又不降低精确度呢?

柳暗花明又一村:贝叶斯网络

贝叶斯网络是机器学习的一个重要分支, 在这里不具体展开它。

需要记住一点: 贝叶斯网络是和联合概率分布是等价的。同时贝叶斯网络的计算效率提高不少。

如果想进一步深入了解贝叶斯网络的话, 可以参考《概率图模型原理与技术[科勒,弗里德曼著]》  

相关文章

  • 条件概率分布与机器学习

    基本上很多机器学习的算法的目标函数都是条件概率分布。所以这里会重点的谈谈我对条件概率分布的理解。 条件概率分布到底...

  • 朴素贝叶斯估计

    朴素贝叶斯法通过训练数据集学习联合概率分布P(X,Y),具体做法是学习先验概率分布P(Y)与条件概率分布P(X|Y...

  • 《统计学习方法》极简笔记P4:朴素贝叶斯公式推导

    朴素贝叶斯基本方法 通过训练数据集学习联合概率分布P(X,Y),即学习先验概率分布条件概率分布假设条件独立然后根据...

  • 2019-11-28

    softmax运算_360搜索 机器学习——softmax计算 - 简书 概率与统计——条件概率、全概率、贝叶斯、...

  • 机器学习模型比较

    判别模型与生成模型 生成模型学习联合概率分布,求出条件概率分布P(Y|X)=P(X,Y)/P(X)。朴素贝叶斯法、...

  • 置信区间与置信度

    机器学习的本质就是对条件概率或概率分布的估计,一直以来,对这个知识点总是似懂非懂,偶然间看到这篇文章,学习+实践记...

  • 统计学习方法1.1-1.3 笔记

    1.1 统计学习方法分类 按模型分类: 概率模型:条件概率分布表达的模型。x为条件,y的概率分布。决策树、朴素贝叶...

  • 概率论

    注:采转归档,自己学习查询使用 计数概率公理条件概率随机变量离散分布连续分布联合分布随机变量的函数期望方差与标准差...

  • 迁移学习中的条件概率分布与边缘概率分布

    在迁移学习中,一个热门的研究方向是领域自适应(Domain Adaptation)。在领域自适应的定义中,涉及到条...

  • 条件概率分布

    条件和事件 按照文本计数词汇 使用nltk包下的ConditionalFreqDist(条件频率分布)统计词汇数就...

网友评论

      本文标题:条件概率分布与机器学习

      本文链接:https://www.haomeiwen.com/subject/zclduqtx.html