美文网首页
概率图模型基础(2)——贝叶斯网络中的因果关系

概率图模型基础(2)——贝叶斯网络中的因果关系

作者: To_QT | 来源:发表于2019-08-27 13:15 被阅读0次

1. 贝叶斯网络

1.1 网络结构

仍然是学生成绩的例子,假设有以下5个随机变量,Grade(G),Course Difficulty(D)、Student Intelligence(I)、Student SAT(S)、Reference Letter(L)。其结构如图example右侧所示。

图1

1.2 贝叶斯网络的表达式

对于无向无环图(DGA)中的每一个节点X_1,...,X_n,每一个节点的概率可以写成P(X_i| Par_G(X_i))

图2.png
在图2中,D,S是两个不相邻的节点,在 G 和 L 未被观测的条件下,D,S在给定I的条件下保持独立。因此有

对于上例中的结构,有
P(D,I,G,S,L)=P(D)P(I)P(G|D,I)P(S|I)P(L|G)

贝叶斯网络中,个节点的概率和为1. image.png

1.3 朴素贝叶斯

假设所有的事例都属于若干两两互斥且报刊所有事例情况的类中的一个。比如,学生的智商I,存在事例的两个类——高智商和低智商。
除此之外,模型还包括一定数量的、可以观测到其值的特征(features)X_1,...,X_n。朴素贝叶斯假设(naive Bayes assumption)是在给定事例的类的条件下,这些特征条件独立。

基于上述独立性假设,模型的因子分解可以表示为:
P(C,X_1,...,X_n)=P(C) \prod_{i=1}^{n}P(X_i|C)

朴素贝叶斯模型的贝叶斯网图

2 符号定义

  • ⊨:“满足”
  • ⊥:“独立”

示例1:

image.png
上图的意思为:对于事件\alpha\beta,若有
P(\alpha, \beta)=P(\alpha)P(\beta)
P(\alpha| \beta)=P(\alpha)
P(\beta| \alpha)=P(\beta)
P满足\alpha\beta相互独立

示例2:

image.png
对于随机变量XY,若有
P(X, Y)=P(X)P(Y)
P(X| Y)=P(X)
P(Y| X)=P(Y)
P满足XY相互独立

3 因果关系

3.1 具体实例

  1. IntelligenceDifficulty为观测值,GradeLetter为未知值。
    因果关系1
  • 如果Intelligence取较低值,则在此基础上,获得letter的概率下降
  • 如果在此基础上继续减少课程的难度,则P(L^1 | i^0,d^0)的概率会有提升提升。

表现为:概率从上到下影响。

  1. IntelligenceDifficulty为先验概率值(不是观测值),Grade为观测值。
    执果索因
  • 如果Grade取较低值,则在此基础上,可以推测出,1、智商不够,2、考试很难。
    表现为:概率从下到上影响。
  1. IntelligenceDifficulty为先验概率值(不是观测值),Grade为观测值。
    image.png
  • 如果加上了SAT,对difficultyIntelligence也有很大影响。
    表现为:概率的影响具有传递性。

3.2 贝叶斯网络中各节点如何相互影响?

1. 直接连接
XY互连1 XY互连2

在此情况下:Grade改变影响Difficulty,同样的,Difficulty改变也会影响到Grade


2. 如果W不是观测变量,则X-W-Y可以完成X影响Y。
  • Difficulty->Grade->Letter
    传递性

Grade不为观测变量时,Difficulty可以通过Grade对是否获取Letter进行影响。

  • Letter->Grade->Difficulty
    反向传递

Grade不为观测变量时,Letter的可以通过Grade判断课程的难度。

  • Grade<-Intelligence->SAT

Intelligence不为观测变量时,SAT的可以通过Intelligence判断成绩。


3. 如果W是观测变量,则如下情况X不会影响Y。
  • Difficulty->Grade->Letter

    传递性
  • Letter->Grade->Difficulty

    反向传递
  • Grade<-Intelligence->SAT


4. 如果W以及W的子结点没有被观测的话,则X不会影响Y【v-结构】
  • Difficulty->Grade<-Intelligence,其中(Grade和Letter都没有被观测到)

5. 如果W或W的子结点有被观测的话,则X会影响Y【v-结构】
  • Difficulty->Grade<-Intelligence,或Difficulty->Letter<-Intelligence
    其中(Grade和Letter只要有一个被观测到)

4. 参考课程

Coursera——Probabilistic Graphical Models
PGM课程笔记

相关文章

  • 概率图模型基础(2)——贝叶斯网络中的因果关系

    1. 贝叶斯网络 1.1 网络结构 仍然是学生成绩的例子,假设有以下5个随机变量,Grade(G),Course ...

  • 朴素贝叶斯

    理论基础 条件概率:朴素贝叶斯最核心的部分是贝叶斯法则,而贝叶斯法则的基石是条件概率。贝叶斯法则如下: 词集模型:...

  • 概率图模型基础(3)——贝叶斯网络的独立性

    1. 贝叶斯网的基本独立性 在学生成绩示例图中,用边表示其直接依赖关系。 根据上一节概率图模型基础(2)——贝叶斯...

  • 数学

    概率统计 (1)极大似然思想(2)贝叶斯模型(3)隐变量混合概率模型,EM思想基础的典型分布:正态(高斯)分布。 ...

  • 朴素贝叶斯概述

    朴素贝叶斯本质上是一种简单的概率图模型 朴素贝叶斯与LR的区别?简单来说:朴素贝叶斯是生成模型,根据已有样本进行贝...

  • 现代AI课程考试内容相关博客资料

    苏老师 理解概率图模型中的有向分离(d-separation) 贝叶斯网络有向图 MCMC算法学习总结(马尔科夫蒙...

  • 【机器学习】贝叶斯概率思维笔记

    课程来源 知乎live-贝叶斯概率思维 目录 贝叶斯概率 贝叶斯定理 贝叶斯估计 贝叶斯网络 推荐书籍 涉及名词 ...

  • 第七章 贝叶斯网络

    什么是贝叶斯网络 用点表示事件条件概率,用边表示事件依赖关系的有向无环图。1.典型贝叶斯问题2.静态结构在BN中描...

  • (8)生成式模型与判别式模型

    生成式模型:利用联合概率分布求条件概率分布,基于贝叶斯公式;贝叶斯模型,隐马尔可夫模型 判别式模型:直接求取决策函...

  • 机器学习-概率图模型初探

    outline 数学基础 HMM CRF 主题模型 数学基础 贝叶斯公式: 联概 = 条概*边概条件概率 = 联合...

网友评论

      本文标题:概率图模型基础(2)——贝叶斯网络中的因果关系

      本文链接:https://www.haomeiwen.com/subject/laudectx.html