2020 无人驾驶(4)

作者: zidea | 来源:发表于2020-09-06 20:53 被阅读0次
self_drive.jpg

首先我解释一下为什么需要先说贝叶斯滤波和卡尔曼滤波呢,这是因为这些概念知识在随后多处很用到,所以感觉有必要先把这些基础理论说清楚,大家一步一个脚印走下去才不会遇到瓶颈而无法前进。

极大似然估计

简单说一下似然估计,这个在机器学习中也是一个重要理论。其实也可以这样理解,我们还是通过一个例子进行说明解释,首先我们认为小事件 100 个球其中蓝球 99 个红球 1 个,然后计算蓝球或红球的概率分别是 99% 和 1%,这就是传统经典概率。100 球直到其中有红球也有蓝球,知道蓝球不是 99 个就是 1 个,也就是我们已经知道概率分布为红球或蓝球可能有种是 99 个球,另一个颜色球就是 1 个,在这种情况下,我们从任取一个球,发现是蓝色的球。根据我们看到结果就可以推测分布情况为蓝球 99% 而红球 1%,这就是极大似然概率理论解释。

P(状态|观测) = \eta P(观测|状态)P(状态)

状态和观测

这里我们通常将观测看作结果而将状态看作原因,因为有了原因才有结果,也就是存在真实温度我们才能进行测量得到测量值,测量值是真实温度状态的一种观测到状态的反映。后验概率由果推因,也就是我们观测到测量值后推测得到测量的原因。例如我们测量得到结果为 30.5 度,那么能够产生 30.5 度测量值的原因概率是多少,也就是当测量值为 30.5 度真实值是 31 概率是多少、是 32 概率多少,是 30 度概率是多少。

似然概率是由因推果,衡量哪一个原因最有可能导致这个结果的概率。

后验概率 \begin{cases} P(状态_1|观测)\\ P(状态_2|观测) \end{cases}

先验概率 \begin{cases} P(观测|状态_1)\\ P(观测|状态_2) \end{cases}

连续随机变量的贝叶斯公式

P(X < x | Y = y) = \frac{P(Y=y|X < x)P(X <x)}{P(Y=y)}

其中 X < x 作为条件概率看起来好像有点奇怪也没法求解,而且分母也是 0 如果不知道分母为什么为 0 需要看一看随机变量的概率密度。贝叶斯公式无法直接运用于连续随机变量,可以利用化积分为求和对公式进行化简,因为积分本质就是无数个无穷小相加的结果。

X < x 可以转化为 \sum_{u \rightarrow -\infty}^x X = u 所以我们就可以得到
P(X<x|Y=y) = \sum_{u = -\infty}^x P(X=u|Y=y) = \sum_{u = -\infty}^x \frac{P(Y=y|X=u)P(X=u)}{P(Y=y)}

因为如果有一定概率密度知识,大家都知道现在公式是分母和分子都是 0,因为都是求连续函数某一点概率,其实也不是这样,应该是无穷小,趋近于 0 而不是 0 那么两个趋近于 0 的数相除可能不是 0 ,所以我们可以反过来将无穷小写成极限的形式。

\lim_{\epsilon \rightarrow 0} \sum_{u = -\infty}^x \frac{P(y < Y < y + \epsilon|X=u)P(u < X < u + \epsilon)}{P(u < Y < u + \epsilon)}

\lim_{\epsilon \rightarrow 0} \sum_{u = -\infty}^x \frac{(f_{Y|X}(\xi_1|u)\epsilon)(f_X(\xi_2)\epsilon)}{f_Y(\xi_3)\epsilon}

这里需要简单解释一下,我们将 Y 随机变量取值变为从 y 到 y 加上一个非常小\epsilon 来表示,同理 X 随机变量取值也变为从 u 到 u 加上 \epsilon 的区间,这样一来就不存在分母和分子同时为 0 然后我们可以用积分方式表示P(y < Y < y + \epsilon|X=u) 也就是\int_y^{y + \epsilon} f_{Y|X}(y|u)dy 然后用中值定理改写公式为了(f_{Y|X}(\xi_1|u)\epsilon)

这里可能大家已经忘记了定积分的定义,其实定积分就是为解决曲边梯形面积而引入积分,也就是通过在 a 到 b 间插入若干分点。
a = x_0 < x_1 < x_2 \cdots < x_{n-1} < x_n = b
注意这些分点分割的距离可以是有大有小,并不一定需要等分。我们用\Delta x_1 ,\Delta x_2 ,\cdots \Delta x_n 分别来表示他们这些分点切割出来距离。然后在每一个小区间内任取一个点,然后用这一点函数值作为高,用高度
A = \Delta x_1 f(\xi_1) + \Delta x_2 f(\xi_2) + \cdots + \Delta x_n f(\xi_n)
这样可以用若干小矩形面积和来仅是曲边梯形面积。

\lim_{\lambda \rightarrow 0} \sum_{i=1}^n f(\xi_i) \Delta x_i \, \lambda = \max \{\Delta x_1,\Delta x_2, \cdots, \Delta_n \}

我们先看 lambda 这里 lamba 是这些小区间中最大小区间的长度,当 lambda 趋于 0 也就表示这些小区间有无穷多个,并且每一个小区间足够小可以近似曲边梯形的面积。所以我们上面公式这里积分公式类似可以通过推导将上面公式写成积分形式。

\begin{aligned} \xi_1 \in (y,y+\epsilon)\\ \xi_2 \in (u,u+\epsilon)\\ \xi_3 \in (y,y+\epsilon)\\ \end{aligned}

\lim_{\epsilon \rightarrow 0} \sum_{u = -\infty}^x \frac{f_{Y|X}(y|u)f_X(u)}{f_Y(y)} \epsilon

\int_{-\infty}^x \frac{f_{Y|X}(y|u)f_X(u)}{f_Y(y)}du = \int_{-\infty}^x \frac{f_{Y|X}(y|x)f_X(x)}{f_Y(y)}dx

这里将 u 替换为 x 这是根据积分性质来的,积分只与积分函数和积分区间有关,与其他无关所以可以将 u 替换 x 表示更清楚。到现在为止我们就完成连续随机变量贝叶斯公式的推导。

P(X<x|Y=y) = \int_{-\infty}^x \frac{f_{Y|X}(y|x)f_X(x)}{f_Y(y)}dx

我们也可以对后验概率进行求解
\int_{-\infty}^x f_{X|Y}(x|y)dx
将后验概率带入上面连续随机变量贝叶斯公式就得到下面的公式
f_{X|Y}(x|y) = \frac{f_{Y|X}(y|x)f_X(x)}{f_Y(y)}
这个公式看上去很舒服了吧,因为和我们之前看到离散随机变量贝叶斯公式很相似。但是大家通过推导过程可以发现他们离散和连续随机变量贝叶斯公式虽然最终结果很相似,但是推导过程确实不同的。

\int_{-\infty}^x \frac{f_{Y|X}(y|u)f_X(u)}{f_Y(y)}du = \int_{-\infty}^x \frac{f_{Y|X}(y|x)f_X(x)}{f_Y(y)}dx
这个是从概率分布角度来表示连续随机变量贝叶斯公式

f_{X|Y}(x|y) = \frac{f_{Y|X}(y|x)f_X(x)}{f_Y(y)}
这个是从概率密度角度来表示连续随机变量贝叶斯公式

大家一定对概率分布和概率密度进行区分,一旦混淆就可能造成对一些概念理解上的偏差。概率密度是Probability Density Function (PDF)而概率分布函数(CDF)

在连续随机变量也可以将其写成类似离散随机变量的贝叶斯公式形式,也就是后验概率与似然概率和先验概率的乘积成比例
f_{X|Y}(x|y) = \frac{f_{Y|X}(y|x)f_X(x)}{f_Y(y)} = \eta f_{Y|X}(y|x)f_X(x)

要证明这个成立我们需要证明f_Y(y)是一个常数

f_Y(y) = \int_{-\infty}^{+ \infty} f(y,x)dx
这里用到联合概率密度与边缘概率密度的关系。一个边缘概率可以写成联合概率密度积分。其实这个本质是连续随机变量下全概率公式。我们还是简单说一下连续的联合密度和边缘密度,已经了解朋友可以跳过这里

F(x,y) = P\{X \le x, Y\le y\} = \int_{-\infty}^x\int_{-\infty}^y f(s.t)dsdt

F 表示分布函数和 f 表示密度函数,f(x,y) 就是联合密度函数。

  • f(x,y) 大于等于 0
  • \int_{-\infty}^{+ \infty}\int_{-\infty}^{ + \infty} f(x.y)dxdy = 1
  • \frac{\partial^2F(x,y)}{\partial x \partial y}=f(x,y)

然后用条件概率来表示联合概率,就得到下面公式从而证明了f_Y(y)是一个常数。这个应该不用在做过多解释了吧。

f_Y(y) = \int_{-\infty}^{+ \infty} f_{Y|X}(y|x)f(x)dx = C

\eta = \frac{1}{\int_{-\infty}^{+ \infty} f_{Y|X}(y|x)f(x)dx}

贝叶斯滤波和卡尔曼滤波有着广泛应用,那么贝叶斯滤波是如何通过贝叶斯公式来实现对信息不确定性的过滤。

今天我们继续说连续随机变量贝叶斯,通过一个公式让大家来加深对连续随机变量贝叶斯公式的认识。

f_X(x) = \frac{1}{\sqrt{2 \pi}} e^{-\frac{(x -10)^2}{2}}
用一个服从正态分布的先验概率来描述先验概率,其中 10 表示期望而方差为 1.方差也就是我们对猜测不确定性的把握。然后进行观测 y = 9

\frac{d}{dy}\int_{-\infty}^9 f_{Y|X}f(y|x) dy = 0

这里解释一下这个为什么是 0 首先\int_{-\infty}^9 f_{Y|X}f(y|x) dy f(y|x)对 y 积分那么得到 x 函数,然后在对于 x 函数进行求 y 导数也就是 0。

相关文章

  • 2020 无人驾驶(4)

    极大似然估计 简单说一下似然估计,这个在机器学习中也是一个重要理论。其实也可以这样理解,我们还是通过一个例子进行说...

  • 2020 无人驾驶(4)

    首先我解释一下为什么需要先说贝叶斯滤波和卡尔曼滤波呢,这是因为这些概念知识在随后多处很用到,所以感觉有必要先把这些...

  • 长沙宣布,出租车再见!无人驾驶出租车开始运营!

    长沙宣布,出租车再见!2020年4月20日,长沙正式对外宣布!无人驾驶出租车测试期结束,即日起正式开始运营! 这下...

  • 第五周美文抄写

    2020/4/13 2020/4/14 2020/4/15 2020/4/16 2020/4/17 2020/4/...

  • 第四周美文抄写

    2020/4/6 2020/4/6 2020/4/7 2020/4/7 2020/4/8 2020/4/8 202...

  • 2020 无人驾驶(1)

    甜品 当我看到特斯拉无人驾驶的宣传片,突然感觉自己心血来潮,一个似乎连自己都觉得可笑想法越现眼前。对想法就是做无人...

  • 2020 无人驾驶随笔

    今天我们继续说连续随机变量贝叶斯,通过一个公式让大家来加深对连续随机变量贝叶斯公式的认识。 用一个服从正态分布的先...

  • 2020 无人驾驶随笔

    到这里我们准备兵 3 路,启动并进逐一击破。分别是 计算机视觉和深度学习在无人驾驶的应用 slam 技术在无人驾驶...

  • 2020 无人驾驶(2)

    我们根据无人驾驶中几个具体问题分解来依次给大家讲解 感知 决策 路径规划 控制 参考网上的学多牛人的资料我觉的有必...

  • 2020 无人驾驶(3)

    ​无人驾驶是一个大课题,如何说起呢?, 首先因为 by-wire system,举个例子机器是无法参与到车辆机械运...

网友评论

    本文标题:2020 无人驾驶(4)

    本文链接:https://www.haomeiwen.com/subject/yuchektx.html