概率论
基础概念
随机试验
试验是指为了观察某事的结果或某物的性能而从事的某种活动。在概率论中,一个试验如果具有以下3个特点:
- 可重复性:在相同条件下可以重复进行
- 可观察性:每次实现的可能结果不止一个,并且能事先明确实验的所有可能结果
- 不确定性:一次试验之前,不能预知会出现哪一个结果
这样的试验是一个随机试验,简称为试验
样本点和样本空间
每次试验的每一个结果成为基本事件,也称作样本点,记作, 全部样本点的集合成为样本空间,记作,则
假设掷一颗均匀骰子,观察出现的点数。这是一个随机试验,样本空间
随机事件
基本事件是不可再分解的、最基本的事件,其他事件均可由它们复合而成,由基本事件复合而成的事件称为随机事件或简称为事件。
常用大写字母等表示事件。不如
随机事件的概率
概率是用来描述随机事件发生的可能性大小。比如抛硬币的试验,抛得次数越多,出现正面的 次数与投掷次数之间的比例愈加趋于。它的数学定义为:
在多次重复试验中,若事件发生的频率稳定在常数附近摆动,且随着试验次数的增加,这种摆动的幅度是很微小的。则称确定常数为事件发生的概率,记作
例子
设一年有365天,求下列事件的概率:
解
显然事件是对立事件,有
由于每人的生日可能是365天的任意一天,因此,个人的生日有种可能结果,而且每种结果是等可能的,因而是古典概型,事件的发生必须是个不同的生日,因而的样本点数为从中取个的排列数,于是
条件概率
设是两个事件,且,则称
为在事件发生的条件下,事件的条件概率
表示这两个事件同时发生的概率。
例子
某种原件用满未坏的概率是,用满未坏的概率是,现有一个此种元件,已经用过未坏,试求它能用到的概率。
解
设表示,表示,则
由于,因而,因此,
解释一下,这里由于事件包括事件的。
事件的独立性
如果事件发生的可能性不受事件发生与否的影响,即
则称事件对于事件独立,显然,若对对立,则对也一定独立,称事件与事件相互独立。
例子
口袋里装有5个黑球与3个白球,从中有放回地取2次,每次取一个,设事件表示第一次取到黑球,事件表示第二次取到黑球,则有
因而
因此,,这表明无论是否发生,都对发生的概率无影响。事件相互独立
性质
事件和事件相互独立的充分必要条件是
全概率公式
如果事件是一个完备事件组(一个事件发生的所有可能性都在这里面),并且都有正概率,则有
对于任何事件,事件构成最简单的完备事件组,根据全概率公式得
贝叶斯公式
设事件是一个完备事件组,则对任一事件,,有
以上公式就叫贝叶斯公式,可由条件概率的定义及全概率公式证明。
例子
市场上供应的某种商品由甲、乙、丙3个厂商生存,甲厂占45%,乙厂占35%,丙厂占20%。如果各厂的次品率依次为4%,2%,5%。现从市场上购买1件这种商品,发现是次品,试判断它是由甲厂生产的概率。
解
设事件,分别表示商品由甲、乙、丙厂生产的,事件表示商品为次品,得概率
根据贝叶斯公式,可得:
在购买一件商品这个试验中,是在试验以前就已经知道的概率,所以习惯地称为先验概率。试验结果出现了次品,这时条件概率反映了在试验以后对发生的来源(次品的来源)的各种可能性的大小,称为后验概率。
随机变量
把试验的结果与实数对应起来,随试验结果的不同而变化的量就是随机变量,包含离散型随机变量和连续性随机变量。
概率分布
设离散型随机变量的所有可能取值为,称
为的概率分布。
离散型随机变量的分布律具有下列基本性质:
1.
2.
下面看一下常见的离散型概率分布。
二项分布
二项分布是一种离散型的概率分布。二项代表它有两种可能的结果:成功或不成功。每次试验必须相互独立,重复n次,并且每次试验成功的概率是相同的,为:失败的概率也相同,为
抛硬币就是一个典型的二项分布。当我们要计算抛硬币次,恰好有次正面朝上的概率,可以使用二项分布的公式:
泊松分布
如果随机变量的概率分布为
式中,为常数,则称随机变量服从参数为的泊松分布,记为
概率密度函数
若存在非负函数,使一个连续型随机变量取值于任一区间的概率可以表示为
则称为随机变量的概率密度函数,简称概率密度或密度函数。
正态分布
又常称为高斯分布,其概率密度函数为
具有两个参数和,代表服从正态分布的随机变量的均值,是此随机变量的方差。如果一个随机变量服从均值,标准差为的正太分布,记作
我们通常称均值为,标准差为的正态分布为标准正态分布。
在这里插入图片描述上图中蓝线就是标准正态分布
随机变量的期望
对于一个随机变量,经常要考虑它平均取什么,期望就是概率论中的平均值,对随机变量中心位置的一种度量。
例子
经过长期观察积累,某射手在每次射击命中的环数服从分布:
0 | 5 | 6 | 7 | 8 | 9 | 10 | |
---|---|---|---|---|---|---|---|
0 | 0.05 | 0.05 | 0.1 | 0.1 | 0.2 | 0.5 |
求这个射手平均命中的环数是多少?
解
假设该射手进行了100次射击,那么,约有5次命中5环,5次命中6环,10次命中7环,10次命中8环,20次命中9环,50次命中10环,从而在一次射击中,该射手平均命中的环数为:
我们可以看到离散型的随机变量的期望值可以用每种取值与概率相乘之和来得到:
期望的性质
随机变量的方差
方差表示随机变量的变异性,方差越大,随机变量的结果越不稳定。
设为一随机变量,若
存在,则称其为的方差,记为,即
而称为的标准差或均方差
方差还可以表示为:
由方差的定义和数学期望的性质,可以推出方差的计算公式:
方差的性质
例子
甲、乙两车间生产同一种产品,设1000件产品中的次品数量分别为随机变量,已知他们的分布律如下:
0 | 1 | 2 | 3 | |
---|---|---|---|---|
0.2 | 0.1 | 0.5 | 0.2 |
0 | 1 | 2 | 3 | |
---|---|---|---|---|
0.1 | 0.3 | 0.4 | 0.2 |
式讨论甲、乙两车间的产品质量。
解
先计算均值
得到,甲、乙两车间次品数的均值相同。
再计算方差
以上用到了公式和
说明乙车间的产品质量比较稳定。
协方差
期望值分别为 与 的两个随机变量之间的协方差定义为:
协方差表示两个变量的总体的误差,这与只表示一个变量误差的方差不同。如果两个变量的变化趋势一致,即其中一个大于自身的期望值,另一个是正值。如果两个变量的变化趋势相反,即其中一个大于自身的期望值,另一个却小于自身的期望值,那么两个变量之间的协方差就是负值。
如果和式统计独立的,那么二者之间的协方差就是0,因为
但是反过来并不成立。
取决于协方差的线性相关性
是衡量线性独立的无量纲数,取值之间。当称为完全线性相关;当称为完全线性负相关;当说两个随机变量是不相关的,或者说线性无关。
越接近于1表明线性相关性越好。
在这里插入图片描述协方差的性质
其中是常数。
性质1说的是,针对同一个随机变量,协方差就是方差。
协方差矩阵
协方差矩阵是一个矩阵,矩阵中的第个元素是与的协方差。这个概念是对于标量随机变量方差的一般化推广。
其中,对角线上的元素为各个随机变量的方差,非对角线上的元素为多维随机变量各维度两两之间的协方差。
尽管协方差矩阵很简单,可它却是很多领域里的非常有力的工具。它能导出一个变换矩阵,这个矩阵能使数据完全去相关(decorrelation)。从不同的角度看,也就是说能够找出一组最佳的基以紧凑的方式来表达数据。 这个方法在统计学中被称为主成分分析(principal components analysis),在图像处理中称为Karhunen-Loève 变换(KL-变换)。
摘自维基百科
最大似然估计
概率vs统计
概率研究的问题是,已知一个模型和参数,怎么去预测这个模型产生的结果的特性(均值,方差等)。统计研究的问题则相反,它是有一堆数据,要利用这堆数据去预测模型和参数。简单来说,概率是已知模型和参数,推数据。统计是已知数据,推模型和参数。
最大似然估计
最大似然估计是一种用来推测参数的方法,属于统计领域的问题。
它利用已知的样本结果信息,反推使这个结果出现可能性最大的模型参数值,是一种概率意义下的参数估计。
例子
假设有一种特殊的硬币,抛这种硬币出现的正反面并不相等,求它正面出现的概率()是多少?
解
这是一个统计问题,解决统计问题需要数据。于是我们拿这枚硬币抛了10次,得到的数据是:反正正正正反正正正反。我们相求的正面概率是模型参数,而抛硬币模型我们可以假设是二项分布。那么出现实验结果的似然函数是多少呢?
所谓最大似然估计,就是最大化这个关于的函数,于是,我们画出的图像:
在这里插入图片描述可以看出,在时,取得最大值。
这样,我们已经完成了对的最大似然估计。即,抛10次硬币,发现7次硬币正面朝上,最大似然估计认为正面朝上的概率是0.7。
更新记录
- 2021-05-16 新增协方差和协方差矩阵。
网友评论