gpt4 book ai didi

贝叶斯与卡尔曼滤波(1)--三大概率

转载 作者:我是一只小鸟 更新时间:2023-02-21 22:31:16 25 4
gpt4 key购买 nike

贝叶斯与卡尔曼滤波(1)--三大概率

贝叶斯滤波主要是通过概率统计的方法,主要是贝叶斯公式,对随机信号进行处理,减小不确定度 。

贝叶斯滤波处理的随机变量主要是一个随机过程。 \(x_1, x_2, x_3 ...\) ,互不独立 。

与之对应的就是一个确定过程,比如:自由落体 \(v = g*t\) ,就是一个确定的过程 。

我们之前所学的大部分都是一些要求相对独立的数学,比如大数定律,中心极限定理,数理统计三大分布都需要独立同分布.

随机过程的难度相比于确定过程要高很多,最大的不同在于随机过程无法做随机试验了.

那么问题来了,随机试验是干什么的?随机试验最大的作用是为了给概率赋值的,比如抛硬币。为啥那么抛硬币正反的概率都是0.5呢?这就涉及到两种学说,主观概率学说以及大数定律学说(随机试验为基础).

随机试验的条件:

  • 在相同条件下,实验可以重复进行 (这其实就是随机实验之间的独立性)
  • 一次实验,结果不确定,所有可能的结果已知
  • 实验之前,实验结果预先未知

在抛硬币这个实验中,实验可以多次重复进行,由大数定律,设 \(n\) 为试验次数, \(\mu\) 为正面朝上的次数 。

那么根据大数定律,在 \(n\) 次独立的实验中,对于任意正数 \(\varepsilon\) ,有 。

\[\lim_{n \to \infty} P(|\frac{\mu}{n} - P_1| < \varepsilon) = 1 \]

当 \(n \to \infty\) 时, \(\frac{\mu}{n}\) 依概率收敛于 \(P_1\) . 。

经过大量的实验测试,这个概率在0.5上下波动,因此就定义为0.5 。

那么问题来了,对于一个随机过程来说, \(x_1, x_2, x_3 ...\) 互不独立,那么如何给这个概率赋值呢?

举个例子,股票。相对股票做随机试验,那么必须会时光倒流,这显示是不可能的。除了股票,像分子的扩散,气温的变化都是无法做随机试验的。一般来说与时间有关的东西,都是无法做随机试验的.

随机过程, \(x_1, x_2, x_3 ...\) 不独立,那么可以有以下推断 。

\[x_k = f(x_{k-1}) \]

\[P(x_k) = f(P(x_{k-1})) \]

这就体现了不独立性。那么有了这个信息,我们是否可以研究随机过程呢?答案也是不可以的,因为你只找到了他们的关系,但是必须要给随机过程的起点 \(P(x_1)\) 赋予初值,初值的选取是很重要的.

但是上面说过由于不独立性,我们无法通过大数定律赋予 \(P(x_1)\) 初值.

实际上,有的初值是可以做随机试验的额,比如随机游走 \(x_k = x_{k-1} +D\) ,$D $为位移 。

\[P(D=1) = 0.5 \]

\[P(D=-1) = 0.5 \]

初值 \(P(x_0 = 0) = 1\) .

但是更多情况下,初值是不可以做随机试验的,只能使用主观概率,也就是猜一个概率出来.

以上面的例子来看,抛硬币正面朝上的概率0.5这个事情来看,两种说法,主观概率与大数定律学说都存在不严谨的地方。主观概率就不说了,肯定是不严谨了,但是大数定律看似严谨,实际上独立性这个属性是无法保证,同时也是无法证明这个独立性的。一般来说判断独立性都是通过经验的,因此大数定律也是存在一定的主观性的。有人会说,证明独立性只需要说明 \(P(A)=P(B)\) 就可以了,但是要证明这个等式,必须要对两个概率赋值,而要对概率赋值,必须使用大数定律,这就成了一个鸡生蛋还是蛋生鸡的问题。因此在无法做随机试验的情况下,使用主观概率也是比较科学的做法 。

这就是概率论的两大学派,支持主观概率的也叫贝叶斯学派,支持大数定律的也叫频率学派,目前以频率学派占主导地位.

回到主观概率上,随机过程 \(x_1, x_2, x_3 ...\) 互不独立,那么 \(P(x_1)\) 该如何给呢?对于一些比较简单的随机过程,比如抛硬币,我们可以给一个0.5,但是对于一些比较复杂的过程,比如股票,每个人看法不一, 导致主观概率的选取不通用,那么不同的主观概率会导致不同的结果,这显示不是我们想要的。气温的变化,分子的扩散,本质上还是一个客观的过程,我们希望尽可能削弱主观的差异,那么应该怎么做呢,我们主要说贝叶斯滤波的方法.

我们需要引入外部观测,比如对于股票来说,每个人对涨跌的看法都是不一样,但是如果加上一个外部观测,比如得到消息,某公司老板卷钱跑路了,那么几乎所有人都会下调对该股票的收益预期.

引入外部观测,可以尽可能地减弱主观概率的影响 。

flowchart LR A[主观概率]-->B[外部观测] B-->C[相对客观的概率: 后验概率]

主观概率也叫做先验概率,主观概率和先验概率是存在一定区别的,但是我们可以把两者当作是一个东西,目前涉及的知识面,可以忽略两者的区别.

先验概率通过贝叶斯公式转化为后验概率.

先说一下符号 。

\(X, Y\) ,大写为随机变量, \(x, y\) ,小写为随机变量的取值,代表随机试验的一个可能的结果 。

离散变量: \(P(X=x) = P_x\) , 例如:

\[P(X=k) = e^{-\lambda}\frac{\lambda^{k}}{k!} \]

连续变量:

\[P(X < x) = \int_{-\infty}^{x}\frac{1}{\sqrt{2\pi}}e^{-\frac{t^2}{2}}dt \]

条件概率:

  • 离散

\[P(X=x|Y=y) = \frac{P(X=x, Y=y)}{P(Y=y)} \]

  • 连续

\[P(X=x|Y=y) =\int_{-\infty}^{x} \frac{f(x, y)}{f(y)}dy \]

下面以一个温度例子来学习贝叶斯滤波 。

首先,给出先验概率分布:此处以一个离散变量表示,如果是连续变量,那么需要给出概率密度函数.

\[\begin{cases} P(T=10)=0.8\\ P(T=11)=0.2 \end{cases} \]

其次,给出温度计的测量温度 \(T_m\) (m:measure,测量的意思)。问题来了,既然有了温度计的值了,还要贝叶斯干什么,还整这么复杂干什么?问题在于,任何传感器都是有误差的。温度计测量到的温度,不一定是准确的。假设$T_m = 10.3 $ 。

最后,使用贝叶斯公式,求得后验概率分布 。

\[P(T=10|T_m=10.3)=\frac{P(T_m=10.3|T=10)P(T=10)}{P(T_m=10.3)} \]

\[P(T=11|T_m=10.3)=\frac{P(T_m=10.3|T=11)P(T=11)}{P(T_m=10.3)} \]

其中:

  • \(P(T=10|T_m=10.3)\) 就是后验概率
  • \(P(T_m=10.3)\) 就是先验概率
  • \(P(T_m=10.3|T=10)\) 就是似然概率

似然概率 :代表观测的准确度 。

\(P(T_m=10.3|T=10)\) 当真实温度为10的时候,温度计测的温度为10.3的概率,代表传感器的精度.

问题来了,先验概率分布需要给出所有可能的分布,概率和必须为1。那么似然概率需不需要写成一个概率分布,概率和为1呢?答案是不需要的。 \(P(T_m=10.3|T=10)\) 与 \(P(T_m=10.3|T=11)\) 是对两个不同的真实值下的测量概率,可以说是两个随机试验,他们两个的概率没有任何关系。似然概率是用来衡量传感器的不确定性的,不确定性不受测量的真实值的影响的。比如传感器的精度是±1,那么测量一个冰水与沸水,传感器的误差都是±1,它是传感器本身的性质.

后验概率的概率和为1.

那么还有一个概率, \(P(T_m=10.3)\) 是什么呢?

很多教材里面,直接说 \(P(T_m=10.3)\) 与T无关,所以 \(P(T=10|T_m=10.3) = \eta P(T_m=10.3|T=10)P(T=10)\) 。

那么,为什么 \(P(T_m=10.3)\) 与T无关呢?很多人都会有一个困惑, \(T_m = 10.3\) 是一个已经发生的事件,所以 \(P(T_m=10.3)=1\) 。这就是搞混了随机变量的取值与随机变量的概率,这两者是完全不同的概念。比如抛硬币,一次随机试验中发生了正面朝上,那么正面朝上的概率依然是0.5,本次结果为正面朝上并不影响正面朝上的概率。 \(T_m=10.3\) 只是一次随机试验的结果而已,不能只看到一次结果,就把这个事件发生的概率定为1。随机试验的结果不影响分布律.

根据全概率公式:

\[P(T_m=10.3)=P(T_m=10.3|T=10)P(T=10)+P(T_m=10.3|T=11)P(T=11) \]

可以看到, \(P(T_m=10.3)\) 与T有关的,那为什么很多教材上说 \(P(T_m=10.3)\) 与T无关呢? 因为 ** \(P(T_m=10.3)\) ** 与T的取值无关,与T的分布律是有关的.

在上面的公式中可以看到, \(P(T_m=10.3|T=10)\) 是似然概率, \(P(T=10)\) 是先验概率。而似然概率是传感器本身的性质,因此在某种长度上,也可以说** \(P(T_m=10.3)\) **与T的取值无关.

继续进行计算:

\[P(T=10|T_m=10.3)=\frac{P(T_m=10.3|T=10)P(T=10)}{P(T_m=10.3)}=\eta P(T_m=10.3|T=10)P(T=10) \]

\[P(T=11|T_m=10.3)=\frac{P(T_m=10.3|T=11)P(T=11)}{P(T_m=10.3)}=\eta P(T_m=10.3|T=11)P(T=11) \]

可以近似于:

\[后验概率=\eta×似然概率×先验概率 \]

那么 \(\eta\) 怎么计算呢?其实很简单,因为所有的后验概率相加为1,所以 。

\[\sum 后验概率 = \eta \sum 似然概率 × 先验概率 \]

\[\eta = \frac{1}{ \sum 似然概率 × 先验概率} \]

为什么叫似然概率呢?

似然:likelihood,可能性。源于最大似然估计。他表示那个原因最有可能导致了结果.

比如A班有99男1女,B班有1男99女。那么随机数抽取一个班,再随机抽一个人进行观测,结果是女,那么最有可能是从B班抽出来的.

\[P(状态|观测)=\eta P(观测|状态)P(状态) \]

状态为因,观测为果。 后验概率为由果推因,似然概率是由因推果 .

如果两个随机变量存在一定的函数关系,他们是不是一定不独立? 答:不一定.

等价命题:如果两个随机变量相互独立,他们是不是一定没有函数关系? 答:不一定.

独立未必没有函数关系,虽然听起来匪夷所思,但这是事实.

举个例子,一个必然事件, \(Y = X+1\) , \(P(X=1)=1\) , \(P(Y=2)=1\) , \(P(X=1, Y=2)=1\) ,两者有函数关系,但是他们是独立的.

这个例子看起来没有太多说服力,那么说一个非必然事件的例子 。

设有一个正态概率分布 \(N(\mu, \sigma^2)\) , \((\mu, \sigma)\) 未知,从此分布中,抽取 \(n\) 个独立的样本, \(X_1, X_2,X_3,...,X_n\) 独立同分布,则下面两个随机变量相互独立.

\[\overline{X}=\frac{X_1+X_2+...+X_n}{n} \]

\[S^2 = \frac{1}{n}\sum_{i=1}^{n}(X_i - \overline X)^2 \]

均值和方差相互独立只有再正态分布中才有。显然,他们两个是存在函数关系的.

关于样本均值与样本方差的独立性证明,可以参考这个 视频 。

最后此篇关于贝叶斯与卡尔曼滤波(1)--三大概率的文章就讲到这里了,如果你想了解更多关于贝叶斯与卡尔曼滤波(1)--三大概率的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com