赞
踩
现代数字信号处理1 2019 张颢 02 第一讲2 概率论与随机过程基本知识回顾1 - YouTube
首先要熟悉以下五个概念:
所有的这一切都是先验的
其次,我们应该知道概率和统计的差异:完全风马牛不相及,基本理念、手段都不同。
Decision | Model | Data |
(3)用模型做预测、决策,这个过程叫概率。 | (1)上面谈的就是模型,任何一个统计模型,界定的都是两个东西:样本空间是什么,概率是什么。 | (2)数据是上帝给的,模型是人造的。所以数据的层次更高。数据分析处理形成模型,这个过程叫做统计。 |
这门课是统计意义上的信号处理,但是今天谈概率。所以要有样本空间,还要给样本空间中的样本点赋予概率。
需要先知道以下三个概念
一下三种哪个是对的?见图 1。
所有结果都是对的,因为三种我们选点的基础是不一样的。圆周、圆盘、半径,选点的基础是什么,这个就是样本空间。所以样本空间是最重要的东西。
很容易误导(Misleading)。其实一点随机性都没有,是从样本空间映射到实数轴的一个确定性函数 (Quantization),没有一点随机性。它所起到的作用是量化。(抛硬币,正面+反面,是不可能的,更不可能平方开根号,所以要引入随机变量)优先要把统计实验的结果全部都变成数。
分布的概率只能定义在样本空间的样本点上,所以这个式子默认的是这样的 。完全基于样本在实验中出现的可能性。 就是随机变量,貌似是不确定的,但是实际上是确定的。此时,这个概率就有了另外一个名字,叫做分布(Distribution)。
分布对应的是随机变量,概率对应的是样本点,仅此而已。
随机变量取每一个值都赋予一个分布。某某随机变量、某某分布,这两个说法是:
如果随机变量是离散的,样本空间可数 (可数:这个集合与自然数的真子集一一对应、可列:)。连续的,则样本空间是实数轴 (康德尔在集合论中说的)。实数要不就是可数的,要不就是连续的—康德尔。作为点的个数实数轴比可数多多了,但是没有介于两者之前的其他数集。
概率最重要的特性是可加性(Additivity)。譬如骰子的偶数面,是1/2,为什么可以不假思索?这就是公理。
如果不可数,变成一个积分
这就是概率密度(Density),具体的取值和在某点的概率不是一回事。
但以上公式实际上是错误的,而是
连续模型和离散模型,有天然的不同,所以需要用这种近似的方式,勉强联系在一起。所以我们把密度的原函数,称之为分布函数(Distribution Function)。
这里介绍三个离散分布和三个连续分布
为什么是乘在一起?不都是加法吗?实际上是用到了独立性(Inpendent)的概念。两个样本是独立的,则
如果看作面积的话,左边是面积,右边是面积的平方?在引入条件概率之前,这件事真的及其不自然。所以之后会介绍一个重要概念,那就是条件概率。
从二项分布出发,使得 ,概率无限小,但又给无限机会,又使得 ,因此
因为
为k个n相乘), 因此
因此是二项分布的小概率出现,密集出现,我们用大数定律,如果是稀有时间,是小数定律。(打中靶值是非常稀有的事件)。
现代数字信号处理1 2019 张颢 03 第一讲3 概率论与随机过程基本知识回顾2 - YouTube
在离散分布里,几何分布与指数分布比较类似,以打枪为例,命中概率为P,几何分布是从你开始打,到你打中,需要的枪数。
这个形式跟指数分布很像,都是常数*指数所以指数分布是等待某件事情发生的概率。
一些重要特性:
如何理解?可靠性理论:通常的部件故障率与时间的关系都服从澡盆模型。在澡盆中间是不容易坏的,刚开始和最后面是容易出故障的,所以是七天无理由退换。
,指数分布约定在正半轴,但是高斯没有
这是一个钟形(Bell shape)。性质优良,可以有多维分布。
一些重要特性:
若 都是独立同分布i.i.d,并且都做了归一化(均值为0,方差为1),则
若干随机变量的和,体现出整体和规律(高斯的)。大量的微小的随机因素,所呈现出的整体效应,和这些随机变量原有的效应就没有太大关系了。噪声的来源、影响因素不能找出来,太多了,但是合起来,就是高斯噪声。
Eg:统计物理学,分子运动,每一个分子都可以列出来,但是大量分子在一起时,方程太复杂了,还会碰撞,但是宏观上,反映出来就是温度,分子运动越剧烈,温度就越高。高斯就相当于这个温度。
对于每一种分布而言,都要记忆一种模型,就是样本对应可能性的大小,这么一套概率值,产生了两个问题。1、如果是先验的,我可以随便弄几个实验,说每个时间的概率是多少。看起来,建立模型是很简单的。但是要大浪淘沙,实践出真理,淘汰掉不可靠的模型。2、分布本身很复杂,因此希望用简单方法帮我们理解随机变量。使用一两个数字对其进行认知,则有:
这个是重心,质量在空间的分布的均值。
因为概率积分本身就为1,所以这个归一化的过程就省去了
而且,均值具有线性性质
Eg1:匹配问题(matching),N个人,N顶帽子。每人随机抓一顶帽子,请问多少人拿到自己帽子了。复杂在比起有关联。
几乎没有人用定义(舍本逐末)算均值,依赖均值的线性特性,
所以在均值层面,可以解耦。现在只需要计算 ,则
(N-1)!,第k的人已经带对,其他人想怎么样怎么样。
根据定义
因而
所以匹配不容易,N个人只有一个人会排上。
Eg2: ,首先定义距离,距离决定了我们现在的一切。不同的距离会得出截然不同的结论。
我们这里定义
其实这里,交换次序需要条件,但是工程学科,直接用就可以,但是得清楚。
现在对均值有了新认识。即离随机变量最近的那个确定性的常数(在均方距离下的最近的那个常数),虽然有误差,但是大致得到,而且很简单。
方差其实就是上面说的这个最近的“距离”,而均值就是那个位置。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。