赞
踩
依概率收敛:是指随着样本数量的不断增加,随机变量序列在概率意义下趋近于一个确定值的现象。换句话说,对于任意小的正实数ε,当样本数量n足够大时,随机变量与期望之差的绝对值小于ε的概率趋近于1。
lim
n
→
∞
P
{
∣
X
n
−
a
∣
≥
ε
}
=
0
\lim_{n\rightarrow \infty}P\left\{|X_n - a| ≥ ε\right\} = 0
n→∞limP{∣Xn−a∣≥ε}=0或
lim
n
→
∞
P
{
∣
X
n
−
a
∣
<
ε
}
=
1
\lim_{n\rightarrow \infty}P\left\{|X_n - a| < ε\right\} =1
n→∞limP{∣Xn−a∣<ε}=1
其中,|X_n - a|表示X_n与a之间的距离,ε为任意正数。这个式子表示了当样本数量n不断增加时,随机变量序列的取值将会越来越接近a这个确定的值,并以很高的概率落在以a为中心、ε为半径的范围内。
大数定律:是指在独立同分布的情况下,随着样本数量的增加,样本平均值会趋近于总体均值的现象。简单来说,样本数量越多,计算出来的平均值就越接近真实的平均值。
lim
n
→
∞
P
{
∣
1
n
∑
i
=
1
n
X
i
−
E
(
X
)
∣
≥
ε
}
=
0
\lim_{n\rightarrow \infty}P\left\{\left|\frac{1}{n}∑_{i=1}^n X_i - E(X)\right| ≥ ε\right\} = 0
n→∞limP{
n1i=1∑nXi−E(X)
≥ε}=0
这个式子表示了当样本数量不断增加时,随机变量序列的平均值将会越来越接近于期望E(X),并以很高的概率落在以E(X)为中心、ε为半径的范围内。
定理一切比雪夫大数定律:假设
{
X
n
}
(
n
=
1
,
2
,
.
.
)
\left\{X_n\right\}(n=1,2,..)
{Xn}(n=1,2,..)是相互独立的随机变量序列,如果方差
D
X
(
i
≥
1
)
DX(i\ge1)
DX(i≥1)存在且一致有上界,即存在常数
C
C
C,使
D
X
≤
C
DX\le C
DX≤C对一切
i
≥
1
i\ge1
i≥1 均成立,则
{
X
n
}
\left\{X_n\right\}
{Xn}服从大数定律,即
1
n
∑
i
=
1
n
X
i
\frac{1}{n}\sum_{i=1}^{n} X_i
n1∑i=1nXi依概率收敛于
1
n
∑
i
=
1
n
E
(
X
i
)
\frac{1}{n}\sum_{i=1}^{n}E(X_i)
n1∑i=1nE(Xi),有:
lim
n
→
∞
P
{
∣
1
n
∑
i
=
1
n
X
i
−
1
n
∑
i
=
1
n
E
(
X
i
)
∣
<
ε
}
=
1
\lim_{n \to \infty} P\left\{\left|\frac{1}{n}\sum_{i=1}^{n} X_i - \frac{1}{n}\sum_{i=1}^{n}E(X_i)\right| <ε\right\}=1
n→∞limP{
n1i=1∑nXi−n1i=1∑nE(Xi)
<ε}=1
定理二伯努利大数定律:设
μ
n
\mu_n
μn为n重伯努利实验中事件A发生的次数,
p
p
p为
A
A
A在每次实验中发生的概率,则
μ
n
n
\frac{\mu_n}{n}
nμn依概率收敛于
p
p
p,对任意给定的实数ε>0,有:
lim
n
→
∞
P
{
∣
μ
n
n
−
p
∣
<
ε
}
=
1
\lim_{n \to \infty} P\left\{\left|\frac{\mu_n}{n} - p\right| < ε\right\}=1
n→∞limP{
nμn−p
<ε}=1
定理三辛钦大数定律:假设
{
X
n
}
(
n
=
1
,
2
,
.
.
)
\left\{X_n\right\}(n=1,2,..)
{Xn}(n=1,2,..)是一组独立同分布的随机变量序列,如果
E
(
X
i
)
=
μ
(
i
=
1
,
2
,
…
)
E(X_i)=\mu (i=1,2,…)
E(Xi)=μ(i=1,2,…)存在,则
1
n
∑
i
=
1
n
X
i
\frac{1}{n}\sum_{i=1}^{n} X_i
n1∑i=1nXi依概率收敛于
μ
\mu
μ,对任意给定的实数ε>0,有:
lim
n
→
∞
P
{
∣
1
n
∑
i
=
1
n
X
i
−
μ
∣
<
ε
}
=
1
\lim_{n \to \infty} P\left\{\left|\frac{1}{n}\sum_{i=1}^{n} X_i - \mu\right| <ε\right\}=1
n→∞limP{
n1i=1∑nXi−μ
<ε}=1
定理四列维-林德伯格定理:假设
{
X
n
}
\left\{X_n\right\}
{Xn}是一组独立同分布的随机变量序列,如果
E
(
X
i
)
=
μ
E(X_i)=\mu
E(Xi)=μ,
D
(
X
i
)
=
σ
2
>
0
D(X_i)=\sigma^2>0
D(Xi)=σ2>0存在,对
∀
x
\forall x
∀x,有:
lim
n
→
∞
P
{
∑
i
=
1
n
X
i
−
n
μ
n
σ
≤
x
}
=
1
2
π
∫
−
∞
x
e
−
t
2
2
d
t
=
Φ
(
x
)
\lim_{n \to \infty} P\left\{\frac{\sum_{i=1}^{n} X_i-n\mu}{\sqrt{n}\sigma} \leq x \right\}=\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{x} e^{\frac{-t^2}{2}} dt=\Phi(x)
n→∞limP{n
σ∑i=1nXi−nμ≤x}=2π
1∫−∞xe2−t2dt=Φ(x)
只要
{
X
n
}
\left\{X_n\right\}
{Xn}满足定理条件,当n很大时,独立同分布随机变量的和近似服从于正态分布
N
(
n
μ
,
n
σ
2
)
N(n\mu,n\sigma^2)
N(nμ,nσ2),由此可知,有
P
{
a
<
∑
i
=
1
n
X
i
<
b
}
≈
Φ
(
b
−
n
μ
n
σ
)
−
Φ
(
a
−
n
μ
n
σ
)
P\left\{a<\sum_{i=1}^{n} X_i<b\right\}\approx\Phi\left(\frac{b-n\mu}{\sqrt{n}\sigma}\right)-\Phi\left(\frac{a-n\mu}{\sqrt{n}\sigma}\right)
P{a<∑i=1nXi<b}≈Φ(n
σb−nμ)−Φ(n
σa−nμ)
定理五棣莫弗-拉普拉斯定理:设随机变量
Y
n
∼
B
(
1
,
p
)
(
0
<
p
<
1
,
n
≥
1
)
Y_n \sim \text{B}(1,p)(0<p<1,n \ge 1)
Yn∼B(1,p)(0<p<1,n≥1),则对任意实数
x
x
x,有
lim
n
→
∞
P
{
Y
n
−
n
p
n
p
(
1
−
p
)
≤
x
}
=
1
2
π
∫
−
∞
x
e
−
t
2
2
d
t
=
Φ
(
x
)
\lim_{n \to \infty} P\left\{\frac{Y_n-np}{\sqrt{np(1-p)}} \leq x \right\}=\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{x} e^{\frac{-t^2}{2}} dt=\Phi(x)
n→∞limP{np(1−p)
Yn−np≤x}=2π
1∫−∞xe2−t2dt=Φ(x)
使用
Y
∼
B
(
n
,
p
)
Y \sim \text{B}(n,p)
Y∼B(n,p)二项分布的期望与方差代换(只是为了方便记忆)
lim
n
→
∞
P
{
Y
n
−
E
X
D
X
≤
x
}
=
Φ
(
x
)
\lim_{n \to \infty} P\left\{\frac{Y_n-EX}{\sqrt{DX}} \leq x \right\}=\Phi(x)
n→∞limP{DX
Yn−EX≤x}=Φ(x)
大数定律和中心极限定理区别在于:
它们的联系在于:大数定律和中心极限定理都是关于随机变量序列的渐进性质,即当样本大小足够大时,它们所描述的极限结果会逐渐接近于某个确定值(对于大数定律)或概率分布(对于中心极限定理)。
切比雪夫 | 辛钦 | 列维-林德伯格 |
---|---|---|
要求随机变量序列独立,DX存在有上界 | 要求独立同分布,EX存在 | 要求独立同分布,EX,DX存在 |
在概率论中,“样本空间”指的是所有可能的基本事件构成的集合,常用符号为
Ω
\Omega
Ω。例如,掷一次骰子的样本空间为
Ω
=
{
1
,
2
,
3
,
4
,
5
,
6
}
\Omega = \{1, 2, 3, 4, 5, 6\}
Ω={1,2,3,4,5,6}。
在数理统计中,研究对象的全体成为“总体”,“样本”是指从总体中抽取出来的一组观测值的集合,常用符号为
X
1
,
X
2
,
⋯
,
X
n
X_1, X_2, \cdots, X_n
X1,X2,⋯,Xn,其中
n
n
n 是样本量。样本空间则指的是这组观测值可能的取值范围,通常选择一个合适的数学结构来表示样本空间,如实数轴上的一个区间、
R
n
\mathbb{R}^n
Rn 空间中的一个点集等。
假设总体X的分布函数为F(x),则
X
1
,
X
2
,
⋯
,
X
n
X_1, X_2, \cdots, X_n
X1,X2,⋯,Xn的分布函数为
F
(
x
1
,
x
2
,
⋯
,
x
n
)
=
∏
i
=
1
n
F
(
x
i
)
F(x_1,x_2,\cdots,x_n)=\prod_{i=1}^{n}F(x_i)
F(x1,x2,⋯,xn)=i=1∏nF(xi)
(一)常用统计量:
1.样本数字特征:
(1) 样本均值:表示样本数据的平均水平,是所有观测值之和除以样本容量。
X
ˉ
=
1
n
∑
i
=
1
n
X
i
\bar{X}=\frac{1}{n}\sum_{i=1}^{n}X_i
Xˉ=n1i=1∑nXi
(2) 样本方差:反映样本数据的离散程度,是每个观测值与样本均值的差的平方和除以自由度。
S
2
=
1
n
−
1
∑
i
=
1
n
(
X
i
−
X
ˉ
)
2
S^2=\frac{1}{n-1}\sum_{i=1}^{n}(X_i-\bar{X})^2
S2=n−11i=1∑n(Xi−Xˉ)2
(3)样本标准差:样本方差的正平方根,衡量样本数据的离散程度。
S
=
S
2
S=\sqrt{S^2}
S=S2
(4)样本的k阶矩:是样本中每个观测值的k次方和的平均数。样本的k阶矩可表示为:
μ
^
k
=
1
n
∑
i
=
1
n
X
i
k
(
k
=
1
,
2
,
⋯
)
\hat{\mu}_k=\frac{1}{n}\sum_{i=1}^{n}X_i^k(k=1,2,\cdots)
μ^k=n1i=1∑nXik(k=1,2,⋯)
其中,
X
i
X_i
Xi 是第 i 个观测值,
n
n
n 是样本容量。特别地,当 k=1 时,
μ
^
1
\hat{\mu}_1
μ^1 即为样本均值。当 k=2 时,
μ
^
2
\hat{\mu}_2
μ^2 即为样本二阶中心矩,通常也称为样本方差。
(5)样本的k阶中心矩:是样本中每个观测值与样本均值之差的k次方和的平均数。样本的k阶中心矩可表示为:
μ
^
k
=
1
n
∑
i
=
1
n
(
X
i
−
X
ˉ
)
k
(
k
=
2
,
3
,
⋯
)
\hat{\mu}_k=\frac{1}{n}\sum_{i=1}^{n}(X_i-\bar{X})^k(k=2,3,\cdots)
μ^k=n1i=1∑n(Xi−Xˉ)k(k=2,3,⋯)
其中,
X
i
X_i
Xi 是第 i 个观测值,
X
ˉ
\bar{X}
Xˉ 是样本均值,
n
n
n 是样本容量。
2.顺序统计量:
顺序统计量是指从一组样本数据中按照大小顺序所得到的各个值,最小值是样本中最小的观测值,通常用
X
(
1
)
X_{(1)}
X(1) 表示。最大值是样本中最大的观测值,通常用
X
(
n
)
X_{(n)}
X(n) 表示。原本的统计量无序
X
1
,
X
2
,
⋯
,
X
n
X_1,X_2,\cdots,X_n
X1,X2,⋯,Xn,排序后为
X
(
1
)
,
X
(
2
)
,
⋯
,
X
(
n
)
X_{(1)},X_{(2)},\cdots,X_{(n)}
X(1),X(2),⋯,X(n),排序后的下标为顺序值,
X
(
k
)
X_{(k)}
X(k)成为第
k
k
k顺序统计量。
X ( 1 ) X_{(1)} X(1) | X ( n ) X_{(n)} X(n) | |
---|---|---|
分布函数 |
F
X
(
1
)
(
x
)
=
{
0
,
x
<
m
i
n
(
X
i
)
1
−
(
1
−
F
(
x
)
)
n
,
x
≥
m
i
n
(
X
i
)
F_{X_{(1)}}(x)= |
F
X
(
n
)
(
x
)
=
{
0
,
x
<
m
a
x
(
X
i
)
F
(
x
)
n
,
x
≥
m
a
x
(
X
i
)
F_{X_{(n)}}(x)= |
概率密度 | f X ( n ) ( x ) = n [ 1 − F ( x ) ] n − 1 f ( x ) f_{X_{(n)}}(x)=n[1-F(x)]^{n-1}f(x) fX(n)(x)=n[1−F(x)]n−1f(x) | f X ( n ) ( x ) = n [ F ( x ) ] n − 1 f ( x ) f_{X_{(n)}}(x)=n[F(x)]^{n-1}f(x) fX(n)(x)=n[F(x)]n−1f(x) |
3.常用性质
不要求记忆概率密度,只需了解相应统计量的典型模式,以及它们的分布曲线的示意图和分位数,会查相应分位数的数值表。
卡方分布:是指
Z
1
,
Z
2
,
…
,
Z
n
Z_1,Z_2,\ldots,Z_n
Z1,Z2,…,Zn 等若干相互独立且都服从标准正态分布的随机变量,则
X
=
∑
i
=
1
n
X
i
2
X= \sum_{i=1}^nX_i^2
X=∑i=1nXi2服从自由度为n的
χ
2
\chi^2
χ2分布,记为
X
∼
χ
2
(
n
)
X\sim\chi^2(n)
X∼χ2(n)
卡方分布的上
α
\alpha
α 分位点是指,使得其累积分布函数为
α
\alpha
α 的最小非负实数
x
α
x_{\alpha}
xα。换句话说,
α
\alpha
α 分位点表示了随机变量
X
X
X 的概率分布中,在其左侧有
α
\alpha
α 的概率质量,并且在其右侧有
1
−
α
1-\alpha
1−α 的概率质量。对于连续型随机变量,对于一个给定的
α
\alpha
α 值,我们需要求出
F
(
x
)
=
∫
−
∞
x
f
(
t
)
d
t
F(x)=\int_{-\infty}^{x}f(t)dt
F(x)=∫−∞xf(t)dt,然后找到使得
F
(
x
α
)
=
α
F(x_{\alpha})=\alpha
F(xα)=α 的
x
α
x_{\alpha}
xα 值。
卡方分布的性质:若
X
1
∼
χ
2
(
n
1
)
X_1\sim\chi^2(n_1)
X1∼χ2(n1) 和
X
2
∼
χ
2
(
n
2
)
X_2\sim\chi^2(n_2)
X2∼χ2(n2) 独立,则
(
X
1
+
X
2
)
∼
χ
2
(
n
1
+
n
2
)
(X_1+X_2)\sim\chi^2(n_1+n_2)
(X1+X2)∼χ2(n1+n2)
卡方分布的期望和方差:自由度为
n
n
n 的卡方分布的期望为
n
n
n,方差为
2
n
2n
2n。
t
t
t分布:
设随机变量
X
∼
N
(
0
,
1
)
,
Y
∼
χ
2
(
n
)
,
X
与
Y
X\sim N(0,1),Y\sim\chi^2(n),X与Y
X∼N(0,1),Y∼χ2(n),X与Y相互独立,则随机变量
t
=
X
Y
/
n
服从自由度为
n
的
t
分布,记为
t
∼
t
(
n
)
t=\frac{X}{\sqrt{Y/n}}服从自由度为n的t分布,记为t\sim t(n)
t=Y/n
X服从自由度为n的t分布,记为t∼t(n)
由概率密度图知图形关于
x
=
0
x=0
x=0对称,故
E
t
=
0
Et=0
Et=0
性质:
t
1
−
α
(
n
)
=
−
t
α
(
n
)
t_{1-\alpha}(n)=-t_{\alpha}(n)
t1−α(n)=−tα(n)
F
F
F分布:
F分布是由两个独立的卡方分布构成的比值,具体地,如果
X
1
∼
χ
2
(
n
1
)
X_1 \sim \chi^2(n_1)
X1∼χ2(n1) 和
X
2
∼
χ
2
(
n
2
)
X_2 \sim \chi^2(n_2)
X2∼χ2(n2) 独立,则
F
=
X
1
/
n
1
X
2
/
n
2
F = \frac{X_1/n_1}{X_2/n_2}
F=X2/n2X1/n1 服从自由度为
(
n
1
,
n
2
)
(n_1,n_2)
(n1,n2) 的F分布,记为
F
(
n
1
,
n
2
)
F(n_1,n_2)
F(n1,n2)。
性质:若
F
∼
F
(
n
1
,
n
2
)
F\sim F(n_1,n_2)
F∼F(n1,n2),则
1
F
∼
F
(
n
2
,
n
1
)
\frac{1}{F}\sim F(n_2,n_1)
F1∼F(n2,n1)。
F
1
−
α
(
n
1
,
n
2
)
=
1
F
(
n
2
,
n
1
)
F_{1-\alpha}(n_1,n_2)=\frac{1}{F(n_2,n_1)}
F1−α(n1,n2)=F(n2,n1)1。
样本均值:从正态总体中随机抽取
n
n
n 个样本,则样本均值
X
ˉ
\bar{X}
Xˉ 也服从正态分布,其均值为总体均值
μ
\mu
μ,方差为总体方差除以样本量
n
n
n。可以表示为:
X
ˉ
∼
N
(
μ
,
σ
2
n
)
\bar{X} \sim N(\mu, \frac{\sigma^2}{n})
Xˉ∼N(μ,nσ2)
样本方差:从正态总体中随机抽取 n n n 个样本,则样本方差 S 2 S^2 S2 也服从自由度为 n − 1 n-1 n−1 的卡方分布,且 S 2 S^2 S2 和 X ˉ \bar{X} Xˉ 是相互独立的。可以表示为:
( n − 1 ) S 2 σ 2 ∼ χ 2 ( n − 1 ) \frac{(n-1)S^2}{\sigma^2} \sim \chi^2(n-1) σ2(n−1)S2∼χ2(n−1)
X ˉ − μ σ n ∼ N ( 0 , 1 ) \frac{\bar{X} - \mu}{\frac{\sigma}{\sqrt{n}}} \sim N(0, 1) n σXˉ−μ∼N(0,1)
p ^ − p p ( 1 − p ) n ∼ N ( 0 , 1 ) \frac{\hat{p} - p}{\sqrt{\frac{p(1-p)}{n}}} \sim N(0, 1) np(1−p) p^−p∼N(0,1)
样本均值的置信区间:当样本量充分大时,可以使用正态分布来近似样本均值的分布,从而计算置信区间。样本均值的 100 ( 1 − α ) % 100(1-\alpha)\% 100(1−α)% 置信区间为 X ˉ ± z α / 2 σ n \bar{X} \pm z_{\alpha/2}\frac{\sigma}{\sqrt{n}} Xˉ±zα/2n σ,其中 z α / 2 z_{\alpha/2} zα/2 是标准正态分布上 α / 2 \alpha/2 α/2 分位点。
样本比例的置信区间:当样本量充分大时,可以使用正态分布来近似样本比例的分布,从而计算置信区间。样本比例的 100 ( 1 − α ) % 100(1-\alpha)\% 100(1−α)% 置信区间为 p ^ ± z α / 2 p ^ ( 1 − p ^ ) n \hat{p} \pm z_{\alpha/2}\sqrt{\frac{\hat{p}(1-\hat{p})}{n}} p^±zα/2np^(1−p^) ,其中 z α / 2 z_{\alpha/2} zα/2 是标准正态分布上 α / 2 \alpha/2 α/2 分位点。
矩估计法:是一种基于样本矩(如均值、方差等)与相应总体矩之间关系的估计方法。具体地,对于一个未知参数 θ \theta θ,我们可以通过样本矩来估计它的取值。设总体分布为 F ( x ∣ θ ) F(x|\theta) F(x∣θ),其中 θ \theta θ 是待估参数。假设存在 k k k 个矩 μ 1 , μ 2 , ⋯ , μ k \mu_1,\mu_2,\cdots,\mu_k μ1,μ2,⋯,μk,可以利用样本矩 μ ^ 1 , μ ^ 2 , ⋯ , μ ^ k \hat{\mu}_1,\hat{\mu}_2,\cdots,\hat{\mu}_k μ^1,μ^2,⋯,μ^k 来估计相应的总体矩。具体来说,考虑下面的方程组:
μ
1
=
E
[
X
]
=
∫
x
F
(
x
∣
θ
)
d
x
μ
2
=
E
[
X
2
]
=
∫
x
2
F
(
x
∣
θ
)
d
x
⋮
μ
k
=
E
[
X
k
]
=
∫
x
k
F
(
x
∣
θ
)
d
x
通过将上述积分式中的期望替换为样本均值,即 μ 1 ≈ x ˉ \mu_1 \approx \bar{x} μ1≈xˉ, μ 2 ≈ 1 n ∑ i = 1 n X i 2 \mu_2 \approx \frac{1}{n} \sum_{i=1}^n X_i^2 μ2≈n1∑i=1nXi2, ⋯ \cdots ⋯, μ k ≈ 1 n ∑ i = 1 n X i k \mu_k \approx \frac{1}{n} \sum_{i=1}^n X_i^k μk≈n1∑i=1nXik,就得到了样本矩估计量 θ ^ 1 , θ ^ 2 , ⋯ , θ ^ k \hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_k θ^1,θ^2,⋯,θ^k,它们满足下面的方程组:
μ
^
1
=
θ
^
1
(
μ
^
1
)
μ
^
2
=
θ
^
2
(
μ
^
1
,
μ
^
2
)
⋮
μ
^
k
=
θ
^
k
(
μ
^
1
,
⋯
,
μ
^
k
)
在满足一定条件的情况下,可以解出上述方程组得到
θ
^
1
,
θ
^
2
,
⋯
,
θ
^
k
\hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_k
θ^1,θ^2,⋯,θ^k 的估计值。这些估计量具有较好的渐进性质,在样本容量充分大时可以达到渐近无偏和渐近有效等性质。
最大似然估计法:是一种寻找最优参数估计值的方法。其基本思想是构造一个在给定参数下观测到数据概率最大的似然函数,然后通过求解该似然函数的最大值来得到参数的估计值。例如,在二项分布中,我们可以构造似然函数
L
(
p
)
=
(
n
y
)
p
y
(
1
−
p
)
n
−
y
L(p)={n\choose y}p^y(1-p)^{n-y}
L(p)=(yn)py(1−p)n−y,其中
p
p
p 是未知参数,
n
n
n 是样本量,
y
y
y 是成功次数。我们希望找到一个
p
p
p,使得
L
(
p
)
L(p)
L(p) 最大。这个问题可以通过对
L
(
p
)
L(p)
L(p) 求导并令其为0来求解。
最大似然估计量的不变性原则:如果
θ
^
\hat{\theta}
θ^ 是参数
θ
\theta
θ 的最大似然估计量,而
g
(
θ
)
g(\theta)
g(θ) 是
θ
\theta
θ 的一个函数,则
g
(
θ
^
)
g(\hat{\theta})
g(θ^) 是
g
(
θ
)
g(\theta)
g(θ) 的最大似然估计量。这个原则意味着,如果我们对某个参数进行换元,得到的新参数的最大似然估计量可以通过对原参数的最大似然估计量进行简单的函数变换得到。
估计量的评价标准:
(1)无偏性和有效性:一个估计量既要无偏(即期望等于真实值),又要具有较小的方差才能被称为“有效估计量”。如果存在两个无偏估计量,且其中一个的方差比另一个更小,则该估计量被认为比另一估计量更有效。
(2)一致性:是指当样本量趋近于无穷大时,估计量以概率1收敛于被估计参数的真实值。具体来说,如果一个估计量
θ
^
n
\hat{\theta}_n
θ^n 满足
lim
n
→
∞
P
(
∣
θ
^
n
−
θ
∣
>
ϵ
)
=
0
\lim_{n\rightarrow \infty}P(|\hat{\theta}_n-\theta|>\epsilon)=0
limn→∞P(∣θ^n−θ∣>ϵ)=0,其中
ϵ
>
0
\epsilon>0
ϵ>0 为任意小数,则称该估计量是一致的。
设
θ
\theta
θ是总体X 的一个未知参数,对于给定的a(0<a<1),如果由样本
X
1
,
X
2
,
⋯
,
X
n
X_1,X_2,\cdots,X_n
X1,X2,⋯,Xn确定的两个统计量
θ
1
^
=
θ
1
^
(
X
1
,
X
2
,
⋯
,
X
n
)
\hat{\theta_1} =\hat{\theta_1} (X_1,X_2,\cdots,X_n)
θ1^=θ1^(X1,X2,⋯,Xn) ,
θ
2
^
=
θ
2
^
(
X
1
,
X
2
,
⋯
,
X
n
)
(
θ
1
<
θ
2
)
\hat{\theta_2} =\hat{\theta_2} (X_1,X_2,\cdots,X_n)(\theta_1<\theta_2)
θ2^=θ2^(X1,X2,⋯,Xn)(θ1<θ2),使
P
{
θ
1
^
(
X
1
,
X
2
,
⋯
,
X
n
)
<
0
<
θ
2
^
(
X
1
,
X
2
,
⋯
,
X
n
)
}
=
1
−
α
P\left\{\hat{\theta_1} (X_1,X_2,\cdots,X_n)<0<\hat{\theta_2} (X_1,X_2,\cdots,X_n)\right\}=1-\alpha
P{θ1^(X1,X2,⋯,Xn)<0<θ2^(X1,X2,⋯,Xn)}=1−α则称随机区间
(
θ
1
^
,
θ
2
^
)
(\hat{\theta_1} ,\hat{\theta_2})
(θ1^,θ2^)是的置信度为
1
−
α
1-\alpha
1−α 的置信区间,
θ
1
^
\hat{\theta_1}
θ1^ 和
θ
2
^
\hat{\theta_2}
θ2^分别称为的置信度为
1
−
α
1-\alpha
1−α 的双侧置信区间的置信下限和置信上限,
1
−
α
1-\alpha
1−α称为置信度或置信水平,
α
\alpha
α称为显著性水平。
置信水平为
1
−
α
1-\alpha
1−α的正态总体均值的置信区间:
待估参数 | 其他参数 | 枢轴量分布 | 置信区间 |
---|---|---|---|
μ \mu μ | σ \sigma σ 未知 | 取自由度为 n − 1 n-1 n−1 的 t t t 分布 | X ˉ − t α 2 ( n − 1 ) × S n < μ < X ˉ + t α 2 ( n − 1 ) × S n \bar{X} - t_{\frac{\alpha}{2}}(n-1)\times\frac{S}{\sqrt{n}} < \mu < \bar{X} + t_{\frac{\alpha}{2}}(n-1)\times\frac{S}{\sqrt{n}} Xˉ−t2α(n−1)×n S<μ<Xˉ+t2α(n−1)×n S |
μ \mu μ | σ \sigma σ 已知 | 取标准正态分布 N ( 0 , 1 ) N(0,1) N(0,1) | X ˉ − z α 2 × σ n < μ < X ˉ + z α 2 × σ n \bar{X} - z_{\frac{\alpha}{2}}\times\frac{\sigma}{\sqrt{n}} < \mu < \bar{X} + z_{\frac{\alpha}{2}}\times\frac{\sigma}{\sqrt{n}} Xˉ−z2α×n σ<μ<Xˉ+z2α×n σ |
弃真:弃真错误是指在小概率事件发生时拒绝原假设的错误。例如,在假设总体均值为
μ
0
\mu_0
μ0 的情况下,如果样本均值
X
ˉ
\bar{X}
Xˉ 落在拒绝域内,则会拒绝原假设,即认为总体均值不等于
μ
0
\mu_0
μ0。然而,在总体均值确实等于
μ
0
\mu_0
μ0 的情况下,由于样本误差等因素的影响,有一定概率(称为显著性水平
α
\alpha
α)会出现样本均值落入拒绝域的情况,此时拒绝原假设就是一个弃真错误。
取伪:取伪错误是指在大概率事件没有发生时接受原假设的错误。同样以假设总体均值为
μ
0
\mu_0
μ0 的情况为例,如果样本均值
X
ˉ
\bar{X}
Xˉ 不在拒绝域内,则会接受原假设,即认为总体均值等于
μ
0
\mu_0
μ0。但是,如果总体均值实际上并不等于
μ
0
\mu_0
μ0,则有一定概率(称为检验力
1
−
β
1-\beta
1−β)出现样本均值不在拒绝域内却被接受原假设的情况,此时接受原假设就是一个取伪错误。
[注]:截图来自《30讲》
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。