赞
踩
理解: P(A)+P(B)导致P(AB)被多计算一次,因此需要减去一个P(AB)。P(A)+P(B)+P©导致P(ABC)被多计算两次,但P(AB), P(AC), P(BC)将P(ABC)减去三次,因此需要补上一个P(ABC)。
减法公式:
①对于任意事件A,B,有
P
(
A
−
B
)
=
P
(
A
)
−
P
(
A
B
)
P(A-B)=P(A)-P(AB)
P(A−B)=P(A)−P(AB);
分配律:先并后交等于先交后并。
①
P
{
(
A
∪
B
)
∩
C
}
=
P
{
A
C
∪
B
C
}
P\{(A \cup B )\cap C \} = P\{AC \cup BC \}
P{(A∪B)∩C}=P{AC∪BC}
②
P
{
(
A
∩
B
)
∪
C
}
=
P
{
(
A
∪
C
)
∩
(
B
∪
C
)
}
P\{(A \cap B )\cup C \} = P\{(A \cup C) \cap (B \cup C) \}
P{(A∩B)∪C}=P{(A∪C)∩(B∪C)}
理解: 古典概型是通过事件样本数除以总的测试样本数以近似事件发生的概率。
理解: 贝叶斯公式一般用于已知事件B_i的概率和在事件B_i发生条件下A发生的条件概率时,因为不同B_i对应发生事件A的概率不同,利用贝叶斯公式求事件B_i发生的概率。根据公式可以知道,分母就是全概率公式对于所有的事件B都相同,导致结果不同的是分子即B_i发生的概率乘以A对应的条件概率。
事件A, B相互独立,则:
注意: 连续型随机变量在某一点处的概率为0,这是与离散型随机变量概率极大的不同点。
已知连续型随机变量X的概率密度函数为 f X ( x ) f_X(x) fX(x),则 Y = g ( X ) Y=g(X) Y=g(X)的概率密度的求解步骤为:
已知连续型随机变量X, Y的联合概率密度函数为 f ( x , y ) f(x,y) f(x,y),则 Z = g ( x , y ) Z=g(x,y) Z=g(x,y)的概率密度函数为:
二项分布:
B
(
n
,
p
)
B(n,p)
B(n,p),其中n表示n重伯努利试验中A发生的次数,
X
∼
B
(
n
,
p
)
X \sim B(n,p)
X∼B(n,p),其中p表示每次试验中A发生的概率。
①分布律:
P
{
X
=
k
}
=
C
n
k
p
k
(
1
−
p
)
n
−
k
P\{X=k\}=C_n^kp^k(1-p)^{n-k}
P{X=k}=Cnkpk(1−p)n−k;表示事件A发生k次的概率。
泊松分布:
P
(
λ
)
P(\lambda)
P(λ),若
X
∼
B
(
n
,
p
)
X \sim B(n,p)
X∼B(n,p),当n较大,p较小时,X近似服从
P
(
n
p
)
P(np)
P(np)。
①分布律:
P
{
X
=
k
}
=
λ
k
e
−
λ
k
!
P\{X=k\}=\frac{\lambda^k e^{-\lambda}}{k!}
P{X=k}=k!λke−λ
方差:
D
(
X
)
=
E
[
X
−
E
(
X
)
]
2
=
E
(
X
2
)
−
E
(
X
)
2
D(X)=E[X-E(X)]^2=E(X^2)-E(X)^2
D(X)=E[X−E(X)]2=E(X2)−E(X)2
理解:方差等于平方的期望减去期望的平方。
标准差: σ = D ( X ) \sigma=\sqrt{D(X)} σ=D(X)
方差的性质
①
D
(
C
)
=
0
;
D(C)=0;
D(C)=0;
②
D
(
X
+
C
)
=
D
(
X
)
;
D(X+C)=D(X);
D(X+C)=D(X);
③
D
(
C
X
)
=
C
2
E
(
X
)
;
D(CX)=C^2E(X);
D(CX)=C2E(X);
④
D
(
X
±
Y
)
=
D
(
X
)
+
D
(
Y
)
±
2
E
{
[
X
−
E
[
X
]
]
[
Y
−
E
[
Y
]
]
}
=
D
(
X
)
+
D
(
Y
)
±
C
o
v
(
X
,
Y
)
;
D(X \pm Y)=D(X)+D(Y) \pm 2E\{[X-E[X]][Y-E[Y]] \}=D(X)+D(Y)\pm Cov(X,Y);
D(X±Y)=D(X)+D(Y)±2E{[X−E[X]][Y−E[Y]]}=D(X)+D(Y)±Cov(X,Y);
⑤若X, Y相互独立,
D
(
X
±
Y
)
=
D
(
X
)
+
D
(
Y
)
;
D(X \pm Y)=D(X)+D(Y);
D(X±Y)=D(X)+D(Y);
分布 | 分布律或概率密度 | 数学期望 | 方差 |
---|---|---|---|
0-1分布 | P { x = k } = p k ( 1 − p ) 1 − k P\{x=k\}=p^k(1-p)^{1-k} P{x=k}=pk(1−p)1−k | p p p | p ( 1 − p ) p(1-p) p(1−p) |
二项分布 B ( n , p ) B(n,p) B(n,p) | P { x = k } = C n k p k ( 1 − p ) n − k P\{x=k\}=C_n^kp^k(1-p)^{n-k} P{x=k}=Cnkpk(1−p)n−k | n p np np | n p ( 1 − p ) np(1-p) np(1−p) |
泊松分布 P ( λ ) P(\lambda) P(λ) | P { x = k } = λ k e − λ k ! P\{x=k\}=\frac{\lambda^ke^{-\lambda}}{k!} P{x=k}=k!λke−λ | λ \lambda λ | λ \lambda λ |
均匀分布 U ( a , b ) U(a,b) U(a,b) | f ( x ) = 1 b − a ( a ≤ x ≤ b ) f(x)=\frac{1}{b-a}(a \leq x \leq b) f(x)=b−a1(a≤x≤b) | a + b 2 \frac{a+b}{2} 2a+b | ( b − a ) 2 12 \frac{(b-a)^2}{12} 12(b−a)2 |
正态分布 N ( μ , σ 2 ) N(\mu,\sigma^2) N(μ,σ2) | f ( x ) = 1 2 π σ e − ( x − μ ) 2 2 σ 2 f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}} f(x)=2π σ1e−2σ2(x−μ)2 | μ \mu μ | σ 2 \sigma^2 σ2 |
指数分布 E ( θ ) E(\theta) E(θ) | f ( x ) = θ e θ x ( x > 0 ) f(x)=\theta e^{\theta x}(x>0) f(x)=θeθx(x>0) | 1 θ \frac{1}{\theta} θ1 | 1 θ 2 \frac{1}{\theta^2} θ21 |
协方差: C o v ( X , Y ) = E ( X Y ) − E ( X ) E ( Y ) ; Cov(X,Y)=E(XY)-E(X)E(Y); Cov(X,Y)=E(XY)−E(X)E(Y);
相关系数:
ρ
X
Y
=
C
o
v
(
X
,
Y
)
D
(
X
)
D
Y
\rho_{XY}=\frac{Cov(X,Y)}{\sqrt{D(X)D{Y}}}
ρXY=D(X)DY
Cov(X,Y)
理解:当X, Y相互独立时,它们的协方差和相关系数为0.
协方差的性质:
①
C
o
v
(
X
,
C
)
=
0
;
Cov(X,C)=0;
Cov(X,C)=0;
②
C
o
v
(
a
X
,
b
Y
)
=
a
b
C
o
v
(
X
,
Y
)
;
Cov(aX,bY)=abCov(X,Y);
Cov(aX,bY)=abCov(X,Y);
③
C
o
v
(
X
1
+
X
2
,
Y
)
=
C
o
v
(
X
1
,
Y
)
+
C
o
v
(
X
2
,
Y
)
;
Cov(X_1+X_2,Y)=Cov(X_1,Y)+Cov(X_2,Y);
Cov(X1+X2,Y)=Cov(X1,Y)+Cov(X2,Y);
④
D
(
X
±
Y
)
=
D
(
X
)
+
D
(
Y
)
±
2
C
o
v
(
X
,
Y
)
;
D(X \pm Y)=D(X)+D(Y) \pm 2Cov(X,Y);
D(X±Y)=D(X)+D(Y)±2Cov(X,Y);
⑤若X, Y相互独立,则
C
o
v
(
X
,
Y
)
=
0
;
Cov(X,Y)=0;
Cov(X,Y)=0;
辛钦大数定理:对于独立同分布且具有均值
μ
\mu
μ的随机变量
X
1
,
X
2
,
⋯
,
X
n
X_1,X_2,\cdots,X_n
X1,X2,⋯,Xn,当n充分大时,它们的算数平均
1
n
∑
i
=
1
n
X
i
\frac{1}{n}\sum_{i=1}^nX_i
n1∑i=1nXi很可能接近于
μ
\mu
μ。
理解:对独立同分布的随机变量求和,当n充分大时,求和的均值与分布均值相似。
伯努利大数定理:设
f
A
f_A
fA是n次独立重复实验中事件A发生的次数,p是事件A在每次试验中发生的概率,则对于任意正数
ϵ
>
0
\epsilon>0
ϵ>0有:
lim
n
→
∞
P
(
∣
f
A
n
−
p
∣
<
ϵ
)
=
1
\lim_{n \to \infty}P(|\frac{f_A}{n}-p|<\epsilon)=1
limn→∞P(∣nfA−p∣<ϵ)=1。
理解:对于n次独立重复实验,当n充分大时,事件发生的比例可以近似于事件发生的概率。
设随机变量
X
1
,
X
2
,
⋯
X_1,X_2,\cdots
X1,X2,⋯独立同分布,
E
(
X
k
)
=
μ
,
D
(
X
k
)
=
σ
2
E(X_k)=\mu,D(X_k)=\sigma^2
E(Xk)=μ,D(Xk)=σ2,则当n充分大时,近似有
∑
k
=
1
n
X
k
∼
N
(
n
μ
,
n
σ
2
)
,
即
∑
k
=
1
n
X
k
−
n
μ
n
σ
∼
N
(
0
,
1
)
\sum_{k=1}^nX_k \sim N(n\mu,n\sigma^2),即\frac{\sum_{k=1}^nX_k-n\mu}{\sqrt{n}\sigma}\sim N(0,1)
∑k=1nXk∼N(nμ,nσ2),即n
σ∑k=1nXk−nμ∼N(0,1)。
理解:独立同分布的随机变量求和,当n趋近于无穷大时,它们和的分布趋近于正太分布。
设随机变量
X
∼
B
(
n
,
p
)
X \sim B(n,p)
X∼B(n,p),当n充分大时,近似有
X
∼
N
(
n
p
,
n
p
q
)
,
即
X
−
n
p
n
p
q
∼
N
(
0
,
1
)
X \sim N(np,npq),即\frac{X-np}{\sqrt{npq}}\sim N(0,1)
X∼N(np,npq),即npq
X−np∼N(0,1)。
理解:对于二项分布,当n充分大时二项分布可以近似于泊松分布和正态分布(中心极限定理)。
χ
2
(
n
)
\chi^2(n)
χ2(n)分布:若
X
1
,
X
2
,
⋯
,
X
n
X_1,X_2,\cdots,X_n
X1,X2,⋯,Xn相互独立,且
X
i
∼
N
(
0
,
1
)
X_i \sim N(0,1)
Xi∼N(0,1),则
X
1
2
+
X
2
2
+
⋯
+
X
n
2
∼
χ
2
(
n
)
;
X_1^2+X_2^2+\cdots+X_n^2 \sim \chi^2(n);
X12+X22+⋯+Xn2∼χ2(n);
理解:
χ
(
n
)
2
\chi(n)^2
χ(n)2分布就是服从于正态分布N(0,1)的相互独立的随机变量的平方和。
t
(
n
)
t(n)
t(n)分布:设
X
∼
N
(
0
,
1
)
,
Y
∼
χ
2
(
n
)
X \sim N(0,1),Y\sim \chi^2(n)
X∼N(0,1),Y∼χ2(n),X, Y相互独立,则
T
=
X
Y
/
n
∼
t
(
n
)
T=\frac{X}{\sqrt{Y/n}}\sim t(n)
T=Y/n
X∼t(n)。
理解:
t
(
n
)
t(n)
t(n)分布就是正态分布除以
χ
2
(
n
)
\chi^2(n)
χ2(n)分布。
F
F
F分布:设
X
∼
χ
2
(
n
1
)
,
Y
∼
χ
2
(
n
2
)
X \sim \chi^2(n_1),Y \sim \chi^2(n_2)
X∼χ2(n1),Y∼χ2(n2),X, Y相互独立,则
F
=
X
/
n
1
Y
/
n
2
F=\frac{X/n_1}{Y/n_2}
F=Y/n2X/n1。
理解:
F
F
F分布就是两个
χ
2
\chi^2
χ2分布相除。
离散型总体的最大似然估计:
①计算似然函数
L
(
θ
)
=
∏
i
=
1
n
p
(
x
i
,
θ
)
;
L(\theta)=\prod_{i=1}^n p(x_i,\theta);
L(θ)=∏i=1np(xi,θ);
②对似然函数取对数
ln
L
(
θ
)
=
∑
i
=
1
n
ln
p
(
x
i
,
θ
)
;
\ln L(\theta)=\sum_{i=1}^n \ln p(x_i,\theta);
lnL(θ)=∑i=1nlnp(xi,θ);
③令
d
d
θ
ln
L
(
θ
)
=
0
\frac{d}{d\theta}\ln L(\theta)=0
dθdlnL(θ)=0,解出最大似然估计
θ
^
;
\hat{\theta};
θ^;
连续型总体的最大似然估计:
①计算似然函数
L
(
θ
)
=
∏
i
=
1
n
f
(
x
i
,
θ
)
;
L(\theta)=\prod_{i=1}^n f(x_i,\theta);
L(θ)=∏i=1nf(xi,θ);
②对似然函数取对数
ln
L
(
θ
)
=
∑
i
=
1
n
ln
f
(
x
i
,
θ
)
;
\ln L(\theta)=\sum_{i=1}^n \ln f(x_i,\theta);
lnL(θ)=∑i=1nlnf(xi,θ);
③令
d
d
θ
ln
L
(
θ
)
=
0
\frac{d}{d\theta}\ln L(\theta)=0
dθdlnL(θ)=0,解出最大似然估计
θ
^
;
\hat{\theta};
θ^;
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。