PT@数字特征@数学期望@方差@标准差
文章目录
PT@数字特征@数学期望@方差@标准差
- 相比于分布函数,随机变量的数字特征更加直观和易于理解,集中的反映了随机变量的某些统计属性
- 分布函数完整地描述了随机变量的统计规律
- 特别是,某些随机变量不容易求解
- 某些问题不需要实际求解出分布函数
- 数字特征的计算结果为数值!
- 这在推导公式的时候有用处
数学期望(均值)🎈
-
一般定义:
-
设 X 是概率空间 ( Ω , F , P ) 中的随机变量 ( 三个参数分别表示样本空间 , 样本空间幂集的非空子集 , 概率 ) E ( X ) = ∫ Ω X d P 不是所有随机变量都有期望值 ( 上述积分不存在 , 则没有期望值 ) 如果 2 个随机变量的分布相同 , 期望也相同 设X是概率空间(\Omega,F,P)中的随机变量 \\(三个参数分别表示样本空间,样本空间幂集的非空子集,概率) \\ E(X)=\int\limits_{\Omega}X\mathrm{d}P \\不是所有随机变量都有期望值(上述积分不存在,则没有期望值) \\如果2个随机变量的分布相同,期望也相同 设X是概率空间(Ω,F,P)中的随机变量(三个参数分别表示样本空间,样本空间幂集的非空子集,概率)E(X)=Ω∫XdP不是所有随机变量都有期望值(上述积分不存在,则没有期望值)如果2个随机变量的分布相同,期望也相同
-
P ( x < X ⩽ x + Δ x ) = F ( x + Δ x ) − F ( x ) = ∫ x x + Δ x f ( x ) d x ≈ f ( x ) d x 这个式子表明 , f ( x ) d x 是 X 取值落在 x 处邻域内概率的估计 P(x<X\leqslant x+\Delta x)=F(x+\Delta x)-F(x) \\=\int_{x}^{x+\Delta x}f(x)\mathrm{d}x \approx f(x)\mathrm{d}x \\这个式子表明,f(x)\mathrm{d}x是X取值落在x处邻域内概率的估计 P(x<X⩽x+Δx)=F(x+Δx)−F(x)=∫xx+Δxf(x)dx≈f(x)dx这个式子表明,f(x)dx是X取值落在x处邻域内概率的估计
-
-
下面讨论的一维和二维情况,都可以理解为是对应维数**随机变量的函数**的期望的特例
一维
- 一维的情况比较基础:
离散型
-
设随机变量X的分布律为
-
P ( X = x i ) = p i , i = 1 , 2 , ⋯ P(X=x_i)=p_i,i=1,2,\cdots P(X=xi)=pi,i=1,2,⋯
-
级数 E ( X ) = ∑ i = 1 + ∞ x k p k 绝对收敛 级数E(X)=\sum\limits_{i=1}^{+\infin}x_kp_k绝对收敛 级数E(X)=i=1∑+∞xkpk绝对收敛
-
即: E ( ∣ X ∣ ) = ∑ i = 1 + ∞ ∣ x k ∣ p k < + ∞ E(|X|)=\sum\limits_{i=1}^{+\infin}|x_k|p_k<+\infin E(∣X∣)=i=1∑+∞∣xk∣pk<+∞
-
其中: p k = P ( X = x k ) p_k=P(X=x_k) pk=P(X=xk)
- E ( X ) = ∑ i = 1 + ∞ x k p k = ∑ i = 1 + ∞ x k P ( X = x k ) E(X)=\sum\limits_{i=1}^{+\infin}x_kp_k =\sum\limits_{i=1}^{+\infin}x_kP(X=x_k) E(X)=i=1∑+∞xkpk=i=1∑+∞xkP(X=xk)
-
否则随机变量X的期望不存在
-
-
则 E ( X ) 为随机变量的数学期望 ( 均值 ) 则E(X)为随机变量的数学期望(均值) 则E(X)为随机变量的数学期望(均值)
-
-
可以看出,当X可能取有限个值时,那么数学期望一定存在
-
对于无穷中取值可能,绝对收敛就体现出作用
- 绝对收敛性保证了级数E(X)的值不会因为求和顺序的不同而导致不同
-
连续型
-
设 f ( x ) 为概率密度 , 如果 设f(x)为概率密度,如果 设f(x)为概率密度,如果
-
E ( X ) = ∫ − ∞ + ∞ x f ( x ) d x 绝对收敛 , 即 ∫ − ∞ + ∞ ∣ x ∣ f ( x ) d x < + ∞ 则称 E ( X ) 为随机变量 X 的数学期望 E(X)=\int_{-\infin}^{+\infin}xf(x)dx绝对收敛, \\即\int_{-\infin}^{+\infin}|x|f(x)dx<+\infin \\ 则称E(X)为随机变量X的数学期望 E(X)=∫−∞+∞xf(x)dx绝对收敛,即∫−∞+∞∣x∣f(x)dx<+∞则称E(X)为随机变量X的数学期望
- 对比离散型期望定义和公式:
- ∑ i = 0 + ∞ → ∫ − ∞ + ∞ \sum\limits_{i=0}^{+\infin}\to{\int_{-\infin}^{+\infin}} i=0∑+∞→∫−∞+∞
- x k → x x_k\to{x} xk→x
- p k → f ( x ) p_k\to{f(x)} pk→f(x)
- 对比离散型期望定义和公式:
-
二维期望
- 参看下一节:二维随机变量的函数的期望
随机变量函数的期望🎈
-
随机变量函数的密度函数(或分布律)不一定要求出来
- 可以利用随机变量函数直接求.
-
下面两个计算公式提供了简便计算随机变量函数Z=g(X)的期望的途径
-
它们的证明需要专业知识
-
利用这两个公式,可以避开对随机变量Z的分布律(或者密度函数的求解)
直接使用 X 的分布律 ( 密度函数就可以计算出 Z = g ( X ) 的期望 E ( Z ) ) 直接使用X的分布律(密度函数就可以计算出Z=g(X)的期望E(Z)) 直接使用X的分布律(密度函数就可以计算出Z=g(X)的期望E(Z))
-
一维变量函数
- 记: Y = g ( X ) Y=g(X) Y=g(X)
离散型
- 如果 : ∑ i = 1 + ∞ ∣ g ( x k ) ∣ p k > + ∞ E ( Y ) = E ( g ( X ) ) = ∑ i = k + ∞ g ( x k ) p k 如果:\sum\limits_{i=1}^{+\infin}|g(x_k)|p_k>+\infin \\E(Y)=E(g(X))=\sum\limits_{i=k}^{+\infin}g(x_k)p_k 如果:i=1∑+∞∣g(xk)∣pk>+∞E(Y)=E(g(X))=i=k∑+∞g(xk)pk
连续型
- 如果 : ∫ − ∞ + ∞ ∣ g ( x ) ∣ f ( x ) d x > + ∞ E ( Y ) = E ( g ( X ) ) = ∫ − ∞ + ∞ g ( x ) f ( x ) d x 如果:\int_{-\infin}^{+\infin}|g(x)|f(x)\mathrm{d}x >+\infin \\E(Y)=E(g(X))=\int_{-\infin}^{+\infin}g(x)f(x)\mathrm{d}x 如果:∫−∞+∞∣g(x)∣f(x)dx>+∞E(Y)=E(g(X))=∫−∞+∞g(x)f(x)dx
二维变量函数
- 在二维期望存在情况下,有以下计算公式
离散型
-
记 Z = g ( X , Y ) 记Z=g(X,Y) 记Z=g(X,Y)
-
E ( Z ) = ∑ i = 1 + ∞ ∑ j = 1 + ∞ g ( x i , y i ) p i j E(Z)=\sum\limits_{i=1}^{+\infin}\sum\limits_{j=1}^{+\infin}g(x_i,y_i)p_{ij} E(Z)=i=1∑+∞j=1∑+∞g(xi,yi)pij
-
如果 E ( Z ) 绝对收敛 , 则随机变量 Z = g ( X , Y ) 的数学期望为 E ( Z ) 如果E(Z)绝对收敛,则随机变量Z=g(X,Y)的数学期望为E(Z) 如果E(Z)绝对收敛,则随机变量Z=g(X,Y)的数学期望为E(Z)
-
连续型
-
二维随机变量(函数)的期望
-
Z = g ( X , Y ) Z=g(X,Y) Z=g(X,Y)
-
E ( Z ) = E ( g ( X , Y ) ) = ∫ − ∞ + ∞ ∫ − ∞ + ∞ g ( x , y ) f ( x , y ) d x d y E(Z)=E(g(X,Y))=\int_{-\infin}^{+\infin}\int_{-\infin}^{+\infin} g(x,y)f(x,y)\mathrm{d}x\mathrm{d}y E(Z)=E(g(X,Y))=∫−∞+∞∫−∞+∞g(x,y)f(x,y)dxdy
- f ( x , y ) 表示随机变量 X , Y 的联合密度 f(x,y)表示随机变量X,Y的联合密度 f(x,y)表示随机变量X,Y的联合密度
-
数学期望的性质🎈🎈
-
C 是常数 X , Y 是随机变量 C是常数 \\X,Y是随机变量 C是常数X,Y是随机变量
- 下面的性质可以用来推导方差的计算公式等以期望为基础的数字特征公式
-
常数相关的的期望,容易由期望公式推导
-
E ( C ) = C E(C)=C E(C)=C
-
E ( C X ) = C E ( X ) E(CX)=CE(X) E(CX)=CE(X)
-
E ( X ± Y ) = E ( X ) ± E ( Y ) E(X\pm{Y})=E(X)\pm{E(Y)} E(X±Y)=E(X)±E(Y)
- E ( X + Y ) = ∫ − ∞ + ∞ ∫ − ∞ + ∞ ( x + y ) f ( x , y ) d x d y = ∫ − ∞ + ∞ ∫ − ∞ + ∞ x f ( x , y ) d x d y + ∫ − ∞ + ∞ ∫ − ∞ + ∞ y f ( x , y ) d x d y = ∫ − ∞ + ∞ x ( ∫ − ∞ + ∞ f ( x , y ) d y ) d x + ∫ − ∞ + ∞ y ( ∫ − ∞ + ∞ f ( x , y ) d x ) d y = ∫ − ∞ + ∞ x f X ( x ) d x + ∫ − ∞ + ∞ y f Y ( y ) d y = E ( X ) + E ( Y ) E(X+Y)=\int_{-\infin}^{+\infin}\int_{-\infin}^{+\infin} (x+y)f(x,y)\mathrm{d}x\mathrm{d}y \\=\int_{-\infin}^{+\infin}\int_{-\infin}^{+\infin} xf(x,y)\mathrm{d}x\mathrm{d}y +\int_{-\infin}^{+\infin}\int_{-\infin}^{+\infin} y f(x,y)\mathrm{d}x\mathrm{d}y \\=\int_{-\infin}^{+\infin}x \left(\int_{-\infin}^{+\infin} f(x,y)\mathrm{d}y \right) \mathrm{d}x +\int_{-\infin}^{+\infin}y \left(\int_{-\infin}^{+\infin} f(x,y)\mathrm{d}x \right) \mathrm{d}y \\=\int_{-\infin}^{+\infin}xf_X(x)\mathrm{d}x +\int_{-\infin}^{+\infin}yf_Y(y)\mathrm{d}y \\=E(X)+E(Y) E(X+Y)=∫−∞+∞∫−∞+∞(x+y)f(x,y)dxdy=∫−∞+∞∫−∞+∞xf(x,y)dxdy+∫−∞+∞∫−∞+∞yf(x,y)dxdy=∫−∞+∞x(∫−∞+∞f(x,y)dy)dx+∫−∞+∞y(∫−∞+∞f(x,y)dx)dy=∫−∞+∞xfX(x)dx+∫−∞+∞yfY(y)dy=E(X)+E(Y)
-
导出性质:
-
E ( a X + b ) = a E ( X ) + b E(aX+b)=aE(X)+b E(aX+b)=aE(X)+b
-
E ( X ‾ ) = E ( X ) ‾ E(\overline{X})=\overline{E(X)} E(X)=E(X)
- 记 X ‾ = 1 n ∑ i = 1 n X i ; E ( X ‾ ) = 1 n E ( ∑ i = 1 n X i ) = 1 n ∑ i = 1 n E ( X i ) E ( X ) ‾ = 1 n ∑ i = 1 n E ( X i ) E ( X ‾ ) = E ( X ) ‾ 记\overline{X}=\frac{1}{n}\sum_{i=1}^{n}X_i; \\E(\overline{X}) =\frac{1}{n}E(\sum_{i=1}^{n}X_i)=\frac{1}{n}\sum_{i=1}^{n}E(X_i) \\ \overline{E(X)}=\frac{1}{n}\sum_{i=1}^{n}E(X_i) \\E(\overline{X})=\overline{E(X)} 记X=n1i=1∑nXi;E(X)=n1E(i=1∑nXi)=n1i=1∑nE(Xi)E(X)=n1i=1∑nE(Xi)E(X)=E(X)
-
-
-
X,Y不相关(或者相互独立)时
-
E ( X Y ) = E ( X ) E ( Y ) E(XY)=E(X)E(Y) E(XY)=E(X)E(Y)
-
记号说明
- ∫ − ∞ + ∞ ∫ − ∞ + ∞ ⇔ ∬ x ∈ R 2 \int_{-\infin}^{+\infin}\int_{-\infin}^{+\infin} \Leftrightarrow \iint\limits_{x\in{R^2}} ∫−∞+∞∫−∞+∞⇔x∈R2∬
-
由独立性 : f ( x , y ) = f X ( x ) f Y ( y ) E ( X Y ) = ∬ x ∈ R 2 x y f ( x , y ) d x = ∬ x ∈ R 2 x y f X ( x ) f Y ( y ) d x = ( ∫ − ∞ + ∞ x f ( x , y ) d x ) ( ∫ − ∞ + ∞ y f ( x , y ) d y ) = E ( X ) E ( Y ) 由独立性:f(x,y)=f_X(x)f_Y(y) \\E(XY)=\iint\limits_{x\in{R^2}}xyf(x,y)\mathrm{d}x =\iint\limits_{x\in{R^2}}xyf_X(x)f_Y(y)\mathrm{d}x \\= \left( \int_{-\infin}^{+\infin}{xf(x,y)}\mathrm{d}x \right) \left( \int_{-\infin}^{+\infin}{yf(x,y)}\mathrm{d}y \right) \\=E(X)E(Y) 由独立性:f(x,y)=fX(x)fY(y)E(XY)=x∈R2∬xyf(x,y)dx=x∈R2∬xyfX(x)fY(y)dx=(∫−∞+∞xf(x,y)dx)(∫−∞+∞yf(x,y)dy)=E(X)E(Y)
-
-
方差
-
D ( X ) = E ( ( X − E ( X ) ) 2 ) D(X)=E((X-E(X))^2) D(X)=E((X−E(X))2)
-
也就是二阶中心矩
-
X 的方差可以用 D ( x ) 或者 V a r ( X ) 表示 X的方差可以用D(x)或者Var(X)表示 X的方差可以用D(x)或者Var(X)表示
-
方差实际是有 X 的函数 g ( X ) 的期望 方差实际是有X的函数g(X)的期望 方差实际是有X的函数g(X)的期望
- Z = Z ( X ) = X − E ( X ) Z=Z(X)=X-E(X) Z=Z(X)=X−E(X)
- g ( X ) = ∣ Z ∣ 2 = ( X − μ X ) 2 g(X)=|Z|^2=(X-\mu_X)^2 g(X)=∣Z∣2=(X−μX)2
- D ( X ) = E ( g ( X ) ) D(X)=E(g(X)) D(X)=E(g(X))
-
方差和期望的联系
- 方差的大小反映的是
- 随机变量取值范围围绕其数学期望的离散程度
- Notes:
- D ( X ) ≠ g ( X ) = ( X − μ X ) 2 D(X)\neq{g(X)=(X-\mu_X)^2} D(X)=g(X)=(X−μX)2
- D ( X ) ≠ g ( X ) = ∣ X − E ( x ) ∣ \sqrt{D(X)}\neq\sqrt{g(X)}=|X-E(x)| D(X)=g(X)=∣X−E(x)∣
- D ( X ) = E ( g ( X ) ) D(X)=E(g(X)) D(X)=E(g(X))
- 较小的D(X)意味这着X的取值比较集中于 X μ = E ( X ) X_\mu=E(X) Xμ=E(X)附近
方差非负性
-
X
是随机变量
,
如果
D
(
X
)
=
E
(
(
X
−
E
(
X
)
)
2
)
存在
,
那么
D
为
X
的方差
X是随机变量,如果D(X)=E((X-E(X))^2)存在,那么D为X的方差
X是随机变量,如果D(X)=E((X−E(X))2)存在,那么D为X的方差
-
设
Z
=
X
−
E
(
X
)
设Z=X-E(X)
设Z=X−E(X)
- p i ⩾ 0 , 随机变量的取值 x i 或 f ( x ) = Z 2 = Z 2 ( X ) ⩾ 0 p_i\geqslant{0},随机变量的取值x_i或f(x)=Z^2=Z^2(X)\geqslant{0} pi⩾0,随机变量的取值xi或f(x)=Z2=Z2(X)⩾0即,观测值非负性和概率非负性可知
-
D
(
X
)
=
E
(
Z
2
)
⩾
0
D(X)=E(Z^2)\geqslant0
D(X)=E(Z2)⩾0
- 注意 D ( X ) ≠ Z = X − E ( X ) \sqrt{D(X)}\neq{Z=X-E(X)} D(X)=Z=X−E(X)
- 均方差/标准差: D ( X ) \sqrt{D(X)} D(X)
-
设
Z
=
X
−
E
(
X
)
设Z=X-E(X)
设Z=X−E(X)
计算公式
- 由方差的展开形式可知,方差属于随机变量函数的均值(上一节内容)
- 根据随机变量的方差计算公式,可以由抽象定义
-
D
(
X
)
=
E
(
Y
)
=
E
(
g
(
X
)
)
D(X)=E(Y)=E(g(X))
D(X)=E(Y)=E(g(X))
-
μ X = E ( X ) \mu_X=E(X) μX=E(X)视为常数🎈
-
Y = g ( X ) = ( X − E ( X ) ) 2 = ( X − μ X ) 2 Y=g(X)=(X-E(X))^2=(X-\mu_X)^2 Y=g(X)=(X−E(X))2=(X−μX)2
- g ( x ) = ( x − μ X ) 2 g(x)=(x-\mu_{X})^2 g(x)=(x−μX)2
- g ( x k ) = ( x k − μ X ) 2 g(x_k)=(x_k-\mu_{X})^2 g(xk)=(xk−μX)2
-
E ( ( X − E ( X ) ) 2 ) = E ( ( x k − μ X ) 2 ) E((X-E(X))^2)=E((x_k-\mu_X)^2) E((X−E(X))2)=E((xk−μX)2)
-
-
D
(
X
)
=
E
(
Y
)
=
E
(
g
(
X
)
)
D(X)=E(Y)=E(g(X))
D(X)=E(Y)=E(g(X))
离散型
-
D ( X ) = E ( g ( X ) ) = ∑ k = 1 ∞ g ( x k ) p k = ∑ k = 1 ∞ ( x k − μ X ) 2 p k D(X)=E(g(X))=\sum\limits_{k=1}^{\infin}g(x_k)p_k =\sum\limits_{k=1}^{\infin}(x_k-\mu_X)^2p_k D(X)=E(g(X))=k=1∑∞g(xk)pk=k=1∑∞(xk−μX)2pk
- D ( X ) ⩾ 0 D(X)\geqslant{0} D(X)⩾0
连续型
-
D ( X ) = E ( g ( X ) ) = ∫ − ∞ + ∞ g ( x ) f ( x ) d x = ∫ − ∞ + ∞ ( x − E ( X ) ) 2 f ( x ) d x = ∫ − ∞ + ∞ ( x − μ X ) 2 f ( x ) d x D(X)=E(g(X))=\int_{-\infin}^{+\infin}g(x)f(x)\mathrm{d}x \\=\int_{-\infin}^{+\infin}(x-E(X))^2f(x)\mathrm{d}x \\=\int_{-\infin}^{+\infin}(x-\mu_{X})^2f(x)\mathrm{d}x D(X)=E(g(X))=∫−∞+∞g(x)f(x)dx=∫−∞+∞(x−E(X))2f(x)dx=∫−∞+∞(x−μX)2f(x)dx
- D ( X ) ⩾ 0 D(X)\geqslant{0} D(X)⩾0
方差性质🎈🎈
基本性质
-
D ( X ) = E ( X 2 ) − E 2 ( X ) D(X)=E(X^2)-E^2(X) D(X)=E(X2)−E2(X)
- D ( X ) = E ( ( X − E ( X ) ) 2 ) = E ( ( X 2 − 2 X ⋅ E ( X ) + E 2 ( X ) ) ) = E ( X 2 ) − E ( 2 X E ( X ) ) + E ( E 2 ( X ) ) 令 G = E ( X ) ( 常数 ) D ( X ) = E ( X 2 ) − E ( 2 X G ) + E ( G 2 ) = E ( X 2 ) − 2 G E ( X ) + G 2 = E ( X 2 ) − 2 G G + G 2 = E ( X 2 ) − G 2 = E ( X 2 ) − E 2 ( X ) D(X)=E((X-E(X))^2) \\=E((X^2-2X\cdot E(X)+E^2(X))) \\=E(X^2)-E(2XE(X))+E(E^2(X)) \\令G=E(X)(常数) \\\\ D(X)=E(X^2)-E(2XG)+E(G^2) \\=E(X^2)-2GE(X)+G^2 \\=E(X^2)-2GG+G^2 \\=E(X^2)-G^2 \\=E(X^2)-E^2(X) D(X)=E((X−E(X))2)=E((X2−2X⋅E(X)+E2(X)))=E(X2)−E(2XE(X))+E(E2(X))令G=E(X)(常数)D(X)=E(X2)−E(2XG)+E(G2)=E(X2)−2GE(X)+G2=E(X2)−2GG+G2=E(X2)−G2=E(X2)−E2(X)
-
由于 D ( X ) ⩾ 0 由于D(X)\geqslant 0 由于D(X)⩾0
- E ( X 2 ) ⩾ E 2 ( X ) E(X^2)\geqslant{E^2(X)} E(X2)⩾E2(X)
导出性质
-
C 是常数 X , Y 是随机变量 C是常数 \\X,Y是随机变量 C是常数X,Y是随机变量
-
D ( C ) = 0 D(C)=0 D(C)=0
-
D ( a X + b ) = a 2 D ( X ) D(aX+b)=a^2D(X) D(aX+b)=a2D(X)
- D ( X ) = E ( ( X − E ( X ) ) 2 ) D ( a X + b ) = E ( ( a X + b − E ( a X + b ) ) 2 ) = E ( ( a X + b − ( a E ( X ) + E ( b ) ) 2 ) = E ( ( a X + b − ( a E ( X ) + b ) ) 2 ) = E ( ( a X + b − a E ( X ) − b ) 2 ) = E ( ( a X − a E ( X ) ) 2 ) = E ( ( a ( X − E ( X ) ) ) 2 ) = E ( a 2 ( X − E ( X ) ) 2 ) = a 2 E ( ( X − E ( X ) ) 2 ) = a 2 D ( X ) D(X)=E((X-E(X))^2) \\ D(aX+b)=E((aX+b-E(aX+b))^2) \\=E((aX+b-(aE(X)+E(b))^2) \\=E((aX+b-(aE(X)+b))^2) \\=E((aX+b-aE(X)-b)^2) \\=E((aX-aE(X))^2) \\=E((a(X-E(X)))^2) \\=E(a^2(X-E(X))^2) \\=a^2E((X-E(X))^2) \\=a^2D(X) D(X)=E((X−E(X))2)D(aX+b)=E((aX+b−E(aX+b))2)=E((aX+b−(aE(X)+E(b))2)=E((aX+b−(aE(X)+b))2)=E((aX+b−aE(X)−b)2)=E((aX−aE(X))2)=E((a(X−E(X)))2)=E(a2(X−E(X))2)=a2E((X−E(X))2)=a2D(X)
-
如果X,Y不相关(或独立)
- D ( X ± Y ) = D ( X ) ± D ( Y ) D(X\pm{Y})=D(X)\pm{D(Y)} D(X±Y)=D(X)±D(Y)
-
更一般的,有
- D ( X ± Y ) = D ( X ) + D ( Y ) ± 2 C o v ( X , Y ) D(X\pm{Y})=D(X)+D(Y)\pm2{Cov{(X,Y)}} D(X±Y)=D(X)+D(Y)±2Cov(X,Y)
-
方差和概率的关系:
-
D ( X ) = 0 的充要条件是 : D(X)=0的充要条件是: D(X)=0的充要条件是:
-
P ( X = E ( X ) ) = 1 P(X=E(X))=1 P(X=E(X))=1
- 或者说, P ( X ≠ E ( X ) ) = 0 P(X\neq{E(X)})=0 P(X=E(X))=0
-
X 以概率 1 取得常数 E ( X ) , 即 X 的取值只有 E ( X ) , 这样一来 , 保证没有点偏离 E ( X ) X以概率1取得常数E(X),即X的取值只有E(X),这样一来,保证没有点偏离E(X) X以概率1取得常数E(X),即X的取值只有E(X),这样一来,保证没有点偏离E(X)
-
充分性 : P ( X = E ( X ) ) = 1 ⇒ P ( X 2 = E 2 ( X ) ) = 1 设常数 E ( X ) = T ; 则 E 2 ( X ) = T 2 E ( X ) = ∑ i = 1 + ∞ x k p k = ∑ i = 1 + ∞ x k P ( X = x k ) Z = X 2 E ( X 2 ) = E ( Z ) = ∑ i = 1 + ∞ z k p k = ∑ i = 1 + ∞ z k P ( Z = z k ) = T 2 ⋅ P ( Z = T 2 ) = T 2 D ( X ) = E ( X 2 ) − E 2 ( X ) = T 2 − T 2 = 0 充分性: \\P(X=E(X))=1 \Rightarrow P(X^2=E^2(X))=1 \\设常数E(X)=T;则E^2(X)=T^2 \\E(X)=\sum\limits_{i=1}^{+\infin}x_kp_k =\sum\limits_{i=1}^{+\infin}x_kP(X=x_k) \\ Z=X^2 \\ E(X^2)=E(Z)=\sum\limits_{i=1}^{+\infin}z_kp_k =\sum\limits_{i=1}^{+\infin}z_kP(Z=z_k) \\=T^2\cdot P(Z=T^2)=T^2 \\ D(X)=E(X^2)-E^2(X)=T^2-T^2=0 充分性:P(X=E(X))=1⇒P(X2=E2(X))=1设常数E(X)=T;则E2(X)=T2E(X)=i=1∑+∞xkpk=i=1∑+∞xkP(X=xk)Z=X2E(X2)=E(Z)=i=1∑+∞zkpk=i=1∑+∞zkP(Z=zk)=T2⋅P(Z=T2)=T2D(X)=E(X2)−E2(X)=T2−T2=0
-
-
-
标准差
- 标准差,又称标准偏差、均方差 (英语:standard deviation,缩写SD,符号σ),在概率统计中最常使用作为测量一组数值的离散程度之用。
- 标准差定义:为方差开算术平方根,反映组内个体间的离散程度;
- 标准差与期望值之比为标准离差率。测量到分布程度的结果,原则上具有两种性质:
- 为非负数值(因为平方后再做平方根);
- 与测量资料具有相同单位(这样才能比对)。
- 一个总量的标准差或一个随机变量的标准差,及一个子集合样品数的标准差之间,有所差别。
标准差的概念由卡尔·皮尔逊引入到统计中。
基本定义🎈
-
σ = 1 N ∑ i = 1 N ( x i − x ‾ ) 2 {\displaystyle \sigma ={\sqrt {{\frac {1}{N}}\sum _{i=1}^{N}(x_{i}-{\overline {x}})^{2}}}} σ=N1i=1∑N(xi−x)2
-
x ‾ {\overline {x}} x为平均值。
简化计算公式🎈
-
上述公式可以如下代换而简化:
-
方差公式变形
-
$$
\begin{align}
\sum_{i=1}^N (X_i - \mu)^2 & = {} \sum_{i=1}^N (X_i^2 - 2 X_i\mu + \mu^2) \& {} = \left(\sum_{i=1}^N X_i^2\right) - \left(2 \mu \sum_{i=1}^N X_i\right) + N\mu^2 \
& {} = \left(\sum_{i=1}^N X_i^2\right) - 2 \mu (N\mu) + N\mu^2 \
& {} = \left(\sum_{i=1}^N X_i^2\right) - 2N\mu^2 + N\mu^2 \
& {} = \left(\sum_{i=1}^N X_i^2\right) - N\mu^2
\end{align}
$$
-
-
所以:
- σ = 1 N ∑ i = 1 N ( X i − μ ) 2 = 1 N ( ∑ i = 1 N X i 2 ) − 1 N N μ 2 = ∑ i = 1 N X i 2 N − μ 2 {\displaystyle {\begin{aligned}\sigma &={\sqrt {{\frac {1}{N}}\sum _{i=1}^{N}(X_{i}-\mu )^{2}}}\\ &={\sqrt {{\frac {1}{N}}\left(\sum _{i=1}^{N}X_{i}^{2}\right)-{\frac {1}{N}}N\mu ^{2}}}\\ &={\sqrt {{\frac {\sum _{i=1}^{N}X_{i}^{2}}{N}}-\mu ^{2}}}\end{aligned}}} σ=N1i=1∑N(Xi−μ)2=N1(i=1∑NXi2)−N1Nμ2=N∑i=1NXi2−μ2
-
根号里面,亦即方差( σ 2 \sigma^2 σ2)的简易口诀为:“平方和的平均”减去“平均的平方”。
总体为随机变量🎈
- 一随机变量
X
X
X的标准差定义为:
- σ = E ( ( X − E ( X ) ) 2 ) = E ( X 2 ) − ( E ( X ) ) 2 \sigma = \sqrt{\operatorname{E}((X-\operatorname{E}(X))^2)} = \sqrt{\operatorname{E}(X^2) - (\operatorname{E}(X))^2} σ=E((X−E(X))2)=E(X2)−(E(X))2
- 须注意并非所有随机变量都具有标准差,因为有些随机变量不存在期望值。 如果随机变量 X X X为 x 1 , ⋯ , x n x_1, \cdots, x_n x1,⋯,xn具有相同概率,则可用上述公式计算标准差。
样本的标准差🎈
- 在真实世界中,找到一个总体的真实的标准差并不实际。大多数情况下,总体标准差是通过随机抽取一定量的样本并计算样本标准差估计的。
- 从一大组数值
X
1
,
⋯
,
X
N
X_1, \cdots, X_N
X1,⋯,XN当中取出一样本数值组合
x
1
,
⋯
,
x
n
:
n
<
N
x_1, \cdots, x_n : n < N
x1,⋯,xn:n<N,常定义其样本标准差:
- s = 1 n − 1 ∑ i = 1 n ( x i − x ˉ ) 2 s = \sqrt{\frac{1}{n-1} \sum_{i=1}^n (x_i - \bar{x})^2} s=n−11∑i=1n(xi−xˉ)2
- 样本方差 s 2 s^2 s2是对总体方差 σ 2 \sigma^2 σ2的无偏估计。
- 之所以 s s s中的分母要用 n − 1 n-1 n−1而不是像总体样本差那样用 n n n,是因为 ( x i − x ˉ ) \left( x_i - \bar{x} \right) (xi−xˉ)的自由度为 n − 1 n-1 n−1,这是由于存在约束条件 ∑ i = 1 n ( x i − x ˉ ) = 0 \sum_{i=1}^{n}\left(x_i - \bar{x}\right) = 0 ∑i=1n(xi−xˉ)=0。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 记一次.NET内存居高不下排查解决与启示
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
2021-10-29 windows terminal使用指南/窗格布局指令/参考文档/指令快捷键配置