2018年存在我手机里的这2张图片
图片来自这篇博客
图片
一些概念
偏度
皮尔逊偏度系数把偏度定义为
\[\tilde{\mu}_{3}=\mathrm{E}\left[\left(\frac{X-\mu}{\sigma}\right)^{3}\right]=\frac{\mu_{3}}{\sigma^{3}}=\frac{\mathrm{E}\left[(X-\mu)^{3}\right]}{\left(\mathrm{E}\left[(X-\mu)^{2}\right]\right)^{3 / 2}}=\frac{\kappa_{3}}{\kappa_{2}^{3 / 2}}
\]
其中\(\kappa_i\)是累积量
Skewness indicates the direction and relative magnitude of a distribution's deviation from the normal distribution.
PDF曲线面积一半对应的位置
众数 mode
PDF曲线最大值对应的位置
峰度
皮尔逊峰度系数把峰度(kurtosis)定义为
\[\operatorname{Kurt}[X]=\mathrm{E}\left[\left(\frac{X-\mu}{\sigma}\right)^{4}\right]=\frac{\mathrm{E}\left[(X-\mu)^{4}\right]}{\left(\mathrm{E}\left[(X-\mu)^{2}\right]\right)^{2}}=\frac{\mu_{4}}{\sigma^{4}}
\]
峰度是描述总体中所有取值分布形态陡缓程度的统计量。 这个统计量需要与正态分布相比较,峰度为3表示该总体数据分布与正态分布的陡缓程度相同;峰度大于3表示该总体数据分布与正态分布相比较为陡峭,为尖顶峰;峰度小于3表示该总体数据分布与正态分布相比较为平坦,为平顶峰。
信息熵
连续分布 (应该叫做差熵)
\[h(X)=-\int p(x)\text{log}(p(x))dx
\]
离散分布
\[H(X)=-\sum\limits_{i}[p_i(x)\text{log}(p_i(x))]
\]
PDF
probability density function概率密度函数\(f(x)\)
或者叫 probability mass function
CDF
累计分布函数 cumulative distribution function
\[F(x)=P(X\leq x )
\]
the survivor function
\[S(x)=P(X\geq x)
\]
the hazard function
\[h(x)=\frac{f(x)}{S(x)}
\]
the cumulative hazard funciton
符号别和信息熵弄混了。。。
\[H(x)=-\ln S(x)
\]
the moment generating function矩生成函数 MGF
随机变量\(X\)的矩生成函数定义为
\[M(t)=E[e^{tX}]
\]
矩生成函数可用于计算分布的矩:
\[\begin{aligned}
M_{X}(t)=\mathrm{E}\left(e^{t X}\right) &=1+t \mathrm{E}(X)+\frac{t^{2} \mathrm{E}\left(X^{2}\right)}{2 !}+\frac{t^{3} \mathrm{E}\left(X^{3}\right)}{3 !}+\cdots+\frac{t^{n} \mathrm{E}\left(X^{n}\right)}{n !}+\cdots \\
&=1+t m_{1}+\frac{t^{2} m_{2}}{2 !}+\frac{t^{3} m_{3}}{3 !}+\cdots+\frac{t^{n} m_{n}}{n !}+\cdots
\end{aligned}
\]
the characteristic function特征函数 CF
随机变量\(X\)的特征函数定义为
\[\Phi(t)=E[e^{jtX}]
\]
在概率论和统计学中,任何实值随机变量的特征函数完全定义了其概率分布。
\[\left\{\begin{array}{l}
\varphi_{X}: \mathbb{R} \rightarrow \mathbb{C} \\
\varphi_{X}(t)=\mathrm{E}\left[e^{i t X}\right]=\int_{\mathbb{R}} e^{i t x} d F_{X}(x)=\int_{\mathbb{R}} e^{i t x} f_{X}(x) d x
\end{array}\right.
\]
\[f_{X}(x)=\frac{1}{2\pi}\int_{\mathbb{R}}\varphi_X(t)e^{-jtx}dt
\]
利用随机变量X的特征函数CF求X的k阶矩
\[\mathrm{E}\left[X^{k}\right]=i^{-k} \varphi_{X}^{(k)}(0)
\]
\[\mathrm{E}\left[X^{1}\right]=i^{-1} \varphi_{X}^{(1)}(0)=-j \varphi_{X}^{(1)}(0)
\]
\[\mathrm{E}\left[X^{2}\right]=i^{-2} \varphi_{X}^{(2)}(0)=-\varphi_{X}^{(2)}(0)
\]
例子
这个积分建议背一下
\[\int\limits_{-\infty}^{\infty} e^{i t x} \frac{1}{\sqrt{2\pi}\sigma} e^{-\frac{(x-\mu)^2}{2\sigma^2}} d x=e^{i t \mu-\frac{1}{2} \sigma^{2} t^{2}}
\]
inverse distribution
逆分布是随机变量的倒数服从的分布
让随机变量\(Y=\frac{1}{X}\)
\[G(y)=\operatorname{Pr}(Y \leq y)=\operatorname{Pr}\left(X \geq \frac{1}{y}\right)=1-\operatorname{Pr}\left(X<\frac{1}{y}\right)=1-F\left(\frac{1}{y}\right)
\]
式子两边再对\(y\)求导
\[g(y)=\frac{1}{y^{2}} f\left(\frac{1}{y}\right)
\]
正交、不相关、独立
首先拿随机变量举例子
从上往下分别是:正交、不相关、独立
\[E[XY]=0\\
Cov[X,Y]=E[XY]-E[X]E[Y]=0\quad \text{i.e.} \quad \rho_{XY}=\frac{Cov[X,Y]}{\sigma_X\sigma_Y}=0\\
p_{XY}(x,y)=p_X(x)p_Y(y)
\]
下面拿随机过程为例子
常见的概率分布总结及它们间的联系
http://www.math.wm.edu/~leemis/chart/UDR/UDR.html
APPL: A Probability Programming Language
http://www.math.wm.edu/~leemis/2001amstat.pdf
http://mtholyoke.edu/~mpeterso/classes/math342/appl.html