0 引子(信号基础)
0.1 信号与系统的分类
信号有多种分类方式:① 能量信号 VS
功率信号;② 低通信号 VS
带通信号;③ 周期信号 VS
非周期信号 等等。
能量信号是指能力有限的信号,无需考虑功率;功率信号是能量无限,但是功率有限的信号;周期信号、准周期信号和随机信号,由于时间无限,所以总是功率信号。
能量信号与功率信号简介
在时间\((t_1, t_2)\)区间内,电流或者电压信号\(x(t)\)在\(1 \Omega\)电阻上消耗的平均功率\(P\)为:
\[P = \dfrac{1}{t_2-t_1}\int_{t_1}^{t_2} |x(t)|^2 \text{ d}t
\]
当且仅当信号的功率有限时,\(x(t)\)被称为时间间隔\(T = t_2-t_1\)上的功率信号,并且满足下式:
\[0 < \lim_{T \to \infty} \dfrac{1}{T} \int_{-T/2}^{T/2} |x(t)|^2 \text{ d}t < \infty
\]
根据帕塞瓦尔定理,在时间\((t_1, t_2)\)区间内,电流或电压信号\(x(t)\)在\(1 \Omega\)电阻上的能量\(E\)为:
\[E = \int_{t_1}^{t_2} |x(t)|^2 \text{ d}t
\]
当且仅当信号的能量有限时,\(x(t)\)被称为能量信号,即满足:
\[E = \int_{-\infty}^{\infty} |x(t)|^2 \text{ d}t < \infty
\]
周期信号简介
当且仅当信号满足下式时,可称其为具有周期\(T\)的周期信号:
\[x(t) = x(t + nT) \quad \forall t(n \in \mathbb{Z})
\]
0.2 傅里叶变换(FT)
若信号\(x(t)\)绝对可积(能量有限),则其傅里叶变换为:
\[X(\omega) = \text{FT}\{x(t)\} = \int_{-\infty}^{\infty} x(t) \mathrm e^{-\mathrm j \omega t} \text{ d}t
\]
对应的逆傅里叶变换为:
\[x(t) = \text{IFT}\{X(\omega)\} = \dfrac{1}{2\pi} \int_{-\infty}^{\infty} X(\omega)\mathrm e^{\mathrm j \omega t} \text{ d}\omega
\]
傅里叶变换的13条常用性质(这里略,用的时候查手册)。
0.3 傅里叶级数(FS)
令信号\(x(t)\)是周期为\(T\)的周期信号,并且令完备正交函数集合\(\mathbb S\)为:
\[\mathbb S = \exp\left(\dfrac{\mathrm j 2\pi nt}{T}\right) \quad n \in \mathbb Z
\]
那么,\(x(t)\)的复指数傅里叶级数为:
\[x(t) = \sum_{n=-\infty}^{\infty} X_n \exp\left(\dfrac{\mathrm j 2\pi nt}{T}\right)
\]
其中,傅里叶级数的系数为:
\[X_n = \dfrac{1}{T}\int_{-T/2}^{T/2} x(t)\exp\left(\dfrac{-\mathrm j 2\pi nt}{T}\right) \text{ d}t
\]
上式的FT为:
\[X(\omega) = 2\pi\sum_{n=-\infty}^{\infty} X_n \delta\left(\omega - \dfrac{2\pi n}{T}\right)
\]
0.4 卷积和相关积分
信号\(x(t)\)和\(h(t)\)的卷积\(\phi_{xh}(t)\)定义为:
\[\phi_{xh}(t) = x(t) \otimes h(t) = \int_{-\infty}^{\infty} x(\tau) h(t-\tau) \text{ d}t
\]
其中,\(\tau\)是虚拟变量,算子\(\otimes\)是卷积积分的符号描述。卷积具有交换律、结合律和分配律。
卷积积分值有限,要求这两个信号中至少有一个是能量有限信号。两个信号的卷积可采用傅里叶变换计算,即时域卷积\(\quad \Longleftrightarrow \quad\)频域相乘。
假定一个冲激响应为\(h(t)\),输人信号为\(x(t)\)的LTI系统,其输出信号等于输入信号与系统冲激响应的卷积:
\[y(t) = \int_{-\infty}^{\infty} x(\tau) h(t-\tau) \text{ d}\tau = \int_{-\infty}^{\infty} h(\tau) x(t-\tau) \text{ d}\tau
\]
信号\(x(t)\)与\(g(t)\)的互相关函数定义为:
\[R_{xg}(t) = \int_{-\infty}^{\infty} x^*(\tau)g(t+\tau) \text{ d}\tau
\]
同样,相关积分值有限要求这两个信号中至少有一个是能量有限信号。互相关积分函数可用来测量两个信号的相似性。\(R_{xg}(t)\)的峰值及其展宽表示两个信号的相似程度。互相关积分同样可以利用FT来计算。
当\(x(t) = g(t)\)时,得到自相关积分:
\[R_{x}(t) = \int_{-\infty}^{\infty} x^*(\tau)x(t+\tau) \text{ d}\tau
\]
注意自相关函数通常定义为\(R_x(t)\)而不是\(R_{xx}(t)\)。当信号\(x(t)\)和\(g(t)\)是功率信号时,分结果是无限的,必须引入时间平均,也就是说:
\[\bar{R}_{xg}(t) = \lim_{T \to \infty} \dfrac{1}{T}\int_{-T/2}^{T/2} x(\tau) g(t+\tau) \text{ d}\tau
\]
0.5 能量和功率谱密度
对于能量有限信号\(x(t)\),根据帕塞瓦尔定理,信号的总能量为:
\[E = \int_{-\infty}^{\infty}|x(t)|^2 \text{ d}t = \dfrac{1}{2\pi}\int_{-\infty}^{\infty}|X(\omega)|^2 \text{ d}\omega
\]
当\(x(t)\)为电压信号时,在电阻网络\(R\)上信号所消耗的能量值为:
\[E = \dfrac{1}{R}\int_{-\infty}^{\infty}|x(t)|^2 \text{ d}t = \dfrac{1}{2\pi R}\int_{-\infty}^{\infty}|X(\omega)|^2 \text{ d}\omega
\]
反之,当\(x(t)\)为电流信号时,信号所消耗的能量值为:
\[E = R\int_{-\infty}^{\infty}|x(t)|^2 \text{ d}t = \dfrac{R}{2\pi}\int_{-\infty}^{\infty}|X(\omega)|^2 \text{ d}\omega
\]
其中,\(\displaystyle\int|X(\omega)|^2 \text{ d}\omega\)代表单位频率信号在1\(\omega\)电阻上所消耗的能量分布。所以,能量有限信号\(x(t)\)的能量谱密度ESD函数定义为:
\[ESD = |X(\omega)|^2
\]
当输人信号为\(x(t)\)时,LTI系统输出的ESD为:
\[|Y(\omega)|^2 = |X(\omega)|^2 |H(\omega)|^2
\]
其中,\(H(\omega)\)为系统冲激响应\(h(t)\)的傅里叶变换。系统输出的能量为:
\[E_y = \dfrac{1}{2\pi}\int_{-\infty}^{\infty}|X(\omega)|^2 |H(\omega)|^2 \text{ d}\omega
\]
功率有限信号\(g(t)\)的总功率为:
\[P = \lim_{T \to \infty} \dfrac{1}{T}\int_{-T/2}^{T/2}|g(t)|^2 \text{ d}t
\]
定义信号\(g(t)\)的功率谱密度(PSD)函数为\(S_g(\omega)\),其中:
\[P = \lim_{T \to \infty} \dfrac{1}{T}\int_{-T/2}^{T/2}|g(t)|^2 \text{ d}t = \dfrac{1}{2\pi}\int_{-\infty}^{\infty} S_g(\omega) \text{ d}\omega
\]
可以看出:
\[S_g(\omega) = \lim_{T \to \infty} \dfrac{|G(\omega)|^2}{T}
\]
令信号\(x(t)\)与\(g(t)\)是周期为\(T\)的两个周期信号。这两个信号的复指数博里叶级数展开分别为:
\[x(t) = \sum_{n=-\infty}^{\infty}X_n \exp\left(\dfrac{\mathrm j 2\pi nt}{T}\right) \qquad g(t) = \sum_{n=-\infty}^{\infty}G_m \exp\left(\dfrac{\mathrm j 2\pi mt}{T}\right)
\]
功率互相关函数\(\bar{R}_{gx}(t)\)可重写为:
\[\bar{R}_{gx}(t) = \dfrac{1}{T}\int_{-T/2}^{T/2} g^*(\tau) x(t+\tau) \text{d }\tau
\]
注意,因为这两个信号都是周期性的,所以积分限是不必要的。将\(x(t)\)和\(g(t)\)的展开式代入上式,合并同类项并且使用正交定义,得到:
\[\bar{R}_{gx}(t) = \sum_{n=-\infty}^{\infty}G_n^* X_n \exp\left(\dfrac{\mathrm j 2\pi nt}{T}\right)
\]
当\(x(t)=g(t)\)时,上式变为功率自相关函数,即:
\[\bar{R}_x(t) = \sum_{n=-\infty}^{\infty}|X_n|^2 \exp\left(\dfrac{\mathrm j 2\pi nt}{T}\right) = |X_0|^2 + 2\sum_{n=1}^{\infty}|X_n|^2 \exp\left(\dfrac{\mathrm j 2\pi nt}{T}\right)
\]
功率谱和互功率谱密度函数可分别由上两式的傅里叶变换计算,即:
\[\begin{gathered}
\bar{S}_x(\omega)=2 \pi \sum_{n=-\infty}^{\infty}\left|X_n\right|^2 \delta\left(\omega-\frac{2 n \pi}{T}\right) \\
\bar{S}_{g x}(\omega)=2 \pi \sum_{n=-\infty}^{\infty} G_n^* X_n \delta\left(\omega-\frac{2 n \pi}{T}\right)
\end{gathered}
\]
线(离散)功率谱定义为\(|X_n|^2\)关于\(n\)的图形,其中线的间隔为\(\Delta f = \dfrac{1}{T}\)。直流功率为\(|X_0|^2\),总功率为\(\sum\limits_{n=-\infty}^{\infty}|X_n|^2\)。
0.6 随机变量
假定一个实验,其输出结果由一个样本空间定义。将样本空间中的每个点映射为一个实数的规则或函数关系称为“随机变量”。随机变量用大写字母表示(如\(X, Y, \cdots\)),随机变量的特定取值用小写字母表示(如\(x, y, \cdots\))。
随机变量\(X\)的累积分布函数(cdf)表示为\(F(x)\),表示随机变量小于或等于数值\(x\)的总概率:
\[F_{X}(x) = P(X \leq x)
\]
实际应用中通常用累积分布函数的导数描述随机变量,称为概率密度函数(pdf)。随机变量\(X\)的概率密度函数为:
\[f_X(x) = \dfrac{\mathrm d}{\mathrm d x}F_X(x)
\]
定义随机变量\(X\)的\(n\)阶矩为:
\[E[X^n] = \int_{-\infty}^{\infty} x^n f_X(x) \text{ d}x
\]
一阶矩\(E[X]\)称为均值,而二阶矩\(E[X]\)称为均方值。当随机变量表示加在\(1\Omega\)电阻上的电信号时,\(E[X]\)代表直流分量,而\(E[X]\)表示总的平均功率。
第\(n\)阶中心矩定义为:
\[E[(X - E[X])^n] = \int_{-\infty}^{\infty} (x - \bar{x})^n f_X(x) \text{ d}x
\]
因此一阶中心矩为0,二阶中心矩称为方差,用符号\(\sigma_x^2\)表示。
多维随机变量
在实际中,电信号的随机特性可能需要多个随机变量来描述。在这种情况下需要考虑变量的联合累积分布函数和概率密度函数。两个随机变量\(X\)和\(Y\)的联合cdf和pdf分别定义为:
\[\begin{gathered}
F_{XY}(x, y) = P(X \leq x, Y \leq y) \\
f_{XY}(x, y) = \dfrac{\partial^2}{\partial x \partial y}F_{XY}(x, y)
\end{gathered}
\]
由此可得边缘分布函数的表达式如下:
\[\begin{aligned}
& F_X(x)=\int_{-\infty}^{\infty} \int_{-\infty}^x f_{U V}(u, v) \mathrm{d} u \mathrm{~d} v=F_{X Y}(x, \infty) \\
& F_Y(y)=\int_{-\infty}^{\infty} \int_{-\infty}^y f_{U V}(u, v) \mathrm{d} v \mathrm{~d} u=F_{X Y}(\infty, y)
\end{aligned}
\]
现在考虑两个随机变量\(X\)和\(Y\),通过一些变换\(T_1\)和\(T_2\)分别映射为两个新的变量\(U\)和\(V\)的情况,即:
\[\begin{aligned}
& U = T_1(X, Y) \\
& V = T_2(X, Y)
\end{aligned}
\]
联合概率密度函数\(f_{UV}(u,v)\)可以基于变换的概率不变性计算得到。必须首先计算导数矩阵然后计算新的联合pdf,即:
\[\begin{aligned}
& f_{UV}(u, v) = f_{XY}(x, y)|J| \\
& |J| = \left|\begin{array}{ll}
\dfrac{\partial x}{\partial u} & \dfrac{\partial x}{\partial v} \\
\dfrac{\partial y}{\partial u} & \dfrac{\partial y}{\partial v}
\end{array}\right|
\end{aligned}
\]
其中,导数矩阵的行列式\(|J|\)称为雅可比行列式。
随机变量\(X\)的特征函数定义为:
\[C_X(\omega) = E[\mathrm e^{\mathrm j \omega X}] = \int_{-\infty}^{\infty} f_X(x) \mathrm e^{\mathrm j \omega x} \text{ d}x
\]
关于特征函数的性质和应用可以通过网络进行进一步了解。
0.7 多元高斯分布
考虑\(m\)个随机变量:\(X_1, X_2, \cdots, X_m\)的联合概率密度函数,这些变量可视为一个\(m \times 1\)的随机列向量\(\underline{X}\)的元素,表示为:
\[\underline{X} = [X_1, X_2, \cdots, X_m]^{\mathrm T}
\]
则向量\(\underline{X}\)的联合pdf为:
\[f_{\underline{X}}(\underline{x}) = f_{X_1, X_2, \cdots, X_m}(x_1, x_2, \cdots, x_m)
\]
相应的均值向量和协方差矩阵定义为:
\[\begin{aligned}
& \mu_{\underline{X}} = \left[E[X_1], E[X_2], \cdots, E[X_m]\right]^{\mathrm T} \\
& C_{\underline{X}} = E[{\underline{X}}{\underline{X}}^\mathrm T] - \mu_{\underline{X}} \mu_{\underline{X}}^{\mathrm T}
\end{aligned}
\]
注意如果向量\(\underline{X}\)的元素是独立的,则协方差矩阵是对角线矩阵。
根据定义,随机向量\(\underline X\)是多元高斯分布的,如果其概率密度函数具有下面的形式:
\[f_{\underline{X}}(\underline{x}) = \frac{1}{\sqrt{(2 \pi)^m|\mathbf{C_{\underline{X}}}|}} \exp\left(-\frac{1}{2}(\boldsymbol{\underline{x}}-\boldsymbol{\mu_{\underline{X}}})^{\mathrm{T}} \boldsymbol{C_{\underline{X}} }^{-1}(\boldsymbol{\underline{x}}-\boldsymbol{\mu_{\underline{X}}})\right)
\]
其中,\(\mu_{\underline{X}}\)为均值向量,\(C_{\underline{X}}\)是协方差矩阵,\(\underline X\)的维数是\(m\)。如果\(\boldsymbol A\)是秩为\(k\)的\(k \times m\)矩阵则随机向量\(\underline Y = \boldsymbol A \underline{X}\)是\(k\)元高斯向量且:
\[\begin{aligned}
& \mu_{\underline{Y}} = \boldsymbol A \mu_{\underline X} \\
& C_{\underline{Y}} = \boldsymbol A C_{\underline{X}} \boldsymbol A^{\mathrm T}
\end{aligned}
\]
多元高斯pdf的特征函数定义为:
\[\begin{aligned}
C_{\underline X}&=E\left[\exp \left\{\mathrm{j}\left(\omega_1 X_1+\omega_2 X_2+\ldots+\omega_m X_m\right)\right\}\right] \\
&=\exp \left\{\mathrm{j} \mu_{\underline X}^{\mathrm{T}} \underline{\omega}-\frac{1}{2} \underline{\omega}^{\mathrm{T}} C_{\underline{X}} \underline{\omega}\right\}
\end{aligned}
\]
0.8 随机过程
根据定义,随机变量\(X\)是一个随机实验所有可能的结果到数值的映射。当随机变量不仅是实验结果还是时间的函数时,称为随机过程,表示为\(X(t)\)。与随机变量情况的单个实数相比,可以将随机过程视为某个随机实验结果的时域函数的集合。
因为随机过程的cdf与pd是与时间有关的,故可分别表述为\(F_X(x;t)\)和\(f_X(x;t)\)。随机过程\(X(t)\)的\(n\)阶矩为:
\[E[X^n(t)] = \int_{-\infty}^{\infty} x^n f_X(x;t) \text{ d}x
\]
随机过程\(X(t)\)称为是一阶平稳的,如果其所有的统计特性都不随时间变化的话。因此\(E[X(t)]=\bar X\),其中\(\bar X\)为不随时间变化的常数。随机过程\(X(t)\)是二阶平稳(或广义平稳)的,如果满足:
\[f_X(x_1, x_2; t_1, t_2) = f_X(x_1, x_2; t_1+\Delta t, t_2+\Delta)
\]
定义随机过程\(X(t)\)的统计自相关函数为:
\[R_X(t_1, t_2) = E[X(t_1)X(t_2)]
\]
相关\(E[X(t_1)X(t_2)]\)通常是\((t_1,t_2)\)的函数。根据广义平稳的定义,随机过程的自相关函数依赖于时间差\(\tau = t_2-t_1\),而不是绝对时间。所以,对于广义平稳随机过程有:
\[\begin{aligned}
& E[X(t)] = \bar{X} \\
& R_X(\tau) = E[X(t)X(t+\tau)]
\end{aligned}
\]
如果时间平均和时间相关函数等于统计平均和统计相关函数,则随机过程被称为各态历经的随机过程,各态历经的随机过程满足:
\[\begin{aligned}
& \lim _{T \rightarrow \infty} \frac{1}{T} \int_{-T / 2}^{T / 2} x(t) \mathrm{d} t=E[X(t)]=\bar{X} \\
& \lim _{T \rightarrow \infty} \frac{1}{T} \int_{-T / 2}^{T / 2} x^*(t) x(t+\tau) \mathrm{d} t=R_X(\tau)
\end{aligned}
\]
两个随机过程\(X(t)\)和\(Y(t)\)的协方差定义为:
\[C_{XY}(t, t+\tau) = E\left[(X(t) - E[X(t)])(Y(t+\tau) - E[Y(t+\tau)])\right]
\]
0.9 采样定理
0.10 Z变换
Z变换是一种将离散时域序列映射到一种称为z域的新域中的变换,它是这样定义的:
\[X(z) = \text{ZT}\{x(n)\} = \sum_{n = -\infty}^{\infty} x(n) z^{-n} = \sum_{n = -\infty}^{\infty} x(n) \mathrm e^{-\mathrm j n \omega}
\]
在z域中,\(X(z)\)是有限值的区域称为收敛域(ROC)。
通常离散LTI系统的传输函数\(H(z)\)描述了系统如何对输人序列\(x(n)\)进行操作以得到输出序列\(y(n)\)。输出序列\(y(n)\)通过序列\(x(n)\)和\(h(n)\)的离散卷积计算:
\[y(n) = \sum_{m=-\infty}^{\infty} x(m)h(n-m)
\]
然而由于实际系统要求序列\(x(n)\)是有限长度的,所以可将上式重写为:
\[y(n) = \sum_{m=0}^{N} x(m)h(n-m)
\]
其中\(N\)表示输入序列的长度。对进行z变换得到:
\[Y(z) = X(z)H(z)
\]
离散系统的传输函数为:
\[H(z) = \dfrac{Y(z)}{X(z)} \quad \Longrightarrow \quad H(z)|_{z = e^{j\omega}} = |H(\mathrm e^{\mathrm j \omega})|\mathrm e^{\angle H(\mathrm e^{\mathrm j \omega})}
\]
其中,\(|H(\mathrm e^{\mathrm j \omega})|\)为幅度响应,\(\angle H(\mathrm e^{\mathrm j \omega})\)为相位响应。
0.11 离散傅里叶变换DFT
0.12 离散功率谱
实际离散系统采用有限长度DFT作为傅里叶变换的一种数值近似,因此输人信号在被采样之前必须截取一段有限区间(如\(T\))。在信号处理之前产生一个有限长度的序列是必要的遗憾的是,这种截取处理可能引起一些严重的问题。
0.13 加窗技术
对序列\(x(n)\)的截取可以通过如下乘积的方式完成:
\[x_w(n) = x(n)w(n)
\]
其中,\(w(n)=\left\{\begin{array}{cl}
f(n) & n=0,1, \cdots, N-1 \\
0 & \text { 其他 }
\end{array}\right.\),其中\(f(n) \leq 1\),有限长序列\(w(n)\)称为窗函数序列或简称窗。加窗处理不应影响被截取序列的相位响应,所以窗序列\(w(n)\)要求必须具有线性相位。这一点可通过令窗函数关于中心点对称来实现。
1 信号检测与估计
信号的统计检测理论:统计信号处理的理论基础之一
主要研究在受噪声干扰的随机信号中,信号的有/无或信号属于哪个状态的最佳判决的概念、方法和性能等问题。其数学基础 —— 统计判决理论。
1.1 贝叶斯检测
1.1.1 贝叶斯准则的基本思路
-
① 根据给定的代价计算平均代价;
-
② 按照平均代价最小划分观察空间,得到判决准则;
-
③ 对判决表达式进行化简。
贝叶斯判决准则表达式:
\[\dfrac{p(\boldsymbol x \big| H_1)}{p(\boldsymbol x \big| H_0)} \quad {\mathop \gtrless \limits_{H_0}^{H_1}} \quad \dfrac{P(H_{0})(c_{10}-c_{00})}{P(H_{1})(c_{01}-c_{11})} \quad \Longleftrightarrow \quad \lambda(\boldsymbol x) {\mathop \gtrless \limits_{H_0}^{H_1}} \eta
\]
其中,\(\lambda(\boldsymbol x) \xlongequal[]{\text{def}} \dfrac{p(\boldsymbol x \big| H_1)}{p(\boldsymbol x \big| H_0)}\)是似然比函数,观测信号 \(\boldsymbol x \in \mathbb{R}^n\),\(\eta \xlongequal[]{\text{def}} \dfrac{P(H_{0})(c_{10}-c_{00})}{P(H_{1})(c_{01}-c_{11})}\)是判决门限,\(P(H_0)\)和\(P(H_1)\)是先验概率,\(\dfrac{(c_{10}-c_{00})}{(c_{01}-c_{11})}\)是代价因子???。
\(\lambda(\boldsymbol x)\)是一维随机变量r.v.
,又被称为检验统计量,它不依赖于假设的先验概率,也与代价因子无关,适用于不同先验概率和不同代价因子的最佳信号检测。
利用贝叶斯判决准则进行检测的基本步骤:
下面是一个二元信号检测系统原理框图。
1.1.2 贝叶斯检测性能分析
计算基本原则:根据化简后的最简判决表示式进行计算。
计算步骤:
\[P(H_1 \big| H_1) = \int_{\gamma}^{\infty} p(l(\boldsymbol x) \big| H_1) \text{ d}l \qquad P(H_1 \big| H_0) = \int_{\gamma}^{\infty} p(l(\boldsymbol x) \big| H_0) \text{ d}l(\boldsymbol x)
\]
其中,记检测概率\(P_{\mathrm D} = P(H_1 \big| H_1)\),虚警概率\(P_{\mathrm{FA}} = P(H_1 \big| H_0)\)。
若\(l(\boldsymbol x)\)服从高斯分布,则检测概率\(P_{\mathrm D}\)和虚警概率\(P_{\mathrm{FA}}\)均是\(Q\)函数的形式。
1.1.3 贝叶斯及派生检测准则
贝叶斯检测,给定各种判决代价因子,且已知各假设的先验概率条件下,使平均代价最小的检测准则。
可以对先验概率和代价因子做各种约束,就可以得到一系列派生的贝叶斯准则。
约束示例1: 通信系统中最常用的派生贝叶斯准则 —— 最小平均错误概率判决准则
令正确判决代价因子\(c_{00} = c_{11} = 0\),错误判决代价因子\(c_{01} = c_{10} = 1\),得到最小平均错误概率判决准则:
\[\dfrac{p(\boldsymbol x \big| H_1)}{p(\boldsymbol x \big| H_0)} \quad {\mathop \gtrless \limits_{H_0}^{H_1}} \quad \dfrac{P(H_{0})}{P(H_{1})}
\] 进一步,再约束两个先验概率相等:\(P(H_0) = P(H_1)\),则得到最大似然判决准则:
\[\dfrac{p(\boldsymbol x \big| H_1)}{p(\boldsymbol x \big| H_0)} \quad {\mathop \gtrless \limits_{H_0}^{H_1}} \quad 1 \quad \Longleftrightarrow \quad p(\boldsymbol x \big| H_1) \quad{\mathop \gtrless \limits_{H_0}^{H_1}}\quad p(\boldsymbol x \big| H_0)
\] 即,哪一个假设所对应的似然函数最大,哪个假设就成立。
|
约束示例2: 最大后验概率检测准则
令代价因子满足\(c_{10} - c_{00} = c_{01} - c_{11}\),得到最大后验概率检测准则:
\[p(H_1 \big| \boldsymbol x) \quad{\mathop \gtrless \limits_{H_0}^{H_1}}\quad p(H_0 \big |\boldsymbol x)
\] 即,哪一个假设所对应的后验概率最大,哪个假设就成立。
|
约束示例3: 极小化极大准则
先验概率未知,但代价因子已知:
按照似然比检测形式构建基本表达式,并在极小化极大方程:
\[P_{\mathrm{M}}(P^*_{\lg}) = P_{\mathrm{FA}}(P^*_{\lg})
\] 的约束下计算最终判决门限。(\(P_{\mathrm{M}}\)为漏检概率)
|
约束示例4: 奈曼皮尔逊准则
先验概率未知,且代价因子也未知:
按照似然比检测形式构建基本表达式,并在虚警概率等于一个常量的约束下:
\[P(H_1 \big| H_0) = \int_{\mathbb R^n} p(l(\boldsymbol x) \big| H_0) \text{ d} l(\boldsymbol x) = \alpha
\] 使得检测概率最大,计算最终判决门限。
|
1.1.4 一般高斯信号的统计检测
若一个\(N\)维随机矢量\(\boldsymbol X = (X_1, X_2, \cdots, X_N)^{\mathrm T}\)的各分量是联合高斯分布,则称\(\boldsymbol X\)是\(N\)维联合高斯随机矢量。
\[\begin{aligned}
& \mathrm{E}(\boldsymbol X) = \boldsymbol{\mu_X} = (\mu_{X_1}, \mu_{X_2}, \cdots, \mu_{X_N})^{\mathrm T}\\
& \mathrm{Cov}(\boldsymbol X) = \boldsymbol{C_X} = \mathrm{E}\left[(\boldsymbol X - \boldsymbol{\mu_X})(\boldsymbol X - \boldsymbol{\mu_X})^{\mathrm T}\right]
\end{aligned}
\]
其联合概率密度函数为:
\[p_{\boldsymbol X}(\boldsymbol x) = \dfrac{1}{\sqrt{(2\pi)^N |\boldsymbol{C_X}|}} \exp\left\{-\dfrac{1}{2}(\boldsymbol x - \boldsymbol{\mu_X})^{\mathrm T}\boldsymbol{C_X}^{-1}(\boldsymbol x - \boldsymbol{\mu_X})\right\}
\]
若对所有\(H_j\),\(p(\boldsymbol x \big| H_j\)都是高斯概率密度函数 一一 此类信号的检测为一般高斯信号的统计检测。其判决表达式为:
\[\begin{split}
l(\boldsymbol x) &= \dfrac{1}{2}(\boldsymbol x - \boldsymbol{\mu_{X_0}})^{\mathrm T}\boldsymbol{C_{X_0}}^{-1}(\boldsymbol x - \boldsymbol{\mu_{X_0}}) - \dfrac{1}{2}(\boldsymbol x - \boldsymbol{\mu_{X_1}})^{\mathrm T}\boldsymbol{C_{X_1}}^{-1}(\boldsymbol x - \boldsymbol{\mu_{X_1}}) {\mathop \gtrless \limits_{H_0}^{H_1}} \\
&\ln \eta + \dfrac{1}{2}\ln |\boldsymbol{C_{X_1}}| - \dfrac{1}{2}\ln |\boldsymbol{C_{X_0}}| = \gamma
\end{split}
\]
1.1.5 复信号的统计检测
(一) 复随机变量的概率密度函数
假设\(X_{\mathrm C} = X_{\mathrm R} + \mathrm j X_{\mathrm I}\)为一复高斯随机变量,实部和虚部相互统计独立。
\[\begin{aligned}
&\mathrm E\left(X_{\mathrm R}\right)=\mu_{\mathrm R} \quad \operatorname{Var}\left(X_{\mathrm R}\right)=\frac{\sigma^2}{2} \quad \mathrm E\left(X_{\mathrm I}\right)=\mu_{\mathrm I} \quad \operatorname{Var}\left(X_{\mathrm I}\right)=\frac{\sigma^2}{2} \\
\\
p\left(x_{\mathrm R}, x_{\mathrm I}\right)&=\frac{1}{\sqrt{\pi \sigma^2}} \exp \left(-\frac{\left(x_{\mathrm R}-\mu_{\mathrm R}\right)^2}{\sigma^2}\right) \cdot \frac{1}{\sqrt{\pi \sigma^2}} \exp \left(-\frac{\left(x_{\mathrm I}-\mu_{\mathrm I}\right)^2}{\sigma^2}\right) \\
& =\frac{1}{\pi \sigma^2} \exp \left(-\frac{\left(x_{\mathrm R}-\mu_{\mathrm R}\right)^2+\left(x_{\mathrm I}-\mu_{\mathrm I}\right)^2}{\sigma^2}\right) \\
\\
& \mathrm E\left(X_{\mathrm C}\right) = \mu_{\mathrm C} = \mu_{\mathrm R} + \mathrm j \mu_{\mathrm C} \\
\\
p\left(x_{\mathrm C}\right) &= \frac{1}{\pi \sigma^2} \exp \left(-\frac{\left(x_{\mathrm C}-\mu_{\mathrm C}\right)^*\left(x_{\mathrm C}-\mu_{\mathrm C}\right)}{\sigma^2}\right) \\
&= \frac{1}{\pi \sigma^2} \exp \left(-\frac{\left|x_{\mathrm C}-\mu_{\mathrm C}\right|^2}{\sigma^2}\right)
\end{aligned}
\]
也即复高斯随机变量的概率密度函数:\(X_{\mathrm C} \sim \mathcal{CN}(\mu_{\mathrm C}, \sigma^2)\)。
(二) 复高斯随机矢量的概率密度函数
对与\(N\)维复高斯随机矢量\(\boldsymbol X_{\mathrm C} = (X_{\mathrm C1}, X_{\mathrm C2}, \cdots, X_{\mathrm CN})^{\mathrm T}\),若各个分量相互独立,则有:
\[\begin{aligned}
p_{\boldsymbol X_{\mathrm C}}(\boldsymbol x_{\mathrm C}) &= p(x_{\mathrm C1}, x_{\mathrm C2}, \cdots, x_{\mathrm CN}) \\
& =\dfrac{1}{\pi^N \prod\limits_{k=1}^N \sigma_{\mathrm Ck}} \exp\left\{-\sum_{k=1}^N \dfrac{|x_{\mathrm Ck} - \mu_{\mathrm Ck}|^2}{\sigma_{\mathrm Ck}^2}\right\} \\
& = \dfrac{1}{\pi^N |\boldsymbol C_{\boldsymbol X_{\mathrm C}}|} \exp\left\{-(\boldsymbol X_{\mathrm C} - \boldsymbol \mu_{\mathrm C})^{\mathrm H}\boldsymbol C_{\boldsymbol X_{\mathrm C}}^{-1} (\boldsymbol X_{\mathrm C} - \boldsymbol \mu_{\mathrm C})\right\}
\end{aligned}
\]
因此,贝叶斯检测为:
\[\begin{gathered}
\lambda(\boldsymbol x_{\mathrm C}) = \dfrac{p(\boldsymbol x_{\mathrm C} \big| H_1)}{p(\boldsymbol x_{\mathrm C} \big| H_0)} \quad {\mathop \gtrless \limits_{H_0}^{H_1}} \quad \eta \\
\Updownarrow \\
\dfrac{2}{N_0}\mathrm{Re}\left((\boldsymbol s_1^{\mathrm H} - \boldsymbol s_0^{\mathrm C})\boldsymbol x_{\mathrm C}\right) + \dfrac{1}{N_0}|\boldsymbol s_0|^2 - \dfrac{1}{N_0}|\boldsymbol s_1|^2 \quad {\mathop \gtrless \limits_{H_0}^{H_1}} \quad \ln\eta
\end{gathered}
\]
1.1.6 \(M\)元信号的统计检测
\[\begin{aligned}
C & =\sum_{i=0}^{M-1} c_{i i} P\left(H_i\right)+\sum_{i=0}^{M-1} \sum_{j=0, j \neq i}^{M-1}\left(c_{i j}-c_{j j}\right) P\left(H_j\right) P\left(H_i \mid H_j\right) \\
& =\sum_{i=0}^{M-1} c_{i i} P\left(H_i\right)+\sum_{i=0}^{M-1} \int_{R_i} \sum_{j=0, j \neq i}^{M-1}\left(c_{i j}-c_{j j}\right) P\left(H_j\right) p\left(\boldsymbol x \mid H_j\right) \mathrm{ d} \boldsymbol x
\end{aligned}
\]
记度量函数:
\[I_i(\boldsymbol x) = \sum_{j=0, j \neq i}^{M-1}\left(c_{i j}-c_{j j}\right) P\left(H_j\right) p\left(\boldsymbol x \mid H_j\right)
\]
\(c_{ij} \geq c_{jj}, P(H_j) \geq 0, P(\boldsymbol x \big| H_j) \geq 0, I_i(\boldsymbol x) \geq 0\)。
为保证平均风险最小,应把所有使\(I_i(x)\)最小的\(x\)划分至\(R_i\)判决区域,即当满足:
\[I_i(\boldsymbol x) < I_j(\boldsymbol x), j = 0, 1, 2, \cdots, M-1, j \neq i
\]
时,判决\(H_i\)成立:
\[R_i = \left\{\boldsymbol x \big| I_i(\boldsymbol x) < I_j(\boldsymbol x), 0 \leq j \leq M, j\neq i\right\}
\]
\(H_i\)成立的判决区域,是满足下面联立方程组的解:
\[\left\{\begin{array}{l}
I_i(\boldsymbol x) < I_0(\boldsymbol x) \\
I_i(\boldsymbol x) < I_1(\boldsymbol x) \\
\qquad \quad\vdots \\
I_i(\boldsymbol x) < I_{i-1}(\boldsymbol x) \\
I_i(\boldsymbol x) < I_{i+1}(\boldsymbol x) \\
\qquad \quad\vdots \\
I_i(\boldsymbol x) < I_{M-1}(\boldsymbol x) \\
\end{array}\right.
\]
若令正确判决代价为0,错误判决代价为1,则:
\[I_i(\boldsymbol x) = \sum_{j=0, j \neq i}^{M-1}(c_{ij}-c_{jj})P(H_j)p(\boldsymbol x \big| H_j)
\]
为保证平均错误概率最小,应把所有使\(I_i(\boldsymbol x)\)最小的划分至判决区域\(R_i\),即当满足:
\[I_i(x) < I_j(x), j=0,1,2, \cdots, M-1, j \neq i
\]
时,判决\(H_i\)成立。
最小平均错误概率:
\[P_e = \sum_{i=0}^{M-1}\sum_{j=0, j \neq i}^{M-1}P(H_j)p(H_i \big| H_j)
\]
若令正确判决代价为0,错误判决代价为1,且假设先验概率相等时:
\[\begin{gathered}
I_i(\boldsymbol x) = \sum_{j=0, j \neq i}^{M-1}\left(c_{i j}-c_{j j}\right) P\left(H_j\right) p\left(\boldsymbol x \mid H_j\right) \\
\Downarrow \\
I_i(\boldsymbol x) = \dfrac{1}{M}\sum_{j=0, j\neq i}^{M-1}p(\boldsymbol x \big| H_j) = \dfrac{1}{M}\left(\sum_{j=0}^{M-1}p(\boldsymbol x \big| H_j) - p(\boldsymbol x \big|H_i) \right)
\end{gathered}
\]
判决规则为:在\(M\)个似然函数\(p(\boldsymbol x \big| H_i)\)中,选择使\(p(\boldsymbol x \big| H_i)\)最大的假设成立。
最大似然检测的求解步骤:
1.2 信号波形检测
将有关统计检测的理论,推广至噪声中信号波形的最佳检测问题;
基本任务:根据性能要求,设计与环境相匹配的接收机,以便从噪声污染的接收信号中提取有用的信号,或者在噪声干扰背景中区别不同特性、不同参量的信号;
主要问题:最佳检测的判决表达式,检测性能分析以及最佳波形设计等。
1.2.1 匹配滤波器
若线性时不变滤波器输入的信号是确知信号,噪声是加性平稳噪声,在输入功率信噪比一定的条件下,使输出功率信噪比最大的滤波器,即为与输入信号匹配的最佳滤波器,称为匹配滤波器。
1.2.2 随机过程的正交级数展开
(一) 完备正交函数集
若实函数集\(\{f_k(t), k=1,2,\cdots\}\)在\((0,T)\)时间内满足:
\[\int_{0}^T f_k(t)f_j(t) \text{ d}t = \left\{\begin{array}{l}
1, \quad j=k, \\
0, \quad j \neq k
\end{array}\right.
\]
则称函数集\(\{f_k(t), k=1,2,\cdots\}\)在\((0,T)\)是完备正交函数集。
假设接收为信号\(x(t) = s(t)+n(t)\),其中\(s(t)\)是确知信号,\(n(t)\)是零均值的平稳随机过程,则接收信号也是平稳随机过程。由于随机过程是由很多样本函数构成的集合,而每个样本函数是不同的时间的函数,所以对给定的样本函数\(x(t)\),可以进行正交级数展开:
\[x(t) = \lim_{N \to \infty} \sum_{k=1}^{N} x_k f_k(t) \qquad x_k = \int_0^T x(t)f_k(t) \text{ d}t
\]
所有样本函数的展开系数,构成了一族随机变量。
\[\lim_{N \to \infty} \mathrm{E}\left[x(t) - \sum_{k=1}^N x_k f_k(t)\right]^2 = 0
\]
1.2.3 高斯白噪声中一般二元信号的波形检测
方法1:正交级数展开法
(一) 检测方法概述
-
首先,利用随机过程的正交级数展开,将随机过程用一组随机变量来表示;
-
然后,针对展开得到的随机变量,利用统计检测方法构建贝叶斯检测表达式;
-
最后,利用展开系数与随机过程之间的表示关系,构建波形信号的检测表达式。
经过推导,最终的判决表达式为:
\[l\Big[x(t)\Big]\overset{def}{\operatorname*{=}}\int_{0}^{T}s_{1}(t)x(t)\text{ d}t-\int_{0}^{T}s_{0}(t)x(t)\text{ d}t~{\mathop \gtrless \limits_{H_0}^{H_1}}~\frac{N_{0}}{2}\ln\eta+\frac{E_{1}}{2}-\frac{E_{0}}{2}\overset{def}{\operatorname*{=}}\gamma
\] 其中,\(l\Big[x(t)\Big]\)是检验统计量,\(\gamma\)为判决门限。
(二) 检测系统性能分析
|
方法2:充分统计量法
\[\begin{gathered}
H_0:\quad x(t) = s_0(t)+n(t), \quad 0 \leq t \leq T \\
H_1:\quad x(t) = s_1(t)+n(t), \quad 0 \leq t \leq T
\end{gathered}
\] (一) 检测方法概述
- 首先,选择一组完备正交函数集\(\{f_k(t), k=1,2,\cdots\}\),满足以下条件(格拉姆-施密特正交化方法):\(f_1(t) = \dfrac{1}{\sqrt E_1} s_1(t)\)
(二) 检测系统性能分析
|
正交级数展开法:信道噪声是白噪声,正交函数集可任意选取。
充分统计量法:选取特定的正交函数集,使得有关发送信号的信息只包含在有限的展开系数中。
1.3 信号统计估计理论
1.3.1 代价函数和贝叶斯估计
(一) 平均代价
设被估计的单随机变量的先验概率密度函数为\(p(\theta)\),易知代价函数\(c(\tilde \theta)\)是随机参量\(\theta\)和观测矢量\(\boldsymbol x\)的函数,平均代价\(C\)为:
\[C = \int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty} c(\tilde \theta) p(\boldsymbol x, \theta) \text{ d}\boldsymbol x\text{ d}\theta
\]
在先验概率\(p(\theta)\)给定,以及选定代价函数的条件下,使平均代价最小的估计称为贝叶斯估计(Bayes Estimation)。
由\(p(\boldsymbol x, \theta) = p(\theta \big| \boldsymbol x)p(\boldsymbol x)\)可得:
\[\begin{aligned}
C & =\int_{-\infty}^{\infty} \int_{-\infty}^{\infty} c(\tilde{\theta}) p(\boldsymbol{x}, \theta) \text{ d} \boldsymbol{x} \text{ d} \theta \\
& =\int_{-\infty}^{\infty} \int_{-\infty}^{\infty} c(\tilde{\theta}) p(\theta \mid \boldsymbol{x}) p(\boldsymbol{x}) \text{ d} \boldsymbol{x} \text{ d} \theta \\
& =\int_{-\infty}^{\infty} p(\boldsymbol{x})\left[\int_{-\infty}^{\infty} c(\tilde{\theta}) p(\theta \mid \boldsymbol{x}) \text{ d} \theta\right] \text{ d} \boldsymbol{x}
\end{aligned}
\]
其中,\(\displaystyle\int_{-\infty}^{\infty} c(\tilde{\theta}) p(\theta \mid \boldsymbol{x}) \text{ d} \theta\)是非负值。
因此,使平均代价最小,就等价于使条件平均代价:\(C(\hat \theta \big| \boldsymbol x) = \displaystyle\int_{-\infty}^{+\infty} c(\tilde \theta) p(\theta \big| \boldsymbol x) \text{ d}\theta\)最小。
条件平均代价对\(\hat \theta\)求最小就可得随机参量\(\theta\)的贝叶斯估计量\(\hat \theta_b\)。
(二) 最小均方误差估计
如所选代价函数为:误差平方和,则为最小均方误差估计。
\[\hat \theta_{mse} = \int_{-\infty}^{+\infty} \theta p(\theta \big| \boldsymbol x) \text{ d}\theta
\]
注1:最小均方误差估计的估计量实际是条件均值
\[\mathrm E[\theta \big| \boldsymbol x] = \hat \theta_{mse} = \int_{-\infty}^{+\infty} \theta p(\theta \big| \boldsymbol x) \text{ d}\theta
\]
注2:最小均方误差估计的条件平均代价实际是条件方差
\[C_{mse}(\hat \theta \big| \boldsymbol x) = \int_{-\infty}^{+\infty} (\theta - \hat \theta_{mse})^2 p(\theta \big| \boldsymbol x) \text{ d}\theta = \int_{-\infty}^{+\infty} \left(\theta - \mathrm E[\theta \big| \boldsymbol x]\right)^2 p(\theta \big| \boldsymbol x) \text{ d}\theta
\]
注3:最小均方误差估计量的另一种形式
\[\hat{\theta}_{mse}=\int_{-\infty}^{\infty}\theta p(\theta\mid \boldsymbol x)\text{ d}\theta=\int_{-\infty}^{\infty}\theta\frac{p(\theta,\boldsymbol x)}{p(\boldsymbol x)}\text{ d}\theta=\frac{\displaystyle\int_{-\infty}^{\infty}\theta p(\theta,\boldsymbol x)\text{ d}\theta}{\displaystyle\int_{-\infty}^{\infty}p(\theta,\boldsymbol x)\text{ d}\theta}=\frac{\displaystyle\int_{-\infty}^{\infty}\theta p(\theta)p(\boldsymbol x\mid\theta)\text{ d}\theta}{\displaystyle\int_{-\infty}^{\infty}p(\theta)p(\boldsymbol x\mid\theta)\text{ d}\theta}
\]
最大后验估计:
根据上述分析,得到最大后验概率估计量的必要条件为:
\[最大后验方程 \quad \dfrac{\partial p(\theta \big| \boldsymbol x)}{\partial \theta} \big|_{\theta = \hat \theta_{mse}} = 0
\]
等价形式1:\(\dfrac{\partial \ln p(\theta \big| \boldsymbol x)}{\partial \theta} \big|_{\theta = \hat \theta_{mse}} = 0\);
等价形式2:\(\left[\dfrac{\partial \ln p(\boldsymbol x \big| \theta)}{\partial \theta} + \dfrac{\partial \ln p(\theta)}{\partial \theta}\right] \big|_{\theta = \hat \theta_{mse}} = 0\)
最佳估计的不变性
结论:如果被估计量的后验概率密度函数是高斯型的,在三种典型代价函数下,使平均代价最小的估计量相同,都等于最小均方误差估计量,估计量的均方误差都是最小的 —— 最佳估计的不变性。
问题:代价函数的选取带有一定的主观性,且后验概率密度函数也不一定是高斯型的,能否找到一种估计方法,使对放宽约束条件的代价函数和后验概率密度函数也是最佳的?即可以获得均方误差最小的估计?
(三) 最大似然估计
(1) 最大似然估计原理
最大似然估计常用来估计未知的非随机参量或者概率密度函数未知的随机参量。
被估计量的似然函数为\(p(\boldsymbol x \big| \theta)\)。
最大似然被估计的基本原理是:对于某个选定的\(\theta\),考虑落在一个小区域内的概率\(p(\boldsymbol x \big| \theta) \text{ d}\boldsymbol x\),取\(p(\boldsymbol x \big| \theta) \text{ d}\boldsymbol x\)最大值对应的\(\theta\)作为估计量\(\hat\theta_{ml}\)
\[\hat{\theta}_{m l}(\boldsymbol{x})=\underset{\theta}{\arg \max} \quad p(\boldsymbol{x} \mid \theta)
\]
(2) 最大似然估计量的构造
根据最大似然估计原理,如果已知似然函\(p(\boldsymbol x \big| \theta)\),则最大似然估计量可由方程:
\[\dfrac{\partial p(\boldsymbol x \big| \theta)}{\partial \theta} \big|_{\theta = \hat \theta_{ml}} = 0 \quad \Longleftrightarrow \quad \dfrac{\partial \ln p(\boldsymbol x \big| \theta)}{\partial \theta} \big|_{\theta = \hat \theta_{ml}} = 0
\]
(3) 最大似然估计量不变性归纳
如果参量\(\theta\)的最大似然估计量为\(\hat \theta_{ml}\),函数\(\alpha = g(\theta)\)的最大似然估计量为\(\hat \alpha_{ml}\),则有以下两个结论:
-
① 如果\(\alpha = g(\theta)\)是的一对一变换,则有\(\hat\alpha = g(\hat\theta)\)
-
② 如果\(\alpha = g(\theta)\)是 的一对\(j\)变换,则应找出在\(\alpha\)取值范围内,所有变换参量的似然函数\(p_i(\boldsymbol x | \alpha)(i=1,2,\cdots)\)中具有最大值的一个
\[p(\boldsymbol x \big| \alpha) = \max\{p_i(\boldsymbol x \big| \alpha), \quad i=1,2,\cdots
\]
通过\(p(\boldsymbol x \big| \alpha)\)求出\(\alpha\)最大似然估计量\(\hat\alpha_{ml}\)。
1.3.2 估计量的性质
包括估计量的无偏性、有效性和一致性的定义,克拉美-罗不等式和克拉美-罗界(非随机参量随机参量、非随机参量的函数)。
(一) 无偏性
对于随机参量\(\theta\),如果估计量\(\hat \theta\)的均值满足:
\[\mathrm E[\hat\theta] = \int_{-\infty}^{\infty} \hat\theta p(\boldsymbol x, \theta) \text{ d}\boldsymbol x \text{ d}\theta = \mathrm E[\theta]
\]
则称\(\hat \theta\)是随机参量\(\theta\)的无偏估计。
对于非随机参量\(\theta\),如果估计量\(\hat \theta\)的均值:
\[\mathrm E[\hat\theta] = \int_{-\infty}^{\infty} \hat\theta p(\boldsymbol x, \theta) \text{ d}\boldsymbol x \text{ d}\theta = \theta + b(\theta)
\]
-
若\(b(\theta)=0\),则称\(\hat \theta\)是非随机参量\(\theta\)无偏估计;
-
若\(b(\theta)\neq 0\),则称\(\hat \theta\)是非随机参量\(\theta\)的有偏估计;
-
若\(b(\theta) = b\),则称\(\hat \theta\)是非随机参量\(\theta\)的已知偏差的有偏估计,可从估计量\(\hat\theta\)中减去常数\(b\)获得无偏估计。
如果根据\(N\)次观测量构造的估计量\(\hat\theta(\boldsymbol x_N)\)是有偏的,但满足:
-
非随机参量:\(\lim\limits_{N \to \infty} \mathrm E\left[\hat\theta(\boldsymbol x_N)\right] = \theta\)
-
随机参量:\(\lim\limits_{N \to \infty} \mathrm E\left[\hat\theta(\boldsymbol x_N)\right] = \mathrm E[\theta]\)
则称\(\hat\theta(\boldsymbol x_N)\)是\(\theta\)的渐无偏估计。
(二) 有效性
对于被估计量\(\theta\)的任意无偏估计\(\hat\theta_1\)和\(\hat\theta_2\),若估计的均方误差:
\[\mathrm E \left[(\theta - \hat\theta_1)^2\right] < \mathrm E \left[(\theta - \hat\theta_2)^2\right]
\]
则\(\hat\theta_1\)比\(\hat\theta_2\)更有效。
如果\(\theta\)的无偏估计量\(\hat\theta\)小于其他任意无偏估计量的均方误差,则称该估计量为最小均方误差估计量。能否确定一个均方误差的下界?(C-R下界)
(三) 一致性
假设根据\(N\)次观测量构造的估计量为\(\hat\theta(\boldsymbol x_N)\),则:
-
① 若\(\lim\limits_{N \to \infty} P\left[|\theta - \hat\theta(\boldsymbol x_N)| > \xi \right] = 0\),则称估计量\(\hat\theta(\boldsymbol x_N)\)是一致收敛的估计量;
-
② 若\(\lim\limits_{N \to \infty} \mathrm E\left[\left(\theta - \hat\theta(\boldsymbol x_N)\right)^2\right] = 0\),则称估计量\(\hat\theta(\boldsymbol x_N)\)是均方一致收敛的估计量;
(四) 克拉美-罗不等式
(1) 非随机参量
。。。
(2) 随机参量
。。。
1.3.3 随机矢量估计
参考笔记1:雷达信号处理MATLAB - 微信此人写的雷达信号处理基础文章很不错,有一些还带有Matlab代码(收费),需要时可以看看。
参看笔记2:雷达学习 - 360文档 - cqukelly有一些关于雷达的知识,略了一眼,感觉不错。
\[A \xlongequal{\quad\quad}B \qquad A\xlongequal[sub-script]{super-script}B
\]