学习,很苦。坚持,很酷!
|

某宇_My

园龄:3年2个月粉丝:0关注:5

似然

似然

  1. 问题背景

    • 我们观察到随机变量 Y 的值 y,而 Y 的概率密度函数 f(y;θ) 已知,但依赖于参数 θ
    • 参数 θ 来自参数空间 Θ,观测数据来自样本空间 Y
    • 目标是根据观测数据 y,推断参数 θ 的可能取值范围。
  2. 似然函数的定义

    • 似然函数 L(θ) 表示给定数据 y 时,参数 θ 的可能性大小,定义为:

      L(θ)=f(y;θ),θΘ

    • 似然函数反映了接近生成数据的 θ 值会使 L(θ) 较大。
  3. 离散和连续情况

    • Y 是离散的,f(y;θ) 表示 Y=y 的概率。
    • Y 是连续的,f(y;θ) 表示概率密度函数。
  4. 独立观测的似然函数

    • yn 个独立观测值的集合 y=(y1,,yn) 时,似然函数为:

      L(θ)=j=1nf(yj;θ)


例 4.1(泊松分布)

假设 y 是来自泊松密度 (2.6) 的一个观测值。此处数据和参数都是标量,并且:

L(θ)=θyeθy!

参数空间是 {θ:θ>0},样本空间是 {0,1,2,}。如果 y=0L(θ)θ 的单调递减函数;如果 y>0L(θ)θ=y 处达到最大值,并且在 θ 趋近于零或无穷大时极限值为零。


图 4.1

该图展示了在 950 N/mm² 应力下的弹簧失效数据的似然函数。左上角面板是指数模型的似然函数,下方是韦伯模型的似然函数的透视图。右上角面板显示了韦伯模型的对数似然函数等高线图;通过设定 α=1 来获得指数模型的似然函数,即沿着垂直虚线切割 L。右下角面板显示了 α 的轮廓对数似然函数,对应于沿上方面板中虚线的对数似然值,对应绘制于 α


例 4.2(指数分布)

y 是来自指数密度 f(y;θ)=θ1ey/θ 的随机样本 y1,,yn,其中 y>0,θ>0。参数空间为 Θ=R+,样本空间是笛卡尔积 R+n。这里 (4.2) 给出:

L(θ)=j=1nθ1eyj/θ=θnexp(1θj=1nyj),θ>0.

在例 1.2 中,在应力 950 N/mm² 下弹簧失效时间为:225, 171, 198, 189, 189, 135, 162, 135, 117, 162,图 4.1 的左上角面板显示了似然函数 (4.3)。该函数是单峰的,在 θ168 处达到最大值;L(168)2.49×1027。在 θ=150 时,L(θ) 等于 2.32×1027,所以 150 作为解释数据的可能性是 2.32/2.49=0.93 倍于 θ=168 的可能性。如果我们声明对于 L(θ)>cL(168) 为“合理的” θ 的取值,那么当 c=12 时,θ 在 (120, 260) 范围内是合理的。


例 4.3(柯西分布)

θ 为中心的柯西密度为 f(y;θ)=[π{1+(yθ)2}]1,其中 yRθR。因此随机样本 y1,,yn 的似然函数为:

L(θ)=j=1n1π{1+(yjθ)2},<θ<.

样本空间是 Rn,参数空间是 R。图 4.2 的左面板显示了例 4.2 的弹簧数据的 L(θ)。在 θ 的范围内似然函数有三个局部极大值,其中全局极大值为 θ162。右面板显示了对数似然函数 logL(θ) 的更多细节。图中至少有四个局部极大值——显然每个观测值都有一个,尤其是在观测值重复时。与前例相比,对于某些 c 值,θ 的“合理”集合由不相交区间组成。


例 4.4(韦伯分布)

韦伯密度为:

(4.4)f(y;θ,α)=αθ(yθ)α1exp{(yθ)α},y>0,θ,α>0.

α=1 时,这是例 4.2 中的指数密度;指数模型嵌套在韦伯模型中,参数空间是 R+2,样本空间是 R+n。来自 (4.4) 的随机样本 y=(y1,,yn) 的联合密度为:

f(y;θ,α)=j=1nf(yj;θ,α)=j=1n[αθ(yjθ)α1exp{(yjθ)α}]

因此似然函数为:

(4.5)L(θ,α)=αnθnα(j=1nyj)α1exp{j=1n(yjθ)α},θ,α>0.

图 4.1 的左下角面板显示了例 4.2 数据的 L(θ,α)。似然函数在 θ181α6 时达到最大值,L(181,6) 等于 6.7×1022。这比指数模型的最大值大 2.7×105 倍。右上面板显示了对数似然函数 logL(θ,α) 的等高线图,虚线对应于 α=1 时获得的指数密度。因子 2.5×105 给出了最大对数似然值之间的差异 log(2.7×105)=12.5。这一显著提高表明韦伯模型更好地拟合了数据。然而,如果通过最大似然值判断模型拟合,韦伯模型至少和指数模型拟合得一样好,因为 maxθ,αL(θ,α)maxθL(θ,1),且只有当最大值发生在 α=1 线上时才会相等。

依赖数据

在上面的例子中,假设数据是独立的,虽然不一定是同分布的。在更复杂的问题中,数据的依赖结构可能非常复杂,使得很难明确写出 f(y;θ)。如果数据是按时间顺序记录的,例如 y1 先于 y2y2 先于 y3,...... 那么可以帮助写成:

(4.7)f(y;θ)=f(y1,,yn;θ)=f(y1;θ)j=2nf(yjy1,,yj1;θ).

例如,如果数据来自马尔科夫过程,(4.7) 式变为:

(4.8)f(y;θ)=f(y1;θ)j=2nf(yjyj1;θ),

我们使用了马尔科夫性质,即在给定“现在”Yj1 时,“未来”Yj,Yj+1, 与“过去”Yj3,Yj2 相互独立。


例 4.6(泊松出生过程)

假设 Y0,,Yn 满足:给定 Yj=yjYj+1 的条件密度是均值为 θyj 的泊松分布,即:

f(yj+1yj;θ)=(θyj)yj+1yj+1!exp(θyj),yj+1=0,1,,θ>0.

如果 Y0 服从均值为 θ 的泊松分布,那么数据 y0,,yn 的联合密度为:

f(y0;θ)j=1nf(yjyj1;θ)=θy0y0!exp(θ)j=0n1(θyj)yj+1yj+1!exp(θyj),

因此似然函数 (4.8) 等于:

L(θ)=(j=0nyj!)1exp(s0logθs1θ),θ>0,

其中 s0=j=0nyjs1=1+j=0n1yj


4.1.2 基本性质

将似然函数绘制在对数刻度上会很方便。这个刻度在数学上也很方便,我们定义对数似然函数为:

(θ)=logL(θ).

关于相对似然函数的陈述就变成了关于对数似然函数差异的陈述。当 y 具有独立分量 y1,,yn 时,我们可以写成:

(4.9)(θ)=j=1nlogf(yj;θ)=j=1nj(θ),

其中 j(θ)(θ;yj)=logf(yj;θ) 是来自第 j 次观测的对数似然函数的贡献。f 的参数颠倒是为了强调我们主要关注 f 作为 y 的函数,以及 作为 θ 的函数。

对于两个独立的数据集 yz,其似然函数可以结合为:

L(θ;y,z)=f(y;θ)f(z;θ)=L(θ;y)L(θ;z),

这里为了清楚起见,数据是似然函数中的一个附加参数。

似然函数的重要性质

似然函数的一个重要性质是它对已知的数据变换具有不变性。假设两个观察者进行了相同的实验,其中一个记录了连续随机变量 Y 的值 y,而另一个记录了 Z 的值 z,其中 ZY 的已知一对一变换。那么 Z 的概率密度函数为:

(4.10)fZ(z;θ)=fY(y;θ)|dydz|,

这里 y 被看作 z 的函数,|dydz| 是从 YZ 的变换的雅可比行列式。由于 (4.10) 与 (4.1) 只相差一个不依赖于参数的常数,因此基于 z 的对数似然等于基于 y 的对数似然加上一个常数:不同 θ 值的相对似然函数保持不变。这意味着对于某个特定模型 f,似然函数的绝对值与推断 θ 无关。当似然函数的最大值是有限值时,我们定义 θ 的相对似然为:

RL(θ)=L(θ)maxθL(θ).

其取值介于 0 和 1 之间,对数取值介于负无穷大和 0 之间。由于 L(θ) 的绝对值对于推断 θ 并不重要,我们可以忽略常数,选择任何版本的 L。从此以后,我们使用符号 表示在定义对数似然时忽略常数。然而,如果我们的目标是比较来自不同分布族的模型,那么不能忽略常数。


例 4.7(弹簧失效数据)

我们可以通过最大似然值比较例 4.2-4.4 中柯西和韦伯模型的数据。在此标准下,最大对数似然值约为 48 的韦伯模型比最大对数似然值约为 66 的柯西模型要好得多。显然,将常数添加到其中一个模型而不是另一个模型是没有意义的。

假设 Y 的分布由 ψ 决定,ψθ 的一对一变换,因此 θ=θ(ψ)。那么 ψ 的似然函数 L(ψ)θ 的似然函数 L(θ) 通过表达式 L(ψ)=L(θ(ψ)) 相关。由于通过此变换,L 的值不变,因此似然函数对一对一重新参数化是不变的。我们可以使用一个具有特定问题直接解释的参数化。


例 4.8(挑战者号数据)

我们关注在 31°F 时热失效的概率,以原始参数表示为:

ψ=exp(β0+31β1)1+exp(β0+31β1).

如果我们将 L 重新参数化为 ψλ=β1,则有:

β0(ψ,λ)=logψ1ψ31λ,L(ψ,λ)=L(β0(ψ,λ),λ).

图 4.3 右面板中的对数似然图 (ψ,λ) 比左面板中的 (β0,β1) 更易于解释,因为 ψ 的可能范围变化较慢。左面板中的等高线看起来大致呈椭圆形,而右面板中的等高线则不是。对于 ψ 的最可能范围是 (0.7, 0.9),其中 λ 的值约为 0.1


解释

当对于一组数据有一个特定的参数模型时,似然函数为评估不同参数值的合理性提供了一个自然的基础,但如何解释呢?一种观点是可以使用以下量表比较 θ 的值:

1RL(θ)>13,θ 强烈支持,

13RL(θ)>110,θ 支持,

110RL(θ)>1100,θ 弱支持,

1100RL(θ)>11000,θ 差支持,

(4.11)11000RL(θ)>0,θ 很差支持.

在这种纯粹似然的方式下,θ 的值仅根据相对似然进行比较。像 (4.11) 这样的量表简单且直接可解释,但它存在的缺点是其中的数值 13,110 等是任意的,并且不考虑 θ 的维度,因此在实践中这种解释并不是最常见的。我们将在第 4.5 节中讨论似然值的重复抽样校准。

4.2 总结

4.2.1 二次近似

在具有一个或两个参数的问题中,似然函数是可以可视化的。然而,具有几十个参数的模型很常见,有时参数甚至更多,因此我们经常需要对似然函数进行总结。

一个关键思想是,在许多情况下,对数似然函数作为参数的函数大约是二次的。为了说明这一点,图 4.4 左面板显示了从指数分布 θ1exp(u/θ),θ>0,u>0 中取样量为 n=5,10,20,40,80 的随机样本的对数似然。在每种情况下,样本的平均值为 y¯=e1。面板有两个总体特征。首先,每个对数似然的最大值在 θ=e1 处。为了理解为什么这样,注意到公式 (4.3) 意味着:

(θ)=nlogθθ1j=1nyj=n(logθ+y¯/θ),

d(θ)/dθ=0 时达到最大值,即当 θ=y¯。现在,

d2(θ)dθ2=n(1θ2+2y¯θ3),

θ=y¯ 处取值 n/y¯2,所以 y¯ 给出了 的唯一最大值。使 L 或等效的 最大的 θ 值称为最大似然估计,记作 θ^。为了后续引用,注意到值 n1d2(θ)/dθ2 及其导数 n1d3(θ)/dθ3 在邻域 N={θ:|θθ^|<δ} 中是有界的,前提是 N 不包括 θ=0

第二, 在最大值处的曲率随 n 增加而增加,因为 的二阶导数(度量 关于 θ 的曲率)是 n 的线性函数。函数 d2(θ)/dθ2 被称为观测信息。在此情况下,其在 θ^ 处的值为 n/y¯2=n/θ^2

图 4.4 的右面板显示了与左面板对应的相对似然。增加 n 的效果是似然函数变得更加集中在最大值附近,因此 θ 距离 θ^ 的固定值变得越来越不可能生成数据。为了代数地表示这一点,我们写出对数相对似然 logRL(θ),作为 (θ)(θ^) 并在 θ^ 附近对 (θ) 进行泰勒展开得到:

(4.12)logRL(θ)=(θ^)+(θθ^)(θ^)+12(θθ^)2(θ1)(θ^)=12(θθ^)2(θ1),

其中 θ1 介于 θθ^ 之间。我们用导数符号表示对 θ 的求导,因此 (θ)=d(θ)/dθ,等等。注意到 (θ^)=0 的每个导数都是 n 项的和。随着 n 的增加,我们看到 n1(θ1) 的界意味着 (4.12) 中的表达式除非在 θ=θ^ 处,否则将变得越来越负。因此 RL(θ) 趋向于 0,对于所有 nRL(θ^)=1

为了更仔细地检查对数似然的行为,我们在 (4.12) 的泰勒展开式中取另一个项,得到:

logRL(θ)=12(θθ^)2(θ1)+16(θθ^)3(θ2),

其中 θ2 介于 θθ^ 之间。现在考虑当 θ=θ^+n1/2δ 时会发生什么。随着 n 增加,这相当于“缩放”到 θ^ 附近更小的区域。现在:

(4.13)logRL(θ^+n1/2δ)=12δ2n1(θ^)+16δ3n3/2(θ2),

并且,关键在于 (θ)(θ) 都是 n 的线性函数。n1(θ) 的界意味着 (4.13) 右侧的最后一项当 n 时消失,但二次项变为 12δ2{n1(θ^)},在此情况下为 12δ2/y¯2。因此,在大样本中,最大值附近的似然是二次函数,可以用最大似然估计 θ^ 和观测信息 (θ^) 来总结。

这一点的一个含义是,如果我们将自己限制在相对于最大似然估计合理的参数值,例如那些满足 RL(θ)>cθ,则我们发现 logRL(θ)>logc。与 (4.13) 进行比较,显示我们的“合理” θ 的范围随着 n 的增加而减小,其长度大致与 n1/2 成正比。

讨论的是标量参数,但可扩展到高维,除非用矩阵的二阶导数代替 d2/dθ2

是否有必要对 进行二次近似取决于问题。对于图 4.2 中的对数似然进行这样的总结可能会产生误导,除非非常接近最大值的情况下需要总结。如果可行,绘制似然函数是合理的。


4.2.2 充分统计量

在行为良好的问题中,对于大样本,似然可以通过最大似然估计和观测信息来总结,尽管示例 4.3 和 4.9 显示这种方法可能会失败。一种更好的方法是,似然通常仅通过某些数据的低维函数 s(y) 来依赖数据,然后可以用此函数来给出合适的总结。因此在示例 4.2 和 4.9 中,似然分别通过 (n,yj)(n,maxyj) 依赖于数据。如果我们相信我们的模型是正确的,我们只需要这些函数来计算任意 θ 值的似然。这些函数是充分统计量的例子。

假设我们观察到的 y 是由密度为 f(y;θ) 的分布生成的,并且统计量 s(y)y 的函数,使得给定 S=s(Y) 时,相应随机变量 Y 的条件密度与 θ 无关。即

(4.14)fY|S(ys;θ)

不依赖于 θ。那么 S 被称为基于 Yθ 的充分统计量,或者只是 θ 的充分统计量。这个想法是,Y 中的任何不在 S 中的信息都由条件密度 (4.14) 给出,如果该条件密度与 θ 无关,则 Y 中关于 θ 的信息不多于 S。稍后我们会看到 S 并不是唯一的。

定义 (4.14) 难以使用,因为在计算条件密度之前我们必须猜测给定统计量 S 是否是充分的。一个等价且更有用的定义是通过分解准则给出的。该准则表明,对于参数 θ,统计量 S 成为充分统计量的必要和充分条件是,在一族概率密度函数 f(y;θ) 中,Y 的密度可以表示为

(4.15)f(y;θ)=g{s(y);θ}h(y).

因此,Y 的密度分解为 s(y)θ 的函数 g,以及一个不依赖于 θ 的函数 h

这两个定义的等价性几乎是不言而喻的。首先注意,如果 S 是充分统计量,则 Y 在给定 S 时的条件分布与 θ 无关,即

(4.16)fY|S(ys)=fY,S(y,s;θ)fS(s;θ)

θ 无关。但由于 SY 的函数 s(Y)SY 的联合密度为零,除非 S=s(Y),因此右侧的分子只是 fY(y;θ)。重排 (4.16) 意味着如果 S 是充分的,则 (4.15) 成立,g()=fS()h()=fY|S()

相反,如果 (4.15) 成立,我们通过对使得 s(y)=sy 的范围求和或积分来找到 Ss 处的密度。在离散情况下,

fS(s;θ)=yg{s(y);θ}h(y)=g{s;θ}h(y),

因为求和是在那些使得 s(y)=sy 上。因此,Y 在给定 S 时的条件密度为

fY|S(y;θ)/fS(s;θ)=g{s(y);θ}h(y)g{s;θ}h(y)=h(y)h(y),

这表明 S 是充分的。

本文作者:某宇_My

本文链接:https://www.cnblogs.com/Desire-My/p/18455939

版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。

posted @   某宇_My  阅读(26)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)
/*粒子线条,鼠标移动会以鼠标为中心吸附的特效*/
点击右上角即可分享
微信分享提示
评论
收藏
关注
推荐
深色
回顶
收起
  1. 1 404 not found REOL
404 not found - REOL
00:00 / 00:00
An audio error has occurred.

作曲 : Reol

作词 : Reol

fade away...do over again...

fade away...do over again...

歌い始めの一文字目 いつも迷ってる

歌い始めの一文字目 いつも迷ってる

どうせとりとめのないことだけど

伝わらなきゃもっと意味がない

どうしたってこんなに複雑なのに

どうしたってこんなに複雑なのに

噛み砕いてやらなきゃ伝わらない

ほら結局歌詞なんかどうだっていい

僕の音楽なんかこの世になくたっていいんだよ

Everybody don't know why.

Everybody don't know why.

Everybody don't know much.

僕は気にしない 君は気付かない

何処にももういないいない

Everybody don't know why.

Everybody don't know why.

Everybody don't know much.

忘れていく 忘れられていく

We don't know,We don't know.

目の前 広がる現実世界がまた歪んだ

目の前 広がる現実世界がまた歪んだ

何度リセットしても

僕は僕以外の誰かには生まれ変われない

「そんなの知ってるよ」

気になるあの子の噂話も

シニカル標的は次の速報

麻痺しちゃってるこっからエスケープ

麻痺しちゃってるこっからエスケープ

遠く遠くまで行けるよ

安定なんてない 不安定な世界

安定なんてない 不安定な世界

安定なんてない きっと明日には忘れるよ

fade away...do over again...

fade away...do over again...

そうだ世界はどこかがいつも嘘くさい

そうだ世界はどこかがいつも嘘くさい

綺麗事だけじゃ大事な人たちすら守れない

くだらない 僕らみんなどこか狂ってるみたい

本当のことなんか全部神様も知らない

Everybody don't know why.

Everybody don't know why.

Everybody don't know much.

僕は気にしない 君は気付かない

何処にももういないいない

Everybody don't know why.

Everybody don't know why.

Everybody don't know much.

忘れていく 忘れられていく

We don't know,We don't know.