PT_参数估计/点估计_矩估计法
点估计
- 用样本
S
=
(
X
1
,
X
2
,
⋯
,
X
n
)
\mathscr{S}=(X_1,X_2,\cdots,X_n)
S=(X1,X2,⋯,Xn)构造的统计量
θ
^
(
X
1
,
X
2
,
⋯
,
X
n
)
\hat{\theta}(X_1,X_2,\cdots,X_n)
θ^(X1,X2,⋯,Xn)来估计未知参数
θ
\theta
θ,称为点估计
- 估计量:统计量
θ
^
(
X
1
,
X
2
,
⋯
,
X
n
)
\hat{\theta}(X_1,X_2,\cdots,X_n)
θ^(X1,X2,⋯,Xn)称为估计量
- 估计量也是属于统计量的范畴
- 因此,估计量是随机变量,
- 它取的观测值
θ
^
(
x
1
,
x
2
,
⋯
,
x
n
)
\hat{\theta}(x_1,x_2,\cdots,x_n)
θ^(x1,x2,⋯,xn)称为估计值
- 参数估计就是借助估计量的(观测)估计值 θ ^ ( x 1 , x 2 , ⋯ , x n ) \hat{\theta}(x_1,x_2,\cdots,x_n) θ^(x1,x2,⋯,xn)来估计 θ \theta θ的真值
- 将 θ \theta θ的估计量和估计值统称为 θ \theta θ的估计
- 估计量也是属于统计量的范畴
- 估计量:统计量
θ
^
(
X
1
,
X
2
,
⋯
,
X
n
)
\hat{\theta}(X_1,X_2,\cdots,X_n)
θ^(X1,X2,⋯,Xn)称为估计量
无偏估计
-
如果 E ( θ ^ ) = θ ; E(\hat{\theta})=\theta; E(θ^)=θ;
-
则 , θ ^ = θ ^ ( X 1 , X 2 , ⋯ , X n ) 则,\hat{\theta}=\hat{\theta}(X_1,X_2,\cdots,X_n) 则,θ^=θ^(X1,X2,⋯,Xn)是未知参数 θ \theta θ的无偏估计量
-
例如:
- 设总体 X 的均值 E ( X ) = μ ( 存在 ) , 来自总体的样本 S = ( X 1 , X 2 , ⋯ , X n ) 均值 X ‾ = 1 n ∑ i = 1 n X i 就是 μ 的无偏估计 E ( X i ) = E ( X ) = μ ; E ( X ‾ ) = 1 n E ( ∑ i = 1 n X i ) = 1 n ∑ i = 1 n E ( X i ) = μ 设总体X的均值E(X)=\mu(存在),来自总体的样本\mathscr{S}=(X_1,X_2,\cdots,X_n) \\均值\overline{X}=\frac{1}{n}\sum\limits_{i=1}^{n}X_i就是\mu的无偏估计 \\E(X_i)=E(X)=\mu; \\ E(\overline{X})=\frac{1}{n}E(\sum\limits_{i=1}^{n}X_i) =\frac{1}{n}\sum\limits_{i=1}^{n}E(X_i)=\mu 设总体X的均值E(X)=μ(存在),来自总体的样本S=(X1,X2,⋯,Xn)均值X=n1i=1∑nXi就是μ的无偏估计E(Xi)=E(X)=μ;E(X)=n1E(i=1∑nXi)=n1i=1∑nE(Xi)=μ
-
更有效估计
- 如果
θ
1
,
θ
2
\theta_1,\theta_2
θ1,θ2都是
θ
\theta
θ的无偏估计量,且
D
(
θ
1
^
)
⩽
D
(
θ
2
^
)
D(\hat{\theta_1})\leqslant{D(\hat{\theta_2})}
D(θ1^)⩽D(θ2^)
- 则称 θ 1 比 θ 2 更有效 \theta_1比\theta_2更有效 θ1比θ2更有效
一致估计
-
设 θ ^ = θ ^ ( X 1 , X 2 , ⋯ , X n ) \hat{\theta}=\hat{\theta}(X_1,X_2,\cdots,X_n) θ^=θ^(X1,X2,⋯,Xn)是 θ \theta θ的估计量,如果:
- θ ^ → P θ 则称 θ ^ 为 θ 的 一致估计量 ‾ \hat\theta\xrightarrow{P}\theta 则称\hat\theta为\theta的\underline{一致估计量} θ^Pθ则称θ^为θ的一致估计量
评价估计
- 获得未知参数的估计值后,需要评价这个估计的好坏
- 样本是随机变量,推断的结果也是随机的
- 评估一个估计的好坏,必须是整体性的,去绝不估计量的抽样分布和统计性质
- 构造估计量的方法称为估计合理的一个重要前提
估计量的求法
矩估计法
- 用样本矩估计相应的总体矩,用样本矩的函数估计总体矩相应的函数,求解要估计的参数的方法,称为矩估计
- 当样本容量区域无穷的时候,样本k阶矩依概率收敛于相应的总体k阶矩(KhinchinLLN)
- 这是矩法估计的根据,使得我们借助样本建立方程组来估计总体
- 当样本容量区域无穷的时候,样本k阶矩依概率收敛于相应的总体k阶矩(KhinchinLLN)
步骤
-
设总体 X 的分布含有未知参数 ( 向量 ) θ 1 , θ 2 , ⋯ , θ k 设总体X的分布含有未知参数(向量)\theta_1,\theta_2,\cdots,\theta_k 设总体X的分布含有未知参数(向量)θ1,θ2,⋯,θk
-
总体矩:
- 总体 l l l阶矩: E ( X l ) = μ l = α l ( θ 1 , θ 2 , ⋯ , θ k ) ; l = 1 , 2 , ⋯ , k 存在 E(X^l)=\mu_l=\alpha_l(\theta_1,\theta_2,\cdots,\theta_k);l=1,2,\cdots,k存在 E(Xl)=μl=αl(θ1,θ2,⋯,θk);l=1,2,⋯,k存在
-
样本矩:
- 样本 l 阶原点矩 A l = 1 n ∑ i = 1 n X i l = X l ‾ 样本l阶原点矩A_l=\frac{1}{n}\sum\limits_{i=1}^{n}X_i^l=\overline{X^l} 样本l阶原点矩Al=n1i=1∑nXil=Xl
-
建立方程组
-
令:
-
E ( X l ) = A l 即 α l ( θ 1 , θ 2 , ⋯ , θ k ) = A l ; l = 1 , 2 , ⋯ , k E(X^l)=A_l \\即 \alpha_l(\theta_1,\theta_2,\cdots,\theta_k)=A_l; l=1,2,\cdots,k E(Xl)=Al即αl(θ1,θ2,⋯,θk)=Al;l=1,2,⋯,k
- 从低阶到高阶,将产生k个方程(对应了k个待估计参数)
-
-
-
矩的函数
- 设 g ( α 1 , α 2 ) 是一阶矩 α 1 和二阶矩 α 2 的函数 , 而 α 1 ^ , α 2 ^ 则 g ( α 1 , α 2 ^ ^ ) 就是 g ( α 1 , α 2 ) 的矩估计 设g(\alpha_1,\alpha_2)是一阶矩\alpha_1和二阶矩\alpha_2的函数,而\hat{\alpha_1},\hat{\alpha_2}则g(\hat{\alpha_1,\hat{\alpha_2}})就是g(\alpha_1,\alpha_2)的矩估计 设g(α1,α2)是一阶矩α1和二阶矩α2的函数,而α1^,α2^则g(α1,α2^^)就是g(α1,α2)的矩估计
矩法特点
-
在总体分布未知的时候,也可以给出总体均值和方差的估计
-
设总体X的数学期望和方差均存在,分别为:
-
E ( X ) = μ D ( X ) = E ( X 2 ) − E 2 ( X ) = σ 2 E(X)=\mu \\ D(X)=E(X^2)-E^2(X)=\sigma^2 E(X)=μD(X)=E(X2)−E2(X)=σ2
-
那么均值和方差的矩估计分别 : μ ^ = 1 n ∑ i = 1 n X i = X ‾ = A 1 σ 2 ^ = 1 n ∑ i = 1 n X i 2 − 1 n ∑ i = 1 n X i = A 2 − A 1 2 那么均值和方差的矩估计分别: \\ \hat{\mu}=\frac{1}{n}\sum\limits_{i=1}^{n}X_i=\overline{X}=A_1 \\ \hat{\sigma^2} =\frac{1}{n}\sum\limits_{i=1}^{n}X_i^2- \frac{1}{n}\sum\limits_{i=1}^{n}X_i =A_2-A_1^2 那么均值和方差的矩估计分别:μ^=n1i=1∑nXi=X=A1σ2^=n1i=1∑nXi2−n1i=1∑nXi=A2−A12
-
-
矩法的优点还有:计算简便,且n较大的时候,矩估计接近值域参数真值的可能性较大
-
局限性:
- 有时可以提供出不唯一的估计量
-
案例(矩估计法)
-
设总体 X ∼ B ( m , p ) 设总体X\sim{B(m,p)} 设总体X∼B(m,p)
- m 是已知参数 , 而 p 是未知参数 m是已知参数,而p是未知参数 m是已知参数,而p是未知参数
- ( X 1 , X 2 , ⋯ , X n ) 是总体 X 的样本 (X_1,X_2,\cdots,X_n)是总体X的样本 (X1,X2,⋯,Xn)是总体X的样本
- 求:p的矩估计
- 解:
- 总体均值(期望):二项分布的期望为E(X)=mp
- 样本均值: X ‾ = 1 n ∑ i = 1 n X i \overline{X}=\frac{1}{n}\sum\limits_{i=1}^{n}X_i X=n1i=1∑nXi
- 建立方程:
-
E
(
X
)
=
X
‾
E(X)=\overline{X}
E(X)=X,即
- m p = X ‾ = 1 n ∑ i = 1 n X i mp=\overline{X}=\frac{1}{n}\sum\limits_{i=1}^{n}X_i mp=X=n1i=1∑nXi
- 得到: p = 1 m X ‾ = 1 m ∑ i = 1 n X i p=\frac{1}{m}\overline{X}=\frac{1}{m}\sum\limits_{i=1}^{n}X_i p=m1X=m1i=1∑nXi
-
E
(
X
)
=
X
‾
E(X)=\overline{X}
E(X)=X,即
-
设总体 X ∼ U ( 0 , θ ) 设总体X\sim{U(0,\theta)} 设总体X∼U(0,θ)
- θ > 0 是未知参数 \theta>0是未知参数 θ>0是未知参数
- ( X 1 , X 2 , ⋯ , X n ) 是总体 X 的样本 (X_1,X_2,\cdots,X_n)是总体X的样本 (X1,X2,⋯,Xn)是总体X的样本
- 求 θ 的矩估计 \theta的矩估计 θ的矩估计
- 解:
- E ( X ) = 1 2 ( θ − 0 ) = 1 2 θ E(X)=\frac{1}{2}(\theta-0)=\frac{1}{2}\theta E(X)=21(θ−0)=21θ
- 建立方程:
- E ( X ) = X ‾ , 即 1 2 θ = X ‾ E(X)=\overline{X},即\frac{1}{2}\theta=\overline{X} E(X)=X,即21θ=X
- θ = 2 X ‾ \theta=2\overline{X} θ=2X
-
设总体X的概率密度:
-
f ( x ) = { 1 θ e − ( x − μ ) θ , x ⩾ μ 0 , e l s e f(x)=\begin{cases} \frac{1}{\theta}e^{-\frac{(x-\mu)}{\theta}},&x\geqslant\mu \\0,&else \end{cases} f(x)={θ1e−θ(x−μ),0,x⩾μelse
-
其中两个未知参数为 μ , θ , 其中 θ > 0 \mu,\theta,其中\theta>0 μ,θ,其中θ>0
-
解:
-
先计算分别总体矩(1阶和2阶)(因为有两个未知参数需要两个方程才可以求解)
-
E ( X ) = ∫ x ∈ R x f ( x ) d x = μ + θ E ( X 2 ) = ∫ x ∈ R x 2 f ( x ) d x = μ 2 + 2 θ μ + 2 θ 2 E(X)=\int\limits_{x\in{R}}xf(x)\mathrm{d}x=\mu+\theta \\E(X^2)=\int\limits_{x\in{R}}x^2f(x)\mathrm{d}x=\mu^2+2\theta\mu+2\theta^2 E(X)=x∈R∫xf(x)dx=μ+θE(X2)=x∈R∫x2f(x)dx=μ2+2θμ+2θ2
-
附:第一个积分计算过程:
-
y = E ( X ) = ∫ x ∈ R x f ( x ) d x = ∫ μ + ∞ x 1 θ e − ( x − μ ) θ d x = 1 θ ∫ μ + ∞ x e − 1 θ ( x − μ ) d x = 1 θ ∫ μ + ∞ x e − 1 θ ( x − μ ) d x 记 t = e − 1 θ , ∵ θ > 0 , t ∈ ( 0 , 1 ) lim x → + ∞ t x = 0 = 1 θ ∫ μ + ∞ x t ( x − μ ) d x = 1 θ t − μ ∫ μ + ∞ x t x d x 记 B = ∫ μ + ∞ x t x d x B = 1 ln t ∫ μ + ∞ x d t x y = 1 θ t − μ B y=E(X)=\int\limits_{x\in{R}}xf(x)\mathrm{d}x =\int_{\mu}^{+\infin}x\frac{1}{\theta}e^{-\frac{(x-\mu)}{\theta}}\mathrm{d}x \\=\frac{1}{\theta}\int_{\mu}^{+\infin}x e^{-\frac{1}{\theta}(x-\mu)}\mathrm{d}x \\=\frac{1}{\theta}\int_{\mu}^{+\infin}x e^{-\frac{1}{\theta}(x-\mu)}\mathrm{d}x \\记t=e^{-\frac{1}{\theta}},\because\theta>0,t\in(0,1) \\\lim_{x\to{+\infin}}t^x=0 \\=\frac{1}{\theta}\int_{\mu}^{+\infin}x t^{(x-\mu)}\mathrm{d}x \\=\frac{1}{\theta}t^{-\mu}\int_{\mu}^{+\infin}x t^{x}\mathrm{d}x \\记B=\int_{\mu}^{+\infin}x t^{x}\mathrm{d}x \\B=\frac{1}{\ln{t}}\int_{\mu}^{+\infin}x \mathrm{d}t^{x} \\y=\frac{1}{\theta}t^{-\mu}B y=E(X)=x∈R∫xf(x)dx=∫μ+∞xθ1e−θ(x−μ)dx=θ1∫μ+∞xe−θ1(x−μ)dx=θ1∫μ+∞xe−θ1(x−μ)dx记t=e−θ1,∵θ>0,t∈(0,1)x→+∞limtx=0=θ1∫μ+∞xt(x−μ)dx=θ1t−μ∫μ+∞xtxdx记B=∫μ+∞xtxdxB=lnt1∫μ+∞xdtxy=θ1t−μB
-
记 C = ∫ μ + ∞ x d t x B = 1 ln t C C = x ⋅ t x ∣ μ + ∞ − ∫ μ + ∞ t x d x = x ⋅ t x ∣ μ + ∞ − 1 ln t t x ∣ μ + ∞ = x t − x ∣ μ + ∞ − ( 0 − t μ ln t ) = x t − x ∣ + ∞ − x t − x ∣ μ + t μ ln t 其中 ln t = − 1 θ = 1 t − x ( ln t − 1 ) ∣ + ∞ − μ t μ − θ ( t μ ) = − μ t μ − θ ( t μ ) = − ( μ + θ ) t μ \\记C=\int_{\mu}^{+\infin}x \mathrm{d}t^{x} \\B=\frac{1}{\ln{t}}C \\C=x\cdot{t^x}|_{\mu}^{+\infin} -\int_{\mu}^{+\infin}t^{x} \mathrm{d}x \\=x\cdot{t^x}|_{\mu}^{+\infin}-\frac{1}{\ln{t}}t^x|_{\mu}^{+\infin} \\=\frac{x}{t^{-x}}|_{\mu}^{+\infin} -(0-\frac{t^{\mu}}{\ln{t}}) \\=\frac{x}{t^{-x}}|_{+\infin}-\frac{x}{t^{-x}}|_{\mu}+\frac{t^{\mu}}{\ln{t}} \\其中\ln{t}=-\frac{1}{\theta} \\=\frac{1}{t^{-x}(\ln{t^{-1}})}|_{+\infin}-\mu{t^{\mu}}-\theta(t^\mu) \\=-\mu{t^{\mu}}-\theta(t^\mu) \\=-(\mu+\theta)t^{\mu} 记C=∫μ+∞xdtxB=lnt1CC=x⋅tx∣μ+∞−∫μ+∞txdx=x⋅tx∣μ+∞−lnt1tx∣μ+∞=t−xx∣μ+∞−(0−lnttμ)=t−xx∣+∞−t−xx∣μ+lnttμ其中lnt=−θ1=t−x(lnt−1)1∣+∞−μtμ−θ(tμ)=−μtμ−θ(tμ)=−(μ+θ)tμ
-
错误推导:
= x t − x ∣ μ + ∞ − 1 ln t t x ∣ μ + ∞ = 1 t − x ( ln t − 1 ) ∣ μ + ∞ − 1 ln t t x ∣ μ + ∞ = t x − ln t ∣ μ + ∞ − 1 ln t t x ∣ μ + ∞ = ( 0 − t μ − ln t ) − ( 0 − t μ ln t ) 滥用洛必达法则 \\=\frac{x}{t^{-x}}|_{\mu}^{+\infin}-\frac{1}{\ln{t}}t^x|_{\mu}^{+\infin} \\=\frac{1}{t^{-x}(\ln{t^{-1}})}|_{\mu}^{+\infin}-\frac{1}{\ln{t}}t^x|_{\mu}^{+\infin} \\=\frac{t^{x}}{ -\ln{t}}|_{\mu}^{+\infin}-\frac{1}{\ln{t}}t^x|_{\mu}^{+\infin} \\=(0-\frac{t^\mu}{-\ln{t}})-(0-\frac{t^\mu}{\ln{t}}) \\ 滥用洛必达法则 =t−xx∣μ+∞−lnt1tx∣μ+∞=t−x(lnt−1)1∣μ+∞−lnt1tx∣μ+∞=−lnttx∣μ+∞−lnt1tx∣μ+∞=(0−−lnttμ)−(0−lnttμ)滥用洛必达法则 -
正确推导:
-
C = − ( μ + θ ) t μ y = 1 θ t − μ B = 1 θ t − μ 1 ln t C = 1 θ t − μ ( − θ ) C = − t − μ C = − t − μ ( − ( μ + θ ) t μ ) = μ + θ C=-(\mu+\theta)t^{\mu} \\y=\frac{1}{\theta}t^{-\mu}B =\frac{1}{\theta}t^{-\mu}\frac{1}{\ln{t}}C =\frac{1}{\theta}t^{-\mu}{(-\theta)}C \\=-t^{-\mu}C =-t^{-\mu}(-(\mu+\theta)t^{\mu}) \\=\mu+\theta C=−(μ+θ)tμy=θ1t−μB=θ1t−μlnt1C=θ1t−μ(−θ)C=−t−μC=−t−μ(−(μ+θ)tμ)=μ+θ
-
-
-
第二个积分 E ( X 2 ) E(X^2) E(X2)的推导:
-
y = E ( X 2 ) = ∫ x ∈ R x 2 f ( x ) d x = ∫ μ + ∞ x 2 1 θ e − ( x − μ ) θ d x = 1 θ t − μ ∫ μ + ∞ x 2 t x d x 记 B = ∫ μ + ∞ x 2 t x d x B = 1 ln t ∫ μ + ∞ x 2 d t x y = 1 θ t − μ B y=E(X^2)=\int\limits_{x\in{R}}x^2f(x)\mathrm{d}x =\int_{\mu}^{+\infin}x^2\frac{1}{\theta}e^{-\frac{(x-\mu)}{\theta}}\mathrm{d}x \\ \\=\frac{1}{\theta}t^{-\mu}\int_{\mu}^{+\infin}x^2 t^{x}\mathrm{d}x \\记B=\int_{\mu}^{+\infin}x^2 t^{x}\mathrm{d}x \\B=\frac{1}{\ln{t}}\int_{\mu}^{+\infin}x^2 \mathrm{d}t^{x} \\y=\frac{1}{\theta}t^{-\mu}B y=E(X2)=x∈R∫x2f(x)dx=∫μ+∞x2θ1e−θ(x−μ)dx=θ1t−μ∫μ+∞x2txdx记B=∫μ+∞x2txdxB=lnt1∫μ+∞x2dtxy=θ1t−μB
-
记 : D = ∫ μ + ∞ x 2 d t x = x 2 t x ∣ μ + ∞ − ∫ μ + ∞ t 2 ⋅ 2 x d x = ( 2 t − x ln 2 ( t − 1 ) ∣ + ∞ − μ 2 t μ ) − ( 2 ∫ μ + ∞ t x d x ) = 0 − μ 2 t μ − ( 2 ( 1 ln t ) ∫ μ + ∞ x d t x ) = − μ 2 t μ + 2 θ ( − ( μ + θ ) t μ ) = − t μ ( μ 2 + 2 μ θ + 2 θ 2 ) y = 1 θ t − μ ( − θ ) D = − t − μ ( − t μ ( μ 2 + 2 μ θ + 2 θ 2 ) ) = μ 2 + 2 μ θ + 2 θ 2 记:D=\int_{\mu}^{+\infin}x^2 \mathrm{d}t^{x} =x^2t^x|_{\mu}^{+\infin}-\int_{\mu}^{+\infin}t^2\cdot{2x} \mathrm{d}{x} \\=(\frac{2}{t^{-x}\ln^2{(t^{-1})}}|_{+\infin} -\mu^2t^\mu)-(2\int_{\mu}^{+\infin}t^xdx) \\=0-\mu^2t^\mu-(2(\frac{1}{\ln{t}})\int_{\mu}^{+\infin}xdt^x) \\=-\mu^2t^\mu+2\theta(-(\mu+\theta)t^\mu) \\=-t^\mu(\mu^2+2\mu\theta+2\theta^2) \\\\ \\y=\frac{1}{\theta}t^{-\mu}(-\theta)D \\=-t^{-\mu}(-t^\mu(\mu^2+2\mu\theta+2\theta^2)) \\=\mu^2+2\mu\theta+2\theta^2 记:D=∫μ+∞x2dtx=x2tx∣μ+∞−∫μ+∞t2⋅2xdx=(t−xln2(t−1)2∣+∞−μ2tμ)−(2∫μ+∞txdx)=0−μ2tμ−(2(lnt1)∫μ+∞xdtx)=−μ2tμ+2θ(−(μ+θ)tμ)=−tμ(μ2+2μθ+2θ2)y=θ1t−μ(−θ)D=−t−μ(−tμ(μ2+2μθ+2θ2))=μ2+2μθ+2θ2
-
-
-
建立方程组:
-
μ + θ = X ‾ = A 1 = 1 n ∑ i = 1 n X i μ 2 + 2 θ μ + 2 θ 2 = A 2 = 1 n ∑ i = 1 n X i 2 \mu+\theta=\overline{X}=A_1=\frac{1}{n}\sum_{i=1}^{n}X_i \\ \mu^2+2\theta\mu+2\theta^2=A_2=\frac{1}{n}\sum_{i=1}^{n}X_i^2 μ+θ=X=A1=n1i=1∑nXiμ2+2θμ+2θ2=A2=n1i=1∑nXi2
-
求解 θ , μ \theta,\mu θ,μ:
-
( μ + θ ) 2 = μ 2 + 2 μ θ + θ 2 = A 1 2 θ 2 = A 2 − A 2 θ = A 2 − A 1 2 μ = A 1 − θ = A − A 2 − A 1 2 (\mu+\theta)^2=\mu^2+2\mu\theta+\theta^2=A_1^2 \\ \theta^2=A_2-A^2 \\ \theta=\sqrt{A_2-A_1^2} \\ \mu=A_1-\theta=A-\sqrt{A_2-A_1^2} (μ+θ)2=μ2+2μθ+θ2=A12θ2=A2−A2θ=A2−A12μ=A1−θ=A−A2−A12
-
θ ^ = A 2 − A 1 2 μ ^ = A 1 − A 2 − A 1 2 \hat{\theta}=\sqrt{A_2-A_1^2} \\ \hat{\mu}=A_1-\sqrt{A_2-A_1^2} θ^=A2−A12μ^=A1−A2−A12
-
-
-
-
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 记一次.NET内存居高不下排查解决与启示
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
2021-11-03 powershell@posh主题设置和自定义@动态补全配置
2021-11-03 vscode_neovim(vim enhanced)配置与使用@通过变量$MYVIMRC来修改vim配置文件