基于EM算法的参数辨识和分类识别算法matlab仿真

1.算法描述

       EMExpectation-Maximum)算法也称期望最大化算法,曾入选“数据挖掘十大算法”中,可见EM算法在机器学习、数据挖掘中的影响力。EM算法是最常见的隐变量估计方法,在机器学习中有极为广泛的用途,例如常被用来学习高斯混合模型(Gaussian mixture model,简称GMM)的参数;隐式马尔科夫算法(HMM)、LDA主题模型的变分推断等等。本文就对EM算法的原理做一个详细的总结。

 

      EM算法是一种迭代优化策略,由于它的计算方法中每一次迭代都分两步,其中一个为期望步(E步),另一个为极大步(M步),所以算法被称为EM算法(Expectation-Maximization Algorithm),最初是为了解决数据缺失情况下(包含隐变量)的参数估计问题。

 

       其基本思想是:首先根据己经给出的观测数据,估计出模型参数的值(初始化);然后再依据上一步估计出的参数值估计缺失数据的值,再根据估计出的缺失数据加上之前己经观测到的数据重新再对参数值进行估计,然后反复迭代,直至最后收敛,迭代结束。

 

       EM算法是一种迭代优化策略,由于它的计算方法中每一次迭代都分两步,其中一个为期望步(E步),另一个为极大步(M步),所以算法被称为EM算法(Expectation-Maximization Algorithm)。EM算法受到缺失思想影响,最初是为了解决数据缺失情况下的参数估计问题,其算法基础和收敛有效性等问题在DempsterLairdRubin三人于1977年所做的文章《Maximum likelihood from incomplete data via the EM algorithm》中给出了详细的阐述。其基本思想是:首先根据己经给出的观测数据,估计出模型参数的值;然后再依据上一步估计出的参数值估计缺失数据的值,再根据估计出的缺失数据加上之前己经观测到的数据重新再对参数值进行估计,然后反复迭代,直至最后收敛,迭代结束。

 

 

 

 

       EM算法(期望最大算法)是一种迭代算法,用于含有隐变量的概率参数模型的最大似然估计或极大后验概率估计。具体思想如下:

       EM算法的核心思想非常简单,分为两步:Expection-StepMaximization-StepE-Step主要通过观察数据和现有模型来估计参数,然后用这个估计的参数值来计算似然函数的期望值;而M-Step是寻找似然函数最大化时对应的参数。由于算法会保证在每次迭代之后似然函数都会增加,所以函数最终会收敛。

 

       参数辨识技术,是一种将理论模型与实验数据结合起来用于预测的技术。参数辨识根据实验数据和建立的模型来确定一组模型的参数值,使得由模型计算得到的数值结果能最好地拟合测试数据(可以看做是一种曲线拟合问题),从而可以对未知过程进行预测,提供一定的理论指导。在具体研究中,首先建立一个粗略的模型,用这个模型对试验测量结果进行预测。当计算得到的数值结果与测试值之间的误差较大时,就认为该数学模型与实际的过程不符或者差距较大,进而修改模型,重新选择参数。当预测结果与实测结果相符时,认为此模型具有较高的可信度。

 

2.仿真效果预览

matlab2022a仿真结果如下:

 

 

 

 

3.MATLAB核心程序

 

function [gamma,llm]=em1r(r,k)
load ('data.mat')
x=dataset1;
L=size(x);
l=L(1);
zc=zeros(r,40);llm=-inf;
for zzz=1:r
sigma=zeros(2,2,k);
mu=zeros(k,2);
sigma(:,:,1)=cov(x);
n=zeros(1,3);
pik=ones(k,1)/k;
while (~(n(1)~=n(2)&&n(2)~=n(3)&&n(3)~=n(1)))
    n=ceil(rand(1,3)*1500);
end
for ii=1:k
    mu(ii,:)=x(n(ii),:);
    sigma(:,:,ii)=sigma(:,:,1);
end
for zz=1:40
p=zeros(l,k);
for ii=1:k
    p(:,ii)=mvnpdf(x,mu(ii,:),sigma(:,:,ii));
end
gamma=zeros(l,k);
for ii=1:l
    su=0;
    for jj=1:k
        su=pik(jj)*p(ii,jj)+su;
    end
    for jj=1:k
        gamma(ii,jj)=pik(jj)*p(ii,jj)/su;
    end
end
nk=zeros(k,1);
for ii=1:k
    nk(ii)=sum(gamma(:,ii));
end
pik=nk/l;
for ii=1:k
    mu(ii,1)=sum(gamma(:,ii).*x(:,1))/nk(ii);
    mu(ii,2)=sum(gamma(:,ii).*x(:,2))/nk(ii);
end
ssig=zeros(2,2,l);
for ii=1:k
    for jj=1:l
        ssig(:,:,jj)=gamma(jj,ii).*(x(jj,:)-mu(ii,:))'*(x(jj,:)-mu(ii,:));
    end
    sigma(1,1,ii)=sum(ssig(1,1,:))/nk(ii);
    sigma(1,2,ii)=sum(ssig(1,2,:))/nk(ii);
    sigma(2,1,ii)=sum(ssig(2,1,:))/nk(ii);
    sigma(2,2,ii)=sum(ssig(2,2,:))/nk(ii);
end
ll=0;
for ii=1:l
    bb=0;
    for jj=1:k
        bb=bb+pik(jj)*mvnpdf(x(ii,:),mu(jj,:),sigma(:,:,jj));
    end
    ll=ll+log(bb)/log(exp(1));
end
zc(zzz,zz)=ll;
end
if llm<ll
    llm=ll;
    mii=zzz;
    gam=gamma;
end
end

 

  

 

posted @ 2023-02-21 19:33  我爱C编程  阅读(84)  评论(0编辑  收藏  举报