最大类间方差法
最大类间方差法是由日本学者大津于1979年提出的,是一种自适应的阈值确定的方法,又叫大津
法,简称OTSU。它是按图像的灰度特性,将图像分成背景和目标2部分。背景和目标之间的类间方差
越大,说明构成图像的2部分的差别越大,当部分目标错分为背景或部分背景错分为目标都会导致2部
分差别变小。因此,使类间方差最大的分割意味着错分概率最小。
对于图像I(x,y),前景(即目标)和背景的分割阈值记作T,属于前景的像素点数占整幅图像的比
例记为ω0,其平均灰度μ0;背景像素点数占整幅图像的比例为ω1,其平均灰度为μ1。图像的总平均
灰度记为μ,类间方差记为g。
假设图像的背景较暗,并且图像的大小为M×N,
图像中像素的灰度值小于阈值T的像素个数记作N0,像素灰度大于阈值T的像素个数记作N1,则有:
ω0=N0/ M×N (1)
ω1=N1/ M×N (2)
N0+N1=M×N (3)
ω0+ω1=1 (4)
μ=ω0*μ0+ω1*μ1 (5)
g=ω0(μ0-μ)^2+ω1(μ1-μ)^2 (6)
将式(5)代入式(6),得到等价公式: g=ω0ω1(μ0-μ1)^2 (7)
法,简称OTSU。它是按图像的灰度特性,将图像分成背景和目标2部分。背景和目标之间的类间方差
越大,说明构成图像的2部分的差别越大,当部分目标错分为背景或部分背景错分为目标都会导致2部
分差别变小。因此,使类间方差最大的分割意味着错分概率最小。
对于图像I(x,y),前景(即目标)和背景的分割阈值记作T,属于前景的像素点数占整幅图像的比
例记为ω0,其平均灰度μ0;背景像素点数占整幅图像的比例为ω1,其平均灰度为μ1。图像的总平均
灰度记为μ,类间方差记为g。
假设图像的背景较暗,并且图像的大小为M×N,
图像中像素的灰度值小于阈值T的像素个数记作N0,像素灰度大于阈值T的像素个数记作N1,则有:
ω0=N0/ M×N (1)
ω1=N1/ M×N (2)
N0+N1=M×N (3)
ω0+ω1=1 (4)
μ=ω0*μ0+ω1*μ1 (5)
g=ω0(μ0-μ)^2+ω1(μ1-μ)^2 (6)
将式(5)代入式(6),得到等价公式: g=ω0ω1(μ0-μ1)^2 (7)
Otsu算法步骤如下:
设图象包含L个灰度级(0,1…,L-1),灰度值为i的的象素点数为Ni ,图象总的象素点数为N=N0+N1+...+N(L-1)。灰度值为i的点的概为:
P(i) = N(i)/N.
门限t将整幅图象分为暗区c1和亮区c2两类,则类间方差σ是t的函数:
σ=a1*a2(u1-u2)^2 (2)
式中,aj 为类cj的面积与图象总面积之比,a1 = sum(P(i)) i->t, a2 = 1-a1; uj为类cj的均值,u1 = sum(i*P(i))/a1 0->t,
u2 = sum(i*P(i))/a2, t+1->L-1
该法选择最佳门限t^ 使类间方差最大,即:令Δu=u1-u2,σb = max{a1(t)*a2(t)Δu^2}
设图象包含L个灰度级(0,1…,L-1),灰度值为i的的象素点数为Ni ,图象总的象素点数为N=N0+N1+...+N(L-1)。灰度值为i的点的概为:
P(i) = N(i)/N.
门限t将整幅图象分为暗区c1和亮区c2两类,则类间方差σ是t的函数:
σ=a1*a2(u1-u2)^2 (2)
式中,aj 为类cj的面积与图象总面积之比,a1 = sum(P(i)) i->t, a2 = 1-a1; uj为类cj的均值,u1 = sum(i*P(i))/a1 0->t,
u2 = sum(i*P(i))/a2, t+1->L-1
该法选择最佳门限t^ 使类间方差最大,即:令Δu=u1-u2,σb = max{a1(t)*a2(t)Δu^2}
代码实现:
```
void
CopencvDlg::threshold(IplImage *src,IplImage*temp_src)
{
int
thresol[8];
//图像分成8部分,各部分的阈值
int
height=src->height;
int
width=src->width;
int
ceil_height=height/4;
int
ceil_width=width/2;
IplImage*srcdst=cvCreateImage(cvSize(ceil_width,ceil_height),IPL_DEPTH_8U,src->nChannels);
for
(
int
i=0;i<2;i++)
{
for
(
int
j=0;j<4;j++)
{
cvSetImageROI(src ,cvRect(i*ceil_width,j*ceil_height,ceil_width,ceil_height));
//选定各个区域
cvCopy(src,srcdst,0);
cvResetImageROI(src);
thresol[i*4+j]=Otsu(srcdst);
//otsu阈值分割,返回值为各部分的阈值
}
}
cvSet(temp_src,cvScalarAll(0),0);
int
step=src->widthStep;
uchar* data_src=(uchar *)src->imageData;
uchar* data_dst=(uchar *)temp_src->imageData;
//根据计算的阈值对图像进行二值化
for
(
int
t=0;t<4;t++)
{
for
(
int
i=0;i<ceil_width;i++)
{
for
(
int
j=0;j<ceil_height;j++)
{
if
(data_src[j*step+t*ceil_height*step+i]>thresol[t])
{
data_dst[j*step+t*ceil_height*step+i]=255;
}
else
data_dst[j*step+t*ceil_height*step+i]=0;
}
}
}
for
(
int
t=0;t<4;t++)
{
for
(
int
i=0;i<ceil_width;i++)
{
for
(
int
j=0;j<ceil_height;j++)
{
if
(data_src[j*step+t*ceil_height*step+i+ceil_width]>thresol[t+4])
{
data_dst[j*step+t*ceil_height*step+i+ceil_width]=255;
}
else
data_dst[j*step+t*ceil_height*step+i+ceil_width]=0;
}
}
}
}
int
CopencvDlg::Otsu(IplImage *src)
{
int
width=src->width;
int
height=src->height;
int
step=src->widthStep;
float
histogram[256]={0};
unsigned
char
* p=(unsigned
char
*)src->imageData;
for
(
int
i=0;i<height;i++)
{
for
(
int
j=0;j<width;j++)
{
histogram[p[i*step+j]]++;
}
}
//normalize histogram
int
size=height*width;
for
(
int
i=0;i<256;i++)
{
histogram[i]=histogram[i]/size;
}
//average pixel value
float
avgValue=0;
for
(
int
i=0;i<256;i++)
{
avgValue+=i*histogram[i];
}
int
threshold;
float
sum0=0, sum1=0;
//存储前景的灰度总和和背景灰度总和
float
cnt0= 0, cnt1=0;
//前景的总个数和背景的总个数
float
w0=0, w1=0;
//前景和背景所占整幅图像的比例
float
u0=0, u1=0;
//前景和背景的平均灰度
float
variance = 0;
//最大类间方差
int
i,j;
float
u=0;
float
maxVariance = 0;
for
(i =1;i<256;i++)
//一次遍历每个像素
{
sum0=0;
sum1=0;
cnt0=0;
cnt1=0;
w0=0;
w1=0;
for
(j=0;j<i;j++)
{
cnt0+=histogram[j];
sum0+=j*histogram[j];
}
u0=sum0/cnt0;
//w0=cnt0/size;
w0=cnt0;
for
(j =i;j<=255;j++)
{
cnt1+=histogram[j];
sum1+=j*histogram[j];
}
u1=sum1/cnt1;
w1=cnt1;
//w1=1-w0; // (double)cnt1 / size;
u=u0*w0+u1*w1;
//图像的平均灰度
variance=
float
(w0*w1*(u0-u1)*(u0 - u1));
if
(variance > maxVariance)
//类间方差最大时为所求阈值
{
maxVariance = variance;
threshold = i;
}
}
return
threshold;
}
```