图像分割的概念和算法的研究

图像分割的概念和算法的研究

图像分割(Image Segmentation)是把图像分割成若干个特定的、具有独特性质的区域并提取出感兴趣的目标的技术和过程。在对图像的研究和应用中,人们往往仅对图像的某些部分感兴趣(目标或背景),他们一般对应图像中的特定的、具有独特性质的区域。为了分析和识别目标,需要将他们分割并提取出来。

图像分割是由图像处理转到图像分析的关键。一方面,它是目标图像表达的基础,对特征测量有重要的影响。另一方面,图像分割和分割的目标表达、特征提取和参数测量等将原始图像转化为数学表达形式,使得利用计算机进行图像分析和理解成为可能。本章主要介绍图像分割的基本概念和分割所用的主要方法。

1.1 图像分割的基本概念

1.1.1 图像分割定义

有关对于一幅图像进行分割的形式化表达有不同的说法,学界比较一致的思想是,通过借助于集合概念描述图像分割的特性来表述图像分割的定义:设一个集合表示一幅完整的目标图像,这样有关目标图像集合clip_image002的分割,可以认为是将clip_image004个符合下面几个条件的非空子集(子区域)clip_image006进行划分的过程:

clip_image008;

②对所有的i和j,有i≠j, clip_image010Φ;

③对i=1,2,…,N,有clip_image012(clip_image014)为真;

④对i≠j,clip_image012[1](clip_image017)为假;

⑤i=1,2, …,N, clip_image019是连通的区域。

其中clip_image012[2](clip_image014[1])是对所有在集合中元素的逻辑谓词,Φ代表空集。

下面先对上述各个条件分别给予简略解释。条件①指出,对一幅目标图像,其分割所得的全部子集的并集应能包括原始图像中所有像素。条件②指出,对图像分割后所得的结果所表示的区域中,这些区域是互不重叠的。条件③指出,分割后所得的区域中,属于同一个区域中的各个像素应该具有共性。条件④指出,在分割结果中,不属于同一个区域中的各个像素不应具有共性。条件⑤指出,分割结果中同一个子区域内的像素应当是连通的,通过分割得到的各个图像区域其自身应该是一个连通组元。

1.2 图像分割中的边缘检测方法

边缘(Edge)是指图像局部亮度变化最显著的部分。一般来说,一幅图像的边缘主要存在于图像中的物体,物体及其背景,图像中不同区域,图像内的不同色彩间。图像分析和理解的的出发点往往就是边缘检测,对图像的边缘分析,是对目标图像进行分割、特征提取等分析手段的重要基础。由于边缘检测十分重要,因此边缘检测的方法学研究成为机器视觉研究领域最重要的理论点。一般说来,一幅图像中的边缘通常与图像亮度的一阶导数的不连续性有关。图像亮度的不连续可分为:

① 图像亮度阶跃不连续:即图像的亮度在其一阶导数不连续处2个端点处的像素灰度值有着非常明显的不同。

② 图像亮度线条不连续:即图像亮度在其一阶导数不连续处从一个像素灰度变化到另一个像素灰度,像素灰度的变化在间隔一个较小的区间后又返回到原来的像素灰度。

对一幅图像的边缘来说,边缘的图像亮度有可能同时具有阶跃性和线条性。由于边缘可能与场景中物体的重要特性对应,所以它是很重要的图像特征。比如,一个物体的轮廓通常产生阶跃边缘,因为物体的图像亮度不同于背景的图像亮度。

在讨论边缘算子之前,首先给出下列术语的定义。

① 边缘点:图像中亮度显著变化的点。

② 边缘段:边缘点坐标[i,j]及其方向θ的综合,边缘的方向是可以是梯度角。

③ 边缘检测器:从图像中抽取边缘(边缘点或边缘段)集合的算法。

④ 轮廓:边缘列表,或是一条边缘列表的曲线模型。

⑤ 边缘连接:从无序边缘表形成有序边缘表的过程。习惯上边缘的表示采用顺时针方向来排序。

⑥ 边缘跟踪:一个用来确定轮廓图像(指滤波后的图像)的搜索过程。

边缘点的坐标可以是边缘位置像素点的行、列整数标号,也可以在子像素分辨率水平上表示。边缘坐标可以在原始图像坐标系上表示,但大多数情况下是在边缘检测滤波器的是输出图像的坐标系上表示,因为滤波过程可能导致图像坐标平移或者缩放。边缘段可以用像素点尺寸大小的小线段定义,或用具有方向属性的一个点定义。在实际应用中,边缘点和边缘段都称为边缘。

边缘连接和边缘跟踪之间的区别在于:边缘连接是把边缘检测器产生的无序边缘集作为输出,输入一个有序边缘集;边缘跟踪则是将一幅图像作为输入,输出一个有序边缘集。另外,边缘检测使用局部信息来决定边缘,而边缘跟踪使用整个图像信息来决定一个像素点是不是边缘。

1.3 彩色图像分割

图像分割的目的在于根据某些特征将一幅图像分成若干有意义的区域,使得这些特征在某一区域内表现一致或相似,而在不同区域间表现出明显的不同。多年来,已经提出了许多不同类型的图像分割方法,经典的方法有阈值法、区域生长法、松弛法、边缘检测法,以及分裂合并法等,现代的方法则有神经网络法和模糊聚类法等。其中,以生物神经网络为模拟基础的人工神经网络方法由于其具有的并行分布处理、自组织、自学习、健壮性等特点因而在图像处理领域得到广泛的应用。本文主要介绍SOM神经网络在彩色图像分割中的应用。

1.3.1 位图BMP图像的读取

BMP图像又名为位图图像Bitmap,是Windows平台的标准图像格式。Windows 3.0以前的BMP图像文件格式与显示设备有关,因此把这种BMP图像文件格式称为设备相关位图DDB(device-dependent bitmap)文件格式。Windows 3.0以后的BMP图像文件与显示设备无关,因此把这种BMP图像文件格式称为设备无关位图DIB (device-independent bitmap)格式。

BMP图像格式像一张地图一样,记录了目标图像上每个像素点的颜色值。在这些位图数据之前,BMP文件记录了文件头(FileHeader)、信息头(InfoHeader)、调色板(Palette)等数据,它们保留了与图像密切相关的信息,包括图像尺寸、颜色数、分辨率等。

关于BMP图像文件格式,有以下三点需要特别注意的:

1、BMP文件在实际存放过程中按照先存放低字节,后存放高字节的原则存放。如04B038h,文件中实际记录为38 B0 04 00。

2、对于位图数据,Windows规定每个扫描行大小必须是4字节的倍数,不足的用0补齐。

3、BMP文件的位图数据是从下到上,从左到右的。即从文件中最先读到的是图像左下角的像素,最后读到的是图像右上角的数据。

在对BMP文件进行读操作时,首先读取BMP文件头和信息头,获取图像相关信息。然后根据BMP信息头中的颜色位数的不同而调用相应函数读取位图数据。

1.3.2 基于神经网络的彩色图像分割算法

20世纪40年代初,美国的Mc Culloch和PiMs从信息处理的角度,研究神经细胞行为的数学模型表达.提出了二值神经元模型。MP模型的提出开始了对神经网络的研究进程。

SOM神经网络是1980年芬兰Helsink大学的T. Kohonen教授根据生理学规律提出的。因此SOM神经网络也称为Kohonen聚类网络(KCN)。SOM神经网络在对外部信息输入形成拓扑映射结构的过程中,具有和人脑信息映射相类似的两个特点:其一,拓扑映射结构不是通过神经元的移动重新组织实现的,而是由各个神经元在不同兴奋状态下构成一个整体所形成的拓扑结构;其二,这种拓扑映射结构的形成具有自组织特点。因此,和反向传播网络(BP网络)等一类有监督学习的方法相比较,SOM神经网络算法更接近于人脑的认知过程。SOM神经网络算法提出之后,立即引起了人们的注意,其理论及应用发展很快,已经成为继 BP网络之后得到研究最多、应用最广泛的一种神经网络模型。

posted @ 2012-05-24 10:29  LeeCoS  阅读(1678)  评论(0编辑  收藏  举报