您的位置:首页 > 其它

图像模式识别的方法

2015-07-05 11:53 85 查看
[b]图像模式识别

[/b]
1.1图像模式识别的方法
图像模式识别的方法很多,从图像模式识别提取的特征对象来看,图像识别方法可分为以下几种:基于形状特征的识别技术、基于色彩特征的识别技术以及基于纹理特征的识别技术。其中,基于形状特征的识别方法,其关键是找到图像中对象形状及对此进行描述,形成可视特征矢量,以完成不同图像的分类,常用来表示形状的变量有形状的周长、面积、圆形度、离心率等。基于色彩特征的识别技术主要针对彩色图像,通过色彩直方图具有的简单且随图像的大小、旋转变换不敏感等特点进行分类识别。基于纹理特征的识别方法是通过对图像中非常具有结构规律的特征加以分析或者则是对图像中的色彩强度的分布信息进行统计来完成。

从模式特征选择及判别决策方法的不同可将图像模式识别方法大致归纳为两类:统计模式(决策理论)识别方法和句法(结构)模式识别方法。此外,近些年随着对模式识别技术研究的进一步深入,模糊模式识别方法和神经网络模式识别方法也开始得到广泛的应用。在此将这四种方法进行一下说明。

1.1.1句法模式识别
对于较复杂的模式,如采用统计模式识别的方法,所面临的一个困难就是特征提取的问题,它所要求的特征量十分巨大,要把某一个复杂模式准确分类很困难,从而很自然地就想到这样的一种设计,即努力地把一个复杂模式分化为若干较简单子模式的组合,而子模式又分为若干基元,通过对基元的识别,进而识别子模式,最终识别该复杂模式。正如英文句子由一些短语,短语又由单词,单词又由字母构成一样。用一组模式基元和它们的组成来描述模式的结构的语言,称为模式描述语言。支配基元组成模式的规则称为文法。当每个基元被识别后,利用句法分析就可以作出整个的模式识别。即以这个句子是否符合某特定文法,以判别它是否属于某一类别。这就是句法模式识别的基本思想。

句法模式识别系统主要由预处理、基元提取、句法分析和文法推断等几部分组成。由预处理分割的模式,经基元提取形成描述模式的基元串(即字符串)。句法分析根据文法推理所推断的文法,判决有序字符串所描述的模式类别,得到判决结果。问题在于句法分析所依据的文法。不同的模式类对应着不同的文法,描述不同的目标。为了得到于模式类相适应的文法,类似于统计模式识别的训练过程,必须事先采集足够多的训练模式样本,经基元提取,把相应的文法推断出来。实际应用还有一定的困难。

1.1.2统计模式识别
统计模式识别是目前最成熟也是应用最广泛的方法,它主要利用贝叶斯决策规则解决最优分类器问题。统计决策理论的基本思想就是在不同的模式类中建立一个决策边界,利用决策函数把一个给定的模式归入相应的模式类中。统计模式识别的基本模型如图2,该模型主要包括两种操作模型:训练和分类,其中训练主要利用己有样本完成对决策边界的划分,并采取了一定的学习机制以保证基于样本的划分是最优的;而分类主要对输入的模式利用其特征和训练得来的决策函数而把模式划分到相应模式类中。
统计模式识别方法以数学上的决策理论为基础建立统计模式识别模型。其基本模型是:对被研究图像进行大量统计分析,找出规律性的认识,并选取出反映图像本质的特征进行分类识别。统计模式识别系统可分为两种运行模式:训练和分类。训练模式中,预处理模块负责将感兴趣的特征从背景中分割出来、去除噪声以及进行其它操作;特征选取模块主要负责找到合适的特征来表示输入模式;分类器负责训练分割特征空间。在分类模式中,被训练好的分类器将输入模式根据测量的特征分配到某个指定的类。统计模式识别组成如图2所示。



1.1.2.1几种统计模式识别的方法
统计模式识别根据采用方法的不同可以进行多种形式的分类:通过贝叶斯决策理论对条件密度已知的样本进行分类;对于类条件密度不明的情况,可根据训练样本的类别是否己知将分类问题分为监督学习和非监督学习两大类;监督学习和非监督学习又可根据是否通过参数决策分为参数估计和非参数估计。统计模式识别的另一种分类方法是根据决策界是否直接得到将其分为几何方法和基于概率密度的方法。几何方法经常直接从优化一定的代价函数构造决策界;而基于概率密度的方法要首先估计密度函数然后构造分类函数指定决策界。

1、几何分类法

1)模板匹配法

它是模式识别中的一个最原始、最基本的方法,它将待识模式分别与各标准模板进行匹配,若某一模板与待识模式的绝大多数单元均相匹配,则称该模板与待识模式“匹配得好”,反之则称“匹配得不好”,并取匹配最好的作为识别结果。

2)距离分类法

距离是一种重要的相似性度量,通常认为空间中两点距离越近,表示实际上两样本越相似。大约有十余种作为相似性度量的距离函数,其中使用最广泛的是欧氏距离。它是使用最为广泛的方法,常用的有平均样本法、平均距离法、最近邻法和K-近邻法。

3)线性判别函数

和上述的方法不同,判决函数法是以判决边界的函数形式的假定为其特性的,而上述的方法都是以所考虑的分布的假定为其特性的。假如我们有理由相信一个线性判决边界取成:



是合适的话,那么剩下的问题就是要确定它的权系数。权系数可通过感知器算法或最小平方误差算法来实现。但作为一条规则,应用此方法必须注意两点;第一就是方法的可适性问题,第二就是应用判决函数后的误差准则。

4)非线性判别函数

线性判决函数的特点是简单易行,实际应用中许多问题往往是非线性的,一种处理的办法将非线性函数转换为线性判决函数,所以又称为广义线性判决函数。另一种方法借助电场的概念,引入非线性的势函数,它经过训练后即可用来解决模式的分类问题。

2 概率分类法

几何分类法是以模式类几何可分为前提条件的,在某些分类问题中这种条件能得到满足,但这种条件并不经常能得到满足,模式的分布常常不是几何可分的,即在同一区域中可能出现不同的模式,这时,必须借助概率统计这一数学工具。可以说,概率分类法的基石是贝叶斯决策理论。

设有R类样本,分别为w1, w2 , … , wR,若每类的先验概率为P(wii), i = 1,2 ,3,…R,对于一随机矢量X,每类的条件概率为(又称类概率密度)P(X/Wii),则根据Bayes公式,后验概率为:



从后验概率出发,有Bayes法则:



1.1.2.2朴素贝叶斯分类器
朴素贝叶斯分类是一种十分简单的分类算法,叫它朴素贝叶斯分类是因为这种方法的思想真的很朴素,朴素贝叶斯的思想基础是这样的:对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。通俗来说,就好比这么个道理,你在街上看到一个黑人,我问你你猜这哥们哪里来的,你十有八九猜非洲。为什么呢?因为黑人中非洲人的比率最高,当然人家也可能是美洲人或亚洲人,但在没有其它可用信息下,我们会选择条件概率最大的类别,这就是朴素贝叶斯的思想基础。
朴素贝叶斯分类的工作过程如下:
(1)每个数据样本用一个n维特征向量

表示,分别描述对n个属性A1,A2,…An样本的n个度量。
(2)假定有m个类C1,C2,…Cm。给定一个未知的数据样本X(即没有类标号),分类法将预测X属于具有最高后验概率(条件X下)的类。即是说,朴素贝叶斯分类将未知的样本分配给类Ci,当且仅当



这样,最大化

。其

最大的类Ci称为最大后验假定。根据贝叶斯定理



(3)由于P(X)对于所有类为常数,只需要

最大即可。如果类的先验概率未知,则通常假定这些类是等概率的,即P(C1)=P(C2)=…=P(Cm)。并据此只对

最大化。否则,最大化

。注意,类的先验概率可以用

计算其中si是类Ci中的训练样本数,而s是训练样本总数。
(4)给定具有许多属性的数据集,计算

的开销可能非常大。为降低计算

的开销,可以做类条件独立的朴素假定。给定样本的类标号,假定属性值相互条件独立,即在属性间,不存在依赖关系。这样,



概率

…可以由训练样本估值,其中
(a)如果Ak是分类属性,则

,其中sik是在属性Ak上具有值xk的类Ci的样本数,而si是Ci中的训练样本数。
(b)如果Ak是连续值属性,则通常假定该属性服从高斯分布,因而,



其中,给定类Ci的训练样本属性Ak的值,

是属性Ak的高斯密度函数,而分别为平均值和标准差。

(5)为对未知样本X分类,对每个类Ci,计算

。样本X被指派到类Ci,当且仅当



换言之,X被指派到其

最大的类Ci。

整个朴素贝叶斯分类分为三个阶段:
第一阶段——准备工作阶段,这个阶段的任务是为朴素贝叶斯分类做必要的准备,主要工作是根据具体情况确定特征属性,并对每个特征属性进行适当划分,然后由人工对一部分待分类项进行分类,形成训练样本集合。这一阶段的输入是所有待分类数据,输出是特征属性和训练样本。这一阶段是整个朴素贝叶斯分类中唯一需要人工完成的阶段,其质量对整个过程将有重要影响,分类器的质量很大程度上由特征属性、特征属性划分及训练样本质量决定。
第二阶段——分类器训练阶段,这个阶段的任务就是生成分类器,主要工作是计算每个类别在训练样本中的出现频率及每个特征属性划分对每个类别的条件概率估计,并将结果记录。其输入是特征属性和训练样本,输出是分类器。这一阶段是机械性阶段,根据前面讨论的公式可以由程序自动计算完成。
第三阶段——应用阶段。这个阶段的任务是使用分类器对待分类项进行分类,其输入是分类器和待分类项,输出是待分类项与类别的映射关系。这一阶段也是机械性阶段,由程序完成。

半朴素贝叶斯分类模型(SNBC)

为了突破朴素贝叶斯分类器的独立性假设条件的限制,除了上述“提升”等方法之外,还可以通过改变其结构假设的方式来达到目的,为此有人提出了半朴素贝叶斯分类(SNBG Semi-NaiveBayesian classifier)的构想。

半朴素贝叶斯分类模型对朴素贝叶斯分类模型的结构进行了扩展,其目的是为了突破朴素贝叶斯分类模型特征属性间独立性假设限制,提高分类性能。目前半朴素贝叶斯分类模型学习的关键是如何有效组合特片属性。条件互信息度量半朴素贝叶斯分类学习算法可以解决目前一此学习算法中存在的效率小高及部分组合意义不大的问题。SNBC的结构比NBC紧凑,在SNBC的模型构建过程中,依照一定的标准将关联程度较大的基本属性(即NBC中的特征属性)合并在一起构成“组合属性”(也称之为“大属性”)。逻辑上,SNBC中的组合属性与NBC中的基本属性没有根本性差别,SNBC的各个组合属性之间也是相对于类别属性相互独立的。图是SNBC的模型示意图。

这类模型通过将依赖性强的基本属性结合在一起构建新的模型,这样可以部分屏蔽NBC中独立性假设对分类的负面作用。但从名称可以看出,SNBC依然属于朴素贝叶斯分类的范畴。这是因为除了结构上的差别之外,计算推导过程与NBC无异。



1.1.2.3图像金字塔
图像金字塔是以多分辨率来解释图像的一种结构。1987年,在一种全新而有效的信号处理与分析方法,即多分辨率理论中,小波首次作为分析基础出现了。多分辨率理论将多种学科的技术有效地统一在一起,如信号处理的子带编码、数字语音识别的积分镜像过滤以及金字塔图像处理。正如其名字所表达的,多分辨率理论与多种分辨率下的信号(或图像)表示和分析有关。其优势很明显,某种分辨率下无法发现的特性在另一种分辨率下将很容易被发现。

图像金字塔是结合降采样操作和平滑操作的一种图像表示方式。它的一个很大的好处是,自下而上每一层的像素数都不断减少,这会大大减少计算量;而缺点是自下而上金字塔的量化变得越来越粗糙,而且速度很快。

高斯金字塔里有两个概念:组(Octave)和层(Level或Interval),每组里有若干层。高斯金字塔的构造是这样的,第一组的第一层为原图像,然后将图像做一次高斯平滑(高斯卷积、高斯模糊),高斯平滑里有一个参数σ,然后将σ乘一个比例系数k作为新的平滑因子来平滑第一组第二层得到第三层。重复若干次,得到L层他们分别对应的平滑参数为:0,σ,kσ,k2σ,……。然后将最后一幅图像做比例因此为2的降采样得到第二组的第一层,然后对第二组的第一层做参数是σ的高斯平滑,对第二层做kσ的平滑得到第三层,以此类推。每组对应的平滑因子是一样的,这样反复形成了O组L层,组建成高斯金字塔。

2.1.3模糊模式识别
模糊模式识别的理论基础是20世纪60年代诞生的模糊数学,它根据人对事物识别的思维逻辑,结合人类大脑识别事物的特点,将计算机中常用的二值逻辑转向连续逻辑。在图像识别领域应用时该方法可以简化图像识别系统,并具有实用、可靠等特点。
模式识别是一门边缘学科,它和许多技术学科有着密切的联系,它本身就是人工智能的重要组成部分,因此,从本质上来说,模式识别所要讨论的核心问题,就是如何使机器能模拟人脑的思维方法,来对客观事物进行有效的识别和分类。一方面现有的广为运用的统计模式识别方法与人脑进行模式识别相比,其差别还很大,另一方面待识别的客观事物又往往具有不同程度的模糊性。
不少学者试图运用模糊数学的方法来解决模式识别问题,形成一个专门的研究领域----模糊模式识别(Fuzzy Pattern Recognition)。比较成熟的理论和方法有最大来属原则、基于模糊等价关系的模式分类、基于模糊相似关系的模式分类和模糊聚类,其中模糊聚类方法的研究和应用尤为成功和广泛。目前,模糊模式识别方法已广泛应用图形识别、染色体和白血球识别、图象目标的形状分析、手写体文字识别等,但其中也遇到不少困难,其中一个典型的例子就是隶属函数的确定往往带有经验色彩。

应用模糊方法进行图像识别的关键是确定某一类别的隶属函数,而各类的统计指标则要由样本像元的灰度值和样本像元的隶属函数的值即隶属度共同决定。隶属度表示对象隶属某一类的程度。

1.1.4神经网络模式识别
神经网络的研究始于20世纪40年代,上世纪80年代开始在各国广泛兴起,神经网络模式识别源于对动物神经系统的研究,通过采用硬件或软件的方法,建立了许多以大量处理单元为结点,各单元通过一定的模式实现互联的拓扑网络。该网络通过一定的机制,能够模仿人的神经系统的结构和功能。
神经网络是一种全新的模式识别技术,它具有以下几个方面的特点:
(1)神经网络具有分布式存储信息的特点。
(2)神经元能够独立运算和处理收到的信息,即系统能够并行处理输入的信息。
(3)具有自组织、自学习的能力。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: