购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

2.3 基于LPP-GMD算法的SAR图像目标识别

由前文可知,有效的特征提取算法是精确识别的前提。LPP算法可以很好地实现基于光学图像的识别,但是它对噪声的健壮性较差。基于SAR系统的相干成像机理,SAR图像中不可避免地存在相干斑,因此直接采用LPP算法进行SAR图像的特征提取不能很好地实现SAR图像目标识别。考虑到SAR图像中相干斑导致模型中存在噪声分量,采用混合高斯分布来拟合噪声项,将局部保持特性融入统计模型,以保持数据的局部结构。

对于一个原始的训练样本 y i i= 1,2,…, N )( N 表示所有训练样本的总数),考虑到SAR图像中的相干斑会导致模型中存在噪声分量,可以表示为

式中, W 为投影矩阵; x i i= 1,2,…, N )为降维后的训练样本; y = { y 1 y 2 ,…, y N }为原始的训练样本集; m 为原始的训练样本集 y 的均值向量; n i y i 中的噪声分量。

由式(2-3)可以看到,原始的训练样本 y i 是由两部分构成的,分别是对识别有用的信息 x i ,以及并不希望存在的噪声分量 n i 。特征提取就是要尽可能减小数据中的噪声分量 n = { n 1 n 2 ,…, n N }对识别产生的影响,同时尽可能保留对识别有用的信息 x = { x 1 x 2 ,…, x N }。

从统计的角度来说,特征提取的目标函数可以表示为

由于边缘分布 p y )不会影响目标函数,利用贝叶斯公式 ,可以得到

则目标函数可以转化为

2.3.1 基于混合高斯分布的似然函数建模

考虑到SAR图像中相干斑的存在会导致模型误差,对误差分量的统计特性建模可以更好地进行特征提取,将噪声分量的统计分布建模为理论上可以拟合任何分布的混合高斯分布。根据式(2-3),可以将 p y i | x i )表示为

式中, C 为混合高斯分布的个数; p y i | x i c )为第 c c= 1,2,…, C )个高斯分布, μ c 为第 c 个噪声分量 n i 的均值; 为第 c 个噪声分量的方差; p c )为第 c 个高斯分布所占的权重,很显然,可以得到 = 1。将 p y i | x i c )代入式(2-7),可得

式中, D 为原始数据的维数。

2.3.2 基于局部保持特性的先验函数建模

对于式(2-6)中的 p x ),通常认为其服从标准的高斯分布 p x )~ N 0 I ),其中, I 表示单位矩阵。

式中, d x i 的特征维数。

为了更好地实现SAR图像目标的型号识别,将局部保持投影LPP算法的目标函数作为约束项融入 p x ),以保持数据的局部结构,将 p x )修正为

式中,tr( · )表示求矩阵迹的运算; L 为拉普拉斯矩阵, S ij 构成相似度矩阵 S L = H-S H 是一个对角矩阵,其元素( H ii i S ij )为 S 的按行取和或按列取和。

S 表示了任意两个样本之间的相似度,有

式中, t 为常数。

仔细观察式(2-10),其物理含义如下:假定有任意两个样本 y i y j ,若它们在高维空间彼此的距离很近,式(2-10)可以保证,降维后的样本 x i x j 在低维空间的距离越近,则 p x )的值越大,反之亦然。换句话说,式(2-10)可以保证在高维空间距离近的样本,在低维空间仍然距离近,数据的局部结构可以得到有效保持。通过构建式(2-10)来保持数据的局部结构,可以实现和LPP算法同样的目的。由式(2-6)可知,目标函数的最大化要求 p x )越大越好。而从式(2-11)可以看到,高维样本 y i y j 的距离越近, S ij 的值就越大。为了使目标函数值变大,则( x i -x j 2 的值越小越好,也就意味着降维后的样本 x i x j 的距离更加接近,从而保持了数据的局部结构,这也正是我们希望实现的效果。

注意,此处构建的相似度矩阵 S [见式(2-11)]和LPP算法中采用的相似度矩阵是不同的[LPP算法中相似度矩阵的具体表达式见式(3-10)],此处的相似度矩阵在属于同一类别目标的所有样本之间建立起联系,而不同类别目标的权值均被设置为0。这样的设置使数据的局部结构和全局拓扑结构都可以得到有效保留。

2.3.3 参数估计

首先对目标函数进行代数变换

可以看到,式(2-12)中的第一部分是对指数项求和再取对数的形式,直接对它进行优化的难度较大。为解决此问题,可以根据下面的引理对其进行变形,以简化整个参数估计的过程。

引理 对于任意 β Δ ,有

式中, 表示求内积运算。

根据式(2-13)对式(2-12)中的 进行化简,可以得到

式中, P ic 为第 c 个高斯分布产生 n i 的概率, ;且有

将式(2-14)代入式(2-12),可以得到目标函数 Φ 的表达式

将目标函数 Φ 分别对 x μ c W 求导,并令导数等于0,就可以得到它们的迭代更新公式。至于 p c ),可采用拉格朗日乘子法最大化下式进行更新:

可得 p c )、 x μ c W 的迭代公式分别为

式中,

p c )、 x μ c W 依次迭代更新,直到算法收敛。

图2-1给出了本章所述算法的流程图。该算法主要包括以下3个步骤。

图2-1 本章算法的流程图

第一步,对训练样本图像和测试样本图像分别进行预处理,以增强算法的性能。

第二步,根据本章所述的局部保持特性和混合高斯分布相结合的算法获得投影矩阵 W ,继而利用 W 对训练样本图像和测试样本图像分别进行特征提取。

第三步,采用最近邻分类器对测试样本进行分类判别,得到最终的识别结果。

最近邻分类器是 k -NN算法的一种特例,即 k =1的情形。 k -NN算法的核心思想是,如果一个样本在特征空间中 k 个最相邻的样本中的大多数属于某个类别,则该样本也属于这个类别,并具有这个类别样本的特性。实现过程如下:计算未知样本与所有已知样本之间的距离(如欧氏距离、余弦距离、曼哈顿距离、相关度等),选择距离最近的 k 个已知样本,根据投票法,将未知样本判定为 k 个已知样本中出现次数最多的类别。最近邻分类器的原理较简单,易于理解和实现,但是需要大量的已知样本,且当样本数量差异过大时,容易产生误判。 5UDWQy7CZvIMQm0RCyF1XRlcedV2FN5ftcfK5B8Expy3DLi1SWVFocJ6Dv3rjrk3

点击中间区域
呼出菜单
上一章
目录
下一章
×