-
HE等人基于LE算法进一步提出了LPP算法[11]。其基本思想是利用数据集在特征空间中的局部邻域关系导出一个线性变换,使原始数据集中的局部领域关系在低维子空间中得以保留。
设高维数据点集为X={xi},低维数据集为Y={yi}(其中, m为数据点数,i=1, 2, 3, …, m),投影矩阵为A。因此,利用投影矩阵将高维数据集投影到低维特征空间得:
$ \mathit{\boldsymbol{Y}}={{\mathit{\boldsymbol{A}}}^{\text{T}}}\mathit{\boldsymbol{X}}~ $
(1) LPP算法的详细步骤归纳如下。
(1) 构造邻域图G
邻域图G有m个节点,找到数据集xi中的k个最近邻点。通常有两种方法:第1种是ε阈值法;第2种是k近邻法。本文中选择k近邻法:计算数据点xi和其余全部数据点间的欧氏距离,选距离最近的k个数据点为最近邻点。
(2) 设置权重矩阵W
W=[wij]是大小为m×m的稀疏对称矩阵,可以通过简单方法或者热核函数法来设置权重值wij。本文中采用热核方法,当xi和xj是近邻时,有:
$ {{w}_{ij}}=\text{exp}(-\|{{x}_{i}}-{{x}_{j}}{{\|}^{2}}{{t}^{-1}})~ $
(2) 式中,t为热核参量。当xi和xj不是近邻时,wij=0。
(3) 计算低维嵌入描述Y
要保持高光谱遥感图像数据集从原始高维数据空间映射到低维嵌入空间后局部流形特征不变,需要使下面的目标函数最小:
$ \sum\limits_{ij}{{{({{y}_{i}}-{{y}_{j}})}^{2}}{{w}_{ij}}}~ $
(3) 通过简单的代数公式,并将(1)式代入(3)式,目标函数可以简化为:
$ \begin{array}{*{20}{l}} {\frac{1}{2}\sum\limits_{ij} {{{\left( {{y_i} - {y_j}} \right)}^2}{w_{ij}}} = }\\ {{\mathit{\boldsymbol{A}}^{\rm{T}}}\mathit{\boldsymbol{X}}\left( {\mathit{\boldsymbol{D}} - \mathit{\boldsymbol{W}}} \right){\mathit{\boldsymbol{X}}^{\rm{T}}}\mathit{\boldsymbol{A}} = {\mathit{\boldsymbol{A}}^{\rm{T}}}\mathit{\boldsymbol{XL}}{\mathit{\boldsymbol{X}}^{\rm{T}}}\mathit{\boldsymbol{A}}} \end{array} $
(4) 式中,拉普拉斯矩阵L=D-W,且$\mathit{\boldsymbol{D}}=\sum\limits_{j=1}^{m}{{{w}_{ij}}} $为对角矩阵。
约束条件为:
$ {\mathit{\boldsymbol{A}}^{\rm{T}}}\mathit{\boldsymbol{XD}}{\mathit{\boldsymbol{X}}^{\rm{T}}}\mathit{\boldsymbol{A}} = \mathit{\boldsymbol{I}} $
(5) 根据约束条件,利用Lagrange乘子法处理(4)式,可得:
$ \mathit{\boldsymbol{XL}}{{\mathit{\boldsymbol{X}}}^{\text{T}}}\mathit{\boldsymbol{A}}=\lambda \mathit{\boldsymbol{XD}}{{\mathit{\boldsymbol{X}}}^{\text{T}}}\mathit{\boldsymbol{A}}~ $
(6) 式中,λ为广义特征值。
计算(6)式的广义特征值λ及特征向量,求出特征值中最小的前d个值所对应的特征向量a1, a2, …, ad,则得投影矩阵A=[a1, a2, …, ad]。因此,在遇到新样本时,可通过投影矩阵直接得到低维嵌入描述,即有Y=ATX。
-
光谱梯度角对两光谱向量首先进行1阶求导,获得其梯度向量,然后求取两梯度向量的广义夹角。对于任意两个光谱向量x和y,光谱梯度表示为:
$ \mathit{\boldsymbol{S}}(x)=[{{x}_{2}}-{{x}_{1}}, {{x}_{3}}-{{x}_{2}}, \ldots , {{x}_{n}}-{{x}_{n-1}}]~ $
(7) $ \mathit{\boldsymbol{S}}(y)=[{{y}_{2}}-{{y}_{1}}, {{y}_{3}}-{{y}_{2}}, \ldots {{y}_{n}}-{{y}_{n-1}}]~ $
(8) 式中,n为波段数量。
则光谱梯度角为:
$ {{\theta }_{\text{SGA}}}\left( x, y \right)=\text{arccos}\frac{\langle \mathit{\boldsymbol{S}}\left( x \right), \mathit{\boldsymbol{S}}(y)\rangle }{\left| \mathit{\boldsymbol{S}}\left( x \right) \right|\left| \mathit{\boldsymbol{S}}(y) \right|} $
(9) -
对于高光谱图像而言,合适的光谱区分方法更能够描述光谱之间的相似性。由(9)式可知,光谱梯度角能够描述光谱的形状及其局部特征。因此在本文方法中,用光谱梯度角代替欧氏距离来构造邻域图G,即当θSGA(x, y) < $ \hat{\varepsilon }$时,光谱y为光谱x的近邻点,其中,$\hat{\varepsilon } $为邻近点距离阈值。
本文中采用热核方法来计算权重矩阵W。与欧氏距离相比,测地距离更能反映高维流形的内部结构。因此,在使用热核方法时,选用测地距离来计算。即权重矩阵${{\mathit{\boldsymbol{\hat{w}}}}_{~ij}}=\text{exp}\left[ -\frac{{{d}_{\mathit{\boldsymbol{G}}}}(x, y)}{t} \right]$,其中dG(x, y)为光谱y和光谱x之间的测地距离。
-
实验一数据:采用美国AVIRIS传感器在1998年获取的圣地亚哥机场数据作为实验数据。该图像有220个波段,地面分辨率为3.5m。首先去掉20个大气吸收的波段,然后去除11个低信噪比的噪声波段,最后用于实验的图像总共有189个波段。此时的图像大小为400pixel×400pixel,截取大小为256pixel×256pixel的区域进行实验,如图 1所示。
实验二数据:采用ROSIS机载光学传感器获取的帕维亚大学图像。原始图像有610pixel×340pixel,具有1.3m的空间分辨率和115个波段。在本文中,去除12个噪声波段,剩余103个波段用于实验,如图 2所示。
-
本文中采用LPP算法来进行实验,并且用SGA作为相似性度量来寻找近邻点,即采用SGA的LPP算法(以下简称SGA-LPP)。为了比较算法的降维效果,将之与LPP算法以及采用SA为相似性度量的LPP算法(以下简称SA-LPP)进行对比分析。
实验中,通过残差方法[17]来确定k值,k值取为15。图 3为数据1的4种方法降维后前6个主成分的图像。图 3a为LPP方法前6个分量图像; 图 3b为SA-LPP方法前6个分量图像; 图 3c为SGA-LPP方法前6个分量图像。图 4为数据2的4种方法降维后前6个主成分的图像。图 4a为LPP方法前6个分量图像; 图 4b为SA-LPP方法前6个分量图像; 图 4c为SGA-LPP方法前6个分量图像。从图 3和图 4可以看出,SGA-LPP算法降维结果的前6个主成分量信息丰富,而且细节表现清楚。与LPP方法和SA-LPP方法相比,由SGA-LPP方法得到的降维结果,各个分量信息量递减较慢,各个分量对局部细节信息的表现能力强。图 5通过对LPP,SA-LPP和SAG-LPP 3种方法的规则化特征谱,即特征值/最大特征值进行比较。图 5a为数据1的3种方法的规则化谱图; 图 5b为数据2的3种方法的规则化谱图。可以看出,LPP方法的规则化特征谱在前5个成分下降了两个数量级,SAG-LPP方法在规则化特征值上优于LPP方法和SA-LPP方法,说明SAG-LPP方法的信息量更集中于前几个分量上。
运用LPP算法对高光谱数据进行降维需要选择邻域参量k和降维后的维数d,参量k的选择对降维结果影响很大,本文中通过残差方法来确定k值。因为LPP方法需要先进行邻域的构建,所以在计算时间上,SAG-LPP方法需要计算光谱梯度角来构造邻域,因此,LPP方法和SA-LPP方法在计算时间上要优于SGA-LPP方法。但是,基于LPP方法的流形方法可以更好地揭示高光谱数据的内在结构,能够很好地保持信息量,并且SAG-LPP方法具有更好的信息保持量、更好的局部细节信息量。
为了更加客观地分析本文中方法的图像降维效果,现用信息保持率(retention rate of information, RRI)、均方误差(mean squared error, MSE)和边缘强度(edge intensity, EI)4个指标进行对比分析,如表 1、表 2所示。其中,信息保持率为前6个主成分的累积保持率;方差为前6个成分均方误差的平均值;边缘强度为降维结果前6个主成分的平均边缘强度。可以看出,本文中方法得到的前6个主成分在信息保持率上高于LPP方法和SA-LPP方法;6个主成分的均方误差平均值与SA-LPP方法接近,且低于LPP方法,均方误差值越小,说明本文中降维结果越好;本文中方法所得结果的边缘强度最高,说明图像边缘保持效果越好,能够更好地应用于后续的地物分类和目标检测。
Table 1. Index evaluation of dimension reduction for data 1
algorithms RRI MSE EI LPP 89.35% 1.7637×106 4.54 SA-LPP 92.41% 1.4554×106 6.33 SGA-LPP 94.54% 1.5469×106 6.98 Table 2. Index evaluation of dimension reduction for data 2
algorithms RRI MSE EI LPP 88.42% 2.4735×106 5.24 SA-LPP 90.87% 1.8373×106 7.85 SGA-LPP 93.19% 1.9724×106 8.20 图 6a和图 7a中分别为LPP方法1-2-3分量(即第1、第2、第3主成分,下同)和4-5-6分量(即第4、第5、第6主成分,下同)合成的RGB图像;图 6b和图 7b中分别为SA-LPP算法1-2-3分量和4-5-6分量合成的RGB图像;图 6c和图 7c中分别为SGA-LPP算法1-2-3分量和4-5-6分量合成的RGB图像。由图 6和图 7比较可知,SGA-LPP方法降维得到的分量合成后的图像最清楚、平滑,局部细节最丰富。与LPP方法和SA-LPP方法相比,SGA-LPP方法的1-2-3分量和4-5-6分量合成的RGB图像均具有较好的局部细节表现能力,且4-5-6分量合成图像也具有一定的信息量。由于高光谱数据存在固有的非线性特性,流形学习能更好地揭示高光谱数据的本征结构和非线性特性。流形学习方法进行高光谱数据的降维,具有更好地准确度。同时,更加合理的光谱相似性度量能够更好地描述高光谱数据,将之应用于流形学习方法能够取得更好的降维效果。
基于光谱梯度角的高光谱影像流形学习降维法
Dimensionality reduction for hyperspectral imagery manifold learning based on spectral gradient angles
-
摘要: 为了挖掘高光谱数据的光谱局部特征,从高光谱遥感数据内在的非线性结构出发,提出了一种基于光谱梯度角的高光谱影像流形学习降维方法。采用局部化流形学习算法局部保持投影(LPP)对高光谱遥感数据进行非线性降维,对距离度量进行改进,将能够更好刻画高光谱影像光谱局部特征的光谱梯度角相似性度量应用于LPP方法,并用真实高光谱图像进行降维实验,取得了优于LPP方法和采用光谱角的LPP方法的结果。结果表明,在光谱规范化特征值方面,所提方法优于LPP方法和采用光谱角的LPP方法;在信息量的保持方面,具有更好的局部细节信息保持量。采用光谱梯度角的流形学习方法用于高光谱影像降维能取得较好的降维效果。Abstract: In order to extract the local characteristics of hyperspectral data, a dimensionality reduction method of hyperspectral imagery manifold learning based on spectral gradient angle was proposed from the nonlinear structure of hyperspectral imagery. Locality preserving projection (LPP) of localized manifold learning algorithm was performed to reduce the dimensionality of hyperspectral remote sensing data. In order to improve the distance metric, similarity measurement of spectral gradient angle, which can better characterize local features of hyperspectral images, was applied to LPP method. The real hyperspectral images were subjected to dimensionality reduction experiments.The results were better than the original LPP method and the LPP method using the spectral angle. The results show that the proposed method is superior to LPP method and LPP method using the spectral angle in the spectral normalized eigenvalues. Meanwhile, the proposed method can also obtain a good performance in information retainment and have better local information retention. Therefore, the manifold learning method with spectral gradient angle has a better performance in dimensionality reduction of hyperspectral images.
-
Table 1. Index evaluation of dimension reduction for data 1
algorithms RRI MSE EI LPP 89.35% 1.7637×106 4.54 SA-LPP 92.41% 1.4554×106 6.33 SGA-LPP 94.54% 1.5469×106 6.98 Table 2. Index evaluation of dimension reduction for data 2
algorithms RRI MSE EI LPP 88.42% 2.4735×106 5.24 SA-LPP 90.87% 1.8373×106 7.85 SGA-LPP 93.19% 1.9724×106 8.20 -
[1] ZHANG B. The advances of hyperspectral image processing and information extraction[J]. Journal of Remote Sensing, 2016, 20(5):1061-1090(in Chinese). [2] JOSÉ M, ANTONIO P, GUSTAVO C, et al. Hyperspectral remote sensing data analysis and future challenges[J]. IEEE Geoscience and Remote Sensing Magazine, 2013, 1(2):6-36. doi: 10.1109/MGRS.2013.2244672 [3] CHEN H D, PU H H, WANG B, et al. Image euclidean distance-based manifold dimensionality reduction algorithm for hyperspectral imagery[J]. Journal of Infrared and Millimeter Waves, 2013, 32(5):450-451(in Chinese). doi: 10.3724/SP.J.1010.2013.00450 [4] MULLER K R, MIKA S. An introduction in kernel-based learning algorithms[J]. IEEE Transactions on Neural Networks, 2001, 12(2):181-201. doi: 10.1109/72.914517 [5] BACHMANN C M, AINSWORTH T L, FUSINA R A. Exploiting manifold geometry in hyperspectral imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2005, 43(3):441-454. doi: 10.1109/TGRS.2004.842292 [6] BACHMANN C M, AINSWORTH T L, FUSINA R A. Improved manifold coordinate representations of large scale hyperspectral scenes[J]. IEEE Transactions on Geoscience and Remote Sensing, 2006, 44(10):2786-2803. doi: 10.1109/TGRS.2006.881801 [7] ZHANG A, XIE Y. Chaos theory-based data-mining technique for image endmember extraction: Laypunov index and correlation dimension (L and D) [J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(4):1935-1947. doi: 10.1109/TGRS.2013.2256790 [8] ROWEIS S T, SAUL L K. Nonlinear dimensionality reduction by locally linear embedding[J]. Science, 2000, 290(5500):2323-2326. doi: 10.1126/science.290.5500.2323 [9] TENENBAUM J, SILVA D D, LANGFORD J. A global geometric framework for nonlinear dimensionality reduction[J]. Science, 2000, 290(5500):2319-2323. doi: 10.1126/science.290.5500.2319 [10] MIKHAIL B, PARTH N. Laplacian eigenmaps for dimensionality reduction and data representation[J]. Neural Computation, 2003, 15(6):1373-1396. doi: 10.1162/089976603321780317 [11] HE X F, NIYOGI P. Locality preserving projections[J].Neural Information Processing System, 2004, 16:153-160. [12] DU P J, WANG X M, TAN K, et al. Dimension reduction and feature extraction of hyperspectral remote sensing imagery using manifold learning[J]. Geomatics and Information Science of Wuhan University, 2011, 36(2):148-152(in Chinese). [13] DING L, TANG P, LI H Y. Dimensionality reduction and classification for hyperspectral remote sensing data using ISOMAP[J]. Infrared and Laser Engineering, 2013, 42(10):2707-2711. [14] WANG Y T, HUANG S Q, WANG H X, et al. Dimensionality reduction for hyperspectral image based on manifold learning[C]//International Conference on Image and Graphics. New York, USA: Springer International Publishing, 2015: 164-172. [15] WANG L L, LI Z Y, SUN J X, et al. New measure based manifold algorithm and application in anomaly detection of hyperspectral imagery[J]. Applied Mechanics and Materials, 2011, 80/81(3):797-803. [16] ZHANG X B, YUAN Y, WANG Q. Spectral discrimination method based on information divergence of gradient[J]. Acta Optica Sinica, 2011, 31(5):0530001(in Chinese). doi: 10.3788/AOS [17] ZHANG Zh Y, ZHA H Y. Principal manifolds and nonlinear dimensionality reduction via tangent space alignment[J]. SIAM Journal of Scientific Computing, 2004, 26(1):313-338.