多特征融合下的高光谱图像混合卷积分类

熊余, 单德明, 姚玉, 张宇

熊余, 单德明, 姚玉, 张宇. 多特征融合下的高光谱图像混合卷积分类[J]. 红外技术, 2022, 44(1): 9-20.
引用本文: 熊余, 单德明, 姚玉, 张宇. 多特征融合下的高光谱图像混合卷积分类[J]. 红外技术, 2022, 44(1): 9-20.
XIONG Yu, SHAN Deming, YAO Yu, ZHANG Yu. Hyperspectral Image Hybrid Convolution Classification under Multi-Feature Fusion[J]. Infrared Technology , 2022, 44(1): 9-20.
Citation: XIONG Yu, SHAN Deming, YAO Yu, ZHANG Yu. Hyperspectral Image Hybrid Convolution Classification under Multi-Feature Fusion[J]. Infrared Technology , 2022, 44(1): 9-20.

多特征融合下的高光谱图像混合卷积分类

基金项目: 

国家自然科学基金资助项目 61401052

国家留学基金委资助项目 201608500030

重庆市教委科学技术研究资助项目 KJ1400418

重庆市教委科学技术研究资助项目 KJ1500445

重庆邮电大学博士启动基金资助项目 A2015-09

详细信息
    作者简介:

    熊余(1982-),男,研究员,博士,主要研究方向为教育大数据,光网络。E-mail:xiongyu@cqupt.edu.cn

  • 中图分类号: TP391.41

Hyperspectral Image Hybrid Convolution Classification under Multi-Feature Fusion

  • 摘要: 针对现有高光谱遥感图像卷积神经网络分类算法空谱特征利用率不足的问题,提出一种多特征融合下基于混合卷积胶囊网络的高光谱图像分类策略。首先,联合使用主成分分析和非负矩阵分解对高光谱数据集进行降维;然后,将降维所得主成分通过超像素分割和余弦聚类生成一个多维特征集;最后,将叠加后的特征集通过二维、三维多尺度混合卷积网络进行空谱特征提取,并使用胶囊网络对其进行分类。通过在不同高光谱数据集下的实验结果表明,在相同20维光谱维度下,所提策略相比于传统分类策略在总体精度、平均精度以及Kappa系数上均有明显提升。
    Abstract: To address the problem of insufficient utilization of spatial-spectrum features in existing convolutional neural network classification algorithms for hyperspectral remote sensing images, we propose a hyperspectral image classification strategy based on a hybrid convolution capsule network under multi-feature fusion. First, a combination of principal component analysis and non-negative matrix decomposition is used to reduce the dimensionality of a hyperspectral dataset. Second, the principal components obtained through dimensionality reduction are used to generate a multidimensional feature set through super-pixel segmentation and cosine clustering. Finally, the superimposed feature set is used to extract spatial-spectrum features through a two-dimensional and three-dimensional multi-scale hybrid convolutional network, and a capsule network is used to classify them. We performed experiments on different hyperspectral datasets, and the results revealed that under the same 20-dimensional spectral setting, the proposed strategy significantly improves the overall accuracy, average accuracy, and Kappa coefficient compared to traditional classification strategies.
  • 太阳光中包含各种波段的光,但是地球大气层中的臭氧层会对220~280 nm波段的紫外光进行吸收,因此该波段的光很难到达地球表面,该波段又被称为“日盲”紫外波段[1]。我们通过220~280 nm紫外光的日盲特性对处于该波段的目标物进行检测成像,能够有效地排除掉阳光对其造成的影响。而高压输电线路由于其自身的故障会在大气中产生电晕,电晕放电会放射出波段为220~280 nm的紫外光[2-6]。传统的电晕探测技术有红外热探测和超声波探测,日盲紫外电晕探测相比于这两种技术有极大的改进:和红外技术相比,在早期就能检测到高压输电线上的电晕放电现象,并且不受周边环境干扰;和超声波技术相比,能够探测的距离长,并且能够检测出电晕放电产生的位置。如今,国内的紫外检测技术飞速发展,以国产碲铯阴极紫外像增强器为核心的紫外成像仪能够对电力设备故障进行实时的检测[7-9]

    在日盲紫外电晕成像探测过程中,一般是根据显示器上所显示的日盲紫外图像来主观判断电晕放电的程度,这样会带来很大的误差,所以需要通过具体的算法对日盲紫外电晕放电进行量化分析。考虑到日盲紫外电晕信号十分微弱,达到了单光子水平,普通的量化分析方法不能满足要求,因此需要设计合理的光子计数算法来对日盲紫外信号进行量化分析。

    图 1是单光子探测的原理图。首先,光信号通过光学镜头进行光学聚焦;然后,前端光电探测器将光信号转化成电信号;其次,将电信号输入至信号处理模块进行处理;最后,后端读出电路模块将处理之后的信号进行输出。其中,因为日盲紫外信号十分微弱,传统的固体探测器件难以达到要求,因此一般会采用真空器件对信号进行光电转换和电子倍增。与此同时,当需要对目标信号强弱进行分析并对其进行成像时,采用像增强器作为光电转换和成像器件[10]

    图  1  单光子探测原理框图
    Figure  1.  Block diagram of single photon detection

    当日盲紫外光子信号低于3×10-15 W/cm2时,光电转换器就会产生离散脉冲信号,合适的CMOS传感器就能探测到光子信号,所以能够统计日盲紫外信号光子的数量来实现对目标源信号的定量化分析。光子的能量公式为:

    $$ E = h\frac{c}{\lambda } $$ (1)

    式中:h为普朗克常数;c为真空中的光速;λ为光的波长。其中日盲紫外波段为200~280 nm[3],通过计算得出一个日盲紫外光子的能量为7.1×10-19~1×10-18 J。

    日盲紫外光光功率P表示为:

    $$ P=N×E $$ (2)

    式中:N表示光子数;E表示单光子能量,所以单位时间内通过的光能量表示光流强度。

    目标源信号的光功率可以通过统计一个截面上的光子数量来计算得到[4-7]。由于图像传感器靶面尺寸约为1.56 cm2,通过对单位时间内探测到的紫外图像上出现的光斑进行计数统计,就能计算得出一帧图像的光子数以及日盲紫外信号源的光功率。

    本文所设计的日盲紫外成像系统原理框图如图 2所示,成像系统主要由紫外ICMOS模组、可见光探测器、ARM+FPGA嵌入式处理系统组成。其中,紫外ICMOS模组用来采集日盲紫外微弱信号,并经过模数转换将数字图像信号输入嵌入式平台中;可见光探测器采集可见光图像为日盲紫外信号提供位置信息;ARM+FPGA嵌入式处理系统通过采集紫外数字图像信息,完成图像处理和光子计数算法,并将处理后的图像输出显示。

    图  2  日盲紫外成像系统整体设计框图
    Figure  2.  Block diagram of overall design of solar blind ultraviolet imaging system

    图 3是所设计的日盲紫外成像系统整机实物图,尺寸(长×宽×高)为244 mm×135 mm×96 mm。其中1为相机窗口,2为LCD液晶屏,3为按键控制面板,4为电源充电口和TF卡槽,5为腕带。

    图  3  日盲紫外成像系统整机实物图
    Figure  3.  The physical picture of the solar blind UV imaging system

    传统的光子计数算法通常为连通域标记光子计数算法,其算法主要思路为:假设单光子经过像增强器倍增以后,在荧光屏上所显示的每一个光斑都未重合。那么每一个光斑就对应了一个光电子,因此只需要对一帧图像中光斑出现的数量,就可以得出一帧图像中日盲紫外光子数。在连通域标记算法中,对经过图像预处理后的紫外图像进行二值化处理,得到一幅二值化图像。每个由灰度255组成的连通域表示为一个光子事件,图 4为连通域标记算法的示意图。

    图  4  连通域标记算法说明
    Figure  4.  Connected domain labeling algorithm description

    然后,对所采集到的一帧紫外图像进行连通域算法仿真分析,图 5为所采集到的日盲紫外图像和二值化后的图像。

    图  5  紫外图像二值化
    Figure  5.  UV image binary processing

    通过对图进行连通域标记光子计数算法仿真,可以得出共有12个光子。通过分析二值化后的图像可知,连通域标记算法将光斑较大和较小的区域都默认为一个光子事件进行统计,这样显然影响了光子计数的准确度,因此需要对此光子计数算法进行改进。

    弥散圆斑算法是一种从三维空间上统计光子数的方法,由于所设计的高帧频算法,可以使得光斑的变化在时间域上被捕获,因此本文在此基础上添加了时间因素,弥补光斑出现时间的随机性,找出四维空间中的最大点,约束条件如式(3):

    $$ \left\{ \begin{gathered} {f_x}'(x,y,z) \leqslant 0 \hfill \\ {f_y}'(x,y,z) \leqslant 0 \hfill \\ {f_t}'(x,y,z) \leqslant 0 \hfill \\ \end{gathered} \right. $$ (3)

    由于加入了时间的约束,所以只有找出一段时间内几帧图像同一位置光斑的极大值点才能准确计算光子数。本文采用的CMOS传感器图像输出频率为3 ms每帧,而荧光屏的余晖时间为6 ms,即光斑在荧光屏上的起伏时间为6 ms,因此我们通过连续采样得到3帧图像就能得到光斑的变化范围,如图 6所示,其中abc表示图像中光斑的灰度值。

    图  6  单个光斑脉冲连续采样图
    Figure  6.  Continuous sampling of single spot pulse

    图 6所示,中间一帧图像中b灰度值最大,可以将b记作一个光子数,因此只要中间帧图像中光斑的灰度值大于前后帧图像光斑的灰度值,就能将其记为一个光子数。

    这样就能统计出一帧图像的光子数[10]

    $$ n = \sum\limits_{k = 1}^f {\sum\limits_{i = 1}^m {\sum\limits_{j = 1}^n {Y(i,j,k)} } } $$ (4)

    式中:f为日盲紫外成像探测器的帧频;k为第k帧图像;(i, j)为二维空间坐标;Y(i, j, k)为四维空间中的极大值点。由于日盲紫外成像探测器能达到300帧/s的帧频,两帧之间的变化时间较小,因此Y(i, j, k)又能满足:

    $$ B(i,j,k)≥B(i±i′,j±j′,k±k′) $$ (5)

    式中:B(i, j, k)为第k帧(i, j)点的灰度值。由上式可见,极大值点Y(i, j, k)的约束条件为:B(i, j)在i′×j′矩阵像素中具有最大的灰度值,且在前后k′帧的同一位置的灰度值也是最大的。根据日盲紫外成像探测器的输出帧频,这里k′=1,同时i′×j′矩阵可设定为3×3矩阵或5×5矩阵。

    首先,本文用日盲紫外成像探测器采集图像,然后运用Matlab软件分别对两种算法进行仿真,比较仿真结果来判断时间相关的光子计数算法能否提高计数精度。

    首先选用260 nm波段的紫外光源,然后日盲紫外成像探测器的增益电压调节为2.5 V,调节紫外光源光功率密度,从3×10-19 W/cm2每次往上增加一个数量级,采集3组不同光强的实验图像,每组实验记录3幅图像,如图 7所示。

    图  7  日盲紫外三组实验图像
    Figure  7.  Three sets of experimental images of solar blind ultraviolet

    运用MATLAB软件对采集的图像仿真,得出的光子数如表 1所示。表 1中的两种算法为连通域计数算法和基于时间相关算法。

    表  1  两种算法光子计数统计表
    Table  1.  Photon counting statistic table of two algorithm
    Connected domain labeling algorithm Dispersion circular algorithm
    Group 1 7 6
    Group 2 78 78
    Group 3 88 291
    下载: 导出CSV 
    | 显示表格

    结果显示,当信号源很弱时,光子就会分散分布,因此两种算法的计数结果比较相近。在增强紫外光源的光功率后,光斑会重叠,并且连通域标记光子计数算法得出的光子数量没有太大变化,而本文所设计的算法随着信号的增强,计数值不断增加,由此可知,弥散圆斑算法相对于连通域计数算法更加精确,可对日盲紫外单光子进行准确统计。

    通过对两种算法的仿真分析可知,本文所设计的光子计数算法更具准确性,但由于所设计成像系统的资源和速度限制,我们将日盲紫外图像的14 bit数据压缩成8 bit数据进行处理,因此会使得计数精度上有所偏差,所以通过对紫外光源的实验来验证硬件实现的效果。

    实验采用氘灯作为日盲紫外目标源进行光子计数实验测试,紫外ICMOS模组的增益电压保持不变,进行了如下3组实验:

    第一组,关闭日盲紫外信号源,实验结果如图 8所示。

    图  8  第一组实验图像
    Figure  8.  The first set of experimental images

    通过采集3帧图像,所计算的光子数一直为0,说明所设计的成像系统暗计数良好。

    第二组,打开氘灯光源,并调节光源强度到最弱,采集到的图像如图 9所示。

    图  9  第二组实验图像
    Figure  9.  The second set of experimental images

    第三组,输出光源光功率密度加到1×10-18 W/cm2,采集到的图像如图 10所示。

    图  10  第三组实验图像
    Figure  10.  The third set of experimental images

    然后,我们利用Matlab对每组连续的3帧图像进行所设计的光子计数算法仿真,仿真结果与FPGA计算的结果如表 2所示。

    表  2  四组光子计数实验结果
    Table  2.  Results of four groups of photon counting experiments
    Group1 Group 2 Group 3
    FPGA output result 0 24 141
    Matlab simulation result 0 23 149
    下载: 导出CSV 
    | 显示表格

    通过表 2可知,硬件实验的光子计数算法与仿真结果相近,证明了所设计的基于时间域的弥散圆斑光子计数算法在成像系统中可以硬件实现,并且效果良好。

    日盲紫外电晕探测是近年来一种新型的电晕探测方式,但是紫外图像单靠人眼无法精确地判断电晕信号的强弱,因此本文研究了日盲紫外光子计数算法,通过对连通域标记算法和弥散圆斑算法进行分析提出了基于时间相关算法,然后使用Matlab对两种算法进行了实验仿真,结果显示基于时间相关算法对光子计数更加准确,最后,通过实验验证所设计的算法可以在成像系统中的FPGA硬件平台上实现,并且实现的效果良好,能够用于紫外成像仪中对信号进行量化分析。

  • 图  1   Pavia University数据集PCA降维成分方差比例分布图

    Figure  1.   The distribution of variance ratio of PCA dimension reduction components in Pavia University dataset

    图  2   Pavia University降维图

    Figure  2.   Pavia University dimensionality reduction image

    图  3   胶囊网络神经元解析图

    Figure  3.   Analytic diagram of capsule network neurons

    图  4   HCCN分类示意图

    Figure  4.   Schematic diagram of HCCN classification

    图  5   MFF-HCCN算法结构图

    Figure  5.   MFF-HCCN algorithm structure diagram

    图  6   Indian Pines伪彩色图及其标记图

    Figure  6.   Pseudo-color map of Indian Pines and its marker map

    图  7   各算法在Indian Pines数据集10%训练样本下分类图像

    Figure  7.   Each algorithm classifies images under 10% of the training samples in the Indian Pines dataset

    图  8   Pavia University伪彩色图及其标记图

    Figure  8.   Pseudo-color map of Pavia University and its marker map

    图  9   各算法在Pavia University数据集2%训练样本下分类图像

    Figure  9.   Each algorithm classifies images under 2% of the training samples in the Pavia University dataset

    图  10   WHU-Hi-Longkou伪彩色图及其标记图

    Figure  10.   Pseudo-color map of WHU-Hi-Longkou and its marker map

    图  11   各算法在WHU-Hi-Longkou数据集0.5%训练样本下分类图像

    Figure  11.   Each algorithm classifies images under 0.5% of the training samples in the WHU-Hi-Longkou dataset

    图  12   不同训练样本下的总体分类精度OA曲线图

    Figure  12.   OA curves of overall classification accuracy under different training samples

    表  1   Pavia University数据集卷积分类各层的参数

    Table  1   Parameters of each layer of convolutional classification of Pavia University dataset

    Network layer (type) Convolution kernel Stride Parameter Output
    Input layer
    Conv3D layer1
    Conv3D layer2
    Conv3D layer3
    Conv3D layer4
    Reshape1
    Conv2D layer1
    Reshape2
    Conv2Dlayer2
    Reshape3
    Conv2Dlayer3
    Reshape
    Concatenate
    Capsule
    Output layer

    (3, 2, 3, 16)
    (2, 3, 3, 16)
    (2, 1, 3, 64)
    (1, 2, 7, 64)
     
    (1, 1, 64)
     
    (2, 2, 64)
     
    (3, 3, 64)
     

     

    (1, 1, 1)
    (1, 1, 1)
    (1, 1, 1)
    (1, 1, 1)
     
    (1, 1)
     
    (1, 1)
     
    (1, 1)
     

     
    0
    304
    4624
    6208
    57408
    0
    32832
    0
    131136
    0
    294976
    0
    0
    9216
     
    (11, 11, 20)
    (9, 10, 18)
    (8, 8, 16)
    (7, 8, 14)
    (7, 7, 8)
    (7, 7)
    (7, 7)
    (49, 64)
    (6, 6)
    (36, 64)
    (5, 5)
    (25, 64)
    (110, 64)
    (9, 16)
    9
    下载: 导出CSV

    表  2   Indian Pines数据集的地物类别和样本数

    Table  2   Land cover classes and numbers of samples in Indian Pines dataset

    No. Class name Numbers of samples
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    Alfalfa
    Corn-notill
    Corn-min
    Corn
    Grass-pasture
    Grass-trees
    Grass-pasture-mowed
    Hay-windrowed
    Oats
    Soybean-notill
    Soybean-mintill
    Soybean-clean
    Wheat
    Woods
    Buildings-grass-trees-crives
    Stone-steel-towers
    46
    1428
    830
    237
    483
    730
    28
    478
    20
    972
    2455
    593
    205
    1265
    386
    93
    Total 10249
    下载: 导出CSV

    表  3   Pavia University数据集的地物类别和样本数

    Table  3   Land cover classes and numbers of samples in Pavia University dataset

    No. Class name Numbers of samples
    1
    2
    3
    4
    5
    6
    7
    8
    9
    Asphalt
    Meadows
    Gravel
    Trees
    Painted metal sheets
    Bare soil
    Bitumen
    Self-blocking bricks
    Shadows
    6631
    18649
    2099
    3064
    1345
    5029
    1330
    3682
    947
    Total 42776
    下载: 导出CSV

    表  4   WHU-Hi-Longkou数据集的地物类别和样本数

    Table  4   Land cover classes and numbers of samples in WHU- Hi-Longkou dataset

    No. Class name Numbers of samples
    1
    2
    3
    4
    5
    6
    7
    8
    9
    Corn
    Cotton
    Sesame
    Broad-leaf soybean
    Narrow-leaf soybean
    Rice
    Water
    Roads and houses
    Mixed weed
    34511
    8374
    3031
    63212
    4151
    11854
    67056
    7124
    5229
    Total 204542
    下载: 导出CSV

    表  5   各算法在Indian Pines数据集10%训练样本下的分类结果比较

    Table  5   Comparison of the classification results of each algorithm under 10% training samples of the Indian Pines dataset

    SVM PCA-SVM MFF-SVM 3DCNN PCA-3DCNN MFF-3DCNN PCA-Hybrid SN MFF-HCCN
    OA(%)
    AA(%)
    Kappa×100
    80.369
    75.027
    77.493
    65.431
    54.874
    59.306
    89.442
    86.284
    87.964
    91.09
    90.443
    89.743
    86.101
    80.647
    84.134
    92.926
    94.204
    91.943
    96.758
    95.871
    96.309
    99.230
    97.795
    99.123
    Train times/s 590.3 275.2 275.2 248.2 733.4
    下载: 导出CSV

    表  6   各算法在Pavia University数据集2%训练样本下分类结果比较

    Table  6   Comparison of the classification results of each algorithm under 2% training samples of the Pavia University dataset

    SVM PCA-SVM MFF-SVM 3DCNN PCA-3DCNN MFF-3DCNN PCA-HybridSN MFF-HCCN
    OA(%)
    AA(%)
    Kappa$ \times $100
    91.913
    88.899
    89.204
    78.147
    64.517
    69.417
    95.274
    93.946
    93.699
    93.338
    90.960
    91.137
    95.840
    94.157
    94.475
    97.674
    96.386
    96.904
    97.941
    97.304
    97.267
    99.253
    98.621
    99.010
    Train times/s - - - 366.6 256.2 256.2 212.9 574.4
    下载: 导出CSV

    表  7   各算法在WHU-Hi-Longkou数据集0.5%训练样本下分类结果比较

    Table  7   Comparison of the classification results of each algorithm under 0.5% training samples of the WHU-Hi-Longkou dataset

    SVM PCA-SVM MFF-SVM 3DCNN PCA-3DCNN MFF-3DCNN PCA-HybridSN MFF-HCCN
    OA(%)
    AA(%)
    Kappa$ \times $100
    95.036
    83.133
    93.437
    88.933
    58.389
    85.388
    98.032
    94.894
    97.400
    94.233
    83.464
    92.409
    98.336
    98.736
    95.163
    98.759
    96.309
    98.369
    98.716
    97.233
    98.315
    99.024
    97.278
    98.718
    Train times/s - - - 491.2 382.1 382.1 353.9 816.3
    下载: 导出CSV
  • [1] 蓝金辉, 邹金霖, 郝彦爽, 等. 高光谱遥感图像混合像元分解研究进展[J]. 遥感学报, 2018, 22(1): 13-27. https://www.cnki.com.cn/Article/CJFDTOTAL-YGXB201801002.htm

    LAN J, ZOU J, HAO Y, et al. Research progress on unmixing of hyperspectral remote sensing imagery[J]. Journal of Remote Sensing, 2018, 22(1): 13-27. https://www.cnki.com.cn/Article/CJFDTOTAL-YGXB201801002.htm

    [2] 徐金环, 沈煜, 刘鹏飞, 等. 联合核稀疏多元逻辑回归和TV-L1错误剔除的高光谱图像分类算法[J]. 电子学报, 2018, 46(1): 175-184. DOI: 10.3969/j.issn.0372-2112.2018.01.024

    XU J, SHEN Y, LIU P, et al. Hyperspectral image classification combining kernel sparse multinomial logistic regression and TV-L1 error rejection[J]. Acta Electronica Sinica, 2018, 46(1): 175-184. DOI: 10.3969/j.issn.0372-2112.2018.01.024

    [3] 刘启超, 肖亮, 刘芳, 等. SSC DenseNet: 一种空-谱卷积稠密网络的高光谱图像分类算法[J]. 电子学报, 2020, 48(4): 751-762. DOI: 10.3969/j.issn.0372-2112.2020.04.017

    LIU Q, XIAO L, LIU F, et al. SSC DenseNet: a spectral-spatial convolutional dense network for hyperspectral image classification[J]. Acta Electronica Sinica, 2020, 48(4): 751-762. DOI: 10.3969/j.issn.0372-2112.2020.04.017

    [4]

    LI S, SONG W, FANG L, et al. Deep learning for hyperspectral image classification: an overview[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(9): 6690-6709. DOI: 10.1109/TGRS.2019.2907932

    [5]

    Nanjun H, Paoletti M E, Mario H J, et al. Feature extraction with multiscale covariance maps for hyperspectral image classification[J]. IEEE Transactions on Geoscience & Remote Sensing, 2018, 57(2): 755-769.

    [6]

    GAO H, LIN S, LI C, et al. Application of hyperspectral image classification based on overlap pooling[J]. Neural Processing Letters, 2019, 49(3): 1335-1354. DOI: 10.1007/s11063-018-9876-7

    [7]

    YU C, ZHAO M, SONG M, et al. Hyperspectral image classification method based on CNN architecture embedding with hashing semantic feature[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2019, 12(6): 1866-1881. DOI: 10.1109/JSTARS.2019.2911987

    [8]

    YING L, Haokui Z, QIANG S. Spectral-spatial classification of hyperspectral imagery with 3D convolutional neural network[J]. Remote Sensing, 2017, 9(1): 67-88. DOI: 10.3390/rs9010067

    [9]

    HE M, LI B, CHEN H, et al. Multi-scale 3D deep convolutional neural network for hyperspectral image classification[C]//IEEE International Conference on Image Processing, 2017: 3904-3908.

    [10]

    Roy S K, Krishna G, Dubey S R, et al. Hybrid SN: exploring 3D-2D CNN feature hierarchy for hyperspectral image classification[J]. IEEE Geoscience and Remote Sensing Letters, 2020, 17(2): 277-281. DOI: 10.1109/LGRS.2019.2918719

    [11]

    WEI W, ZHANG J, LEI Z, et al. Deep cube-pair network for hyperspectral imagery classification[J]. Remote Sensing, 2018, 10(5): 783-801. DOI: 10.3390/rs10050783

    [12]

    Baisantry M, SAO A K. Band selection using segmented PCA and component loadings for hyperspectral image classification[C]//IEEE International Geoscience and Remote Sensing Symposium, 2019: 3812-3815.

    [13]

    ZHANG W, FU K, SUN X, et al. Joint optimisation convex-negative matrix factorisation for multi-modal image collection summarisation based on images and tags[J]. IET Computer Vision, 2018, 13(2): 125-130.

    [14]

    Achanta R, Shaji A, Smith K, et al. SLIC superpixels compared to state-of-the-art superpixel methods[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(11): 2274-2282. DOI: 10.1109/TPAMI.2012.120

    [15]

    Achanta R, Süsstrunk S. Superpixels and polygons using simple non-iterative clustering[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2017: 4895-4904.

    [16]

    Sabour S, Frosst N, Hinton G E. Dynamic routing between capsules[C]// Proceedings of the 2017 International Conference on Neural Information Processing Systems, 2017: 3856-3866.

    [17]

    ZHONG Y, WANG X, XU Y, et al. Mini-UAV-Borne hyperspectral remote sensing: from observation and processing to applications[J]. IEEE Geoscience and Remote Sensing Magazine, 2018, 6(4): 46-62.

  • 期刊类型引用(1)

    1. 杨晓超,郝慧良. 矿用电缆放电监测系统研究设计. 中国煤炭. 2024(S1): 406-410 . 百度学术

    其他类型引用(1)

图(12)  /  表(7)
计量
  • 文章访问数:  253
  • HTML全文浏览量:  54
  • PDF下载量:  48
  • 被引次数: 2
出版历程
  • 收稿日期:  2020-11-01
  • 修回日期:  2021-01-24
  • 刊出日期:  2022-01-19

目录

/

返回文章
返回