基于轻型平台的多模态高分辨率高光谱目标检测系统

闫赟彬, 崔博伦, 杨婷婷, 李欣, 石志城, 段鹏飞, 宋梅萍, 练敏隆

闫赟彬, 崔博伦, 杨婷婷, 李欣, 石志城, 段鹏飞, 宋梅萍, 练敏隆. 基于轻型平台的多模态高分辨率高光谱目标检测系统[J]. 红外技术, 2023, 45(6): 582-591.
引用本文: 闫赟彬, 崔博伦, 杨婷婷, 李欣, 石志城, 段鹏飞, 宋梅萍, 练敏隆. 基于轻型平台的多模态高分辨率高光谱目标检测系统[J]. 红外技术, 2023, 45(6): 582-591.
YAN Yunbin, CUI Bolun, YANG Tingting, LI Xin, SHI Zhicheng, DUAN Pengfei, SONG Meiping, LIAN Minlong. Multi-modal High-Resolution Hyperspectral Object Detection System Based on Lightweight Platform[J]. Infrared Technology , 2023, 45(6): 582-591.
Citation: YAN Yunbin, CUI Bolun, YANG Tingting, LI Xin, SHI Zhicheng, DUAN Pengfei, SONG Meiping, LIAN Minlong. Multi-modal High-Resolution Hyperspectral Object Detection System Based on Lightweight Platform[J]. Infrared Technology , 2023, 45(6): 582-591.

基于轻型平台的多模态高分辨率高光谱目标检测系统

基金项目: 

民用航天项目 D0100206

详细信息
    作者简介:

    闫赟彬(1997-),男,硕士研究生,主要研究方向:空间遥感器总体设计。E-mail: yunbin418@163.com

    通讯作者:

    崔博伦(1988-),男,工程师,主要研究方向:高光谱载荷设计研制和高光谱遥感定量化反演。E-mail: boluncui@qq.com

  • 中图分类号: P237

Multi-modal High-Resolution Hyperspectral Object Detection System Based on Lightweight Platform

  • 摘要: 为解决无人机高光谱成像仪体积大,探测效率低等问题,提出了一种轻小型多模态高分辨率高光谱成像仪。文中主要介绍了高光谱成像仪光学系统设计,数据采集及实时处理模块。通过切换扫描模式满足光谱特性分析,目标检测等不同领域的探测模式需求。采用低畸变、高通量、紧凑型分光光学系统设计实现无人机平台对光谱成像仪的重量要求和探测精度要求。根据设计需求实现产品的加工同时进行了性能测试,其中,MTF达到0.19,光谱分辨率3.5~5.4 nm。通过检测多种流水线中的杂质验证系统对实时目标检测的能力。实现结果表明,系统能够实现每秒2048 pixel×2048 pixel场景的高精度光谱异常目标探测,探测精度优于87%。
    Abstract: To solve the problems of large volume and low detection efficiency of UAV hyperspectral imagers, a light and small multi-modal high-resolution hyperspectral imager is proposed. This study primarily introduces the optical system design, data acquisition, and real-time processing modules of the hyperspectral imager. The proposed imager satisfies the detection mode requirements in different fields, such as spectral characteristic analysis and target detection, by switching the scanning mode. A low distortion, high throughput, and compact spectroscopic optical system design is adopted to meet the weight and detection accuracy requirements of the UAV platform for the spectral imager. The product was processed according to the design requirements and the performance was tested simultaneously. Among these, the MTF reached 0.19 and spectral resolution was 3.5–5.4 nm. The ability of the system to detect real-time targets was verified through detection of impurities in various pipelines. The implementation results showed that the system achieved high-precision spectral anomaly target detection in 2048 pixel×2048 pixel scenes per second with a detection accuracy greater than 87%.
  • 为解决红外成像系统存在的非均匀性问题,研究者们已经提出了很多的非均匀性校正方法,例如两点校正[1]、基于神经网络的方法和基于时域滤波的方法等[2-3]。然而其中绝大多数方法在设计时并未考虑积分时间这一因素,这些方法通常只适用于积分时间固定的应用。针对红外大动态范围成像[4]等任务对改变积分时间的需要,一些可变积分时间的非均匀性校正方法被提出。这类算法主要可分为两种:一种通过建立精确的含积分时间等变量的红外成像物理模型并求解模型参数实现[5-7],比如Chen等人[5]建立了含有入射照度、积分时间、探测器暗电流和偏置电压等变量的响应模型,提出了可变积分时间的二维定标非均匀性校正方法。另一种则不需要建立精确的解析模型,而是利用机器视觉中的辐射校准方法来实现,例如Ochs等人[8]提出了基于像素级辐射自校准的非均匀性校正方法,首先通过辐射自校准来估计场景的辐射通量图,再对辐射通量图进行非均匀性校正。

    本文在Ochs等人提出的校正方法的基础上,对该方法中的两个关键的步骤进行了改进,主要体现在使用多组不同积分时间的黑体图像序列进行辐射自校准以获得更准确的辐射响应方程,以及利用进行辐射自校准过程所使用的多组图像序列来计算非均匀性校正参数。

    对于典型红外成像系统,来自场景的红外辐射被光学系统汇聚在红外焦平面阵列上,经过有效的积分(曝光),焦平面的像元中红外光子经由光电转换及一系列电信号处理后被转化为相应的灰度值[9]。假设这些过程均为线性变换,且不考虑暗电流和噪声等影响时,则对于红外成像系统中的像元p,输出的灰度值Yp与到达成像系统的红外光的辐射通量Fp和积分时间tint的关系可以表示为:

    $$ Y_{p}=a_{p} F_{p} t_{\mathrm{int}}+b_{p} $$ (1)

    式中:ap为光学系统、光电转换和电信号处理等引起的增益;bp为电信号处理带来的偏移。

    如公式(1)所示,成像系统输出的灰度值与积分时间的关系通常被认为是线性的,因此能够以较方便的方法估计出场景的辐射通量,通过对辐射通量进行非均匀性校正处理来降低积分时间变化带来的影响。这也是绝大多数积分时间可变的非均匀性校正方法[5-8]实现的基础。虽然实际上在红外探测器的整个动态范围内,探测器输出信号与积分时间是非线性的,如图 1所示。但是在探测器的某段动态范围内,输出信号与积分时间之间具有很高的线性度。对于本文所使用的红外中波碲镉汞探测器,在其15%~85%的动态范围内,大多数像素关于积分时间的响应非线性度[10]小于0.2%,可认为在此范围内该探测器为线性响应。

    图  1  恒定辐照度时某像素输出信号与积分时间的关系
    Figure  1.  The relationship between the output signal of a pixel and the integration time under constant irradiance

    辐射自校准是一种估计场景辐射能量Q与场景图像(归一化)灰度Y之间映射关系Qf(Y)的方法,它假设可以通过N阶多项式建立的响应方程f来描述这种关系[11]。Ochs等人针对红外成像系统的非均匀性的特点,提出了一种基于像素级辐射自校准的非均匀性校正方法(以下简称Ochs方法)。该方法为探测器的每一个像元建立这种映射关系,考虑到辐射能量与辐射通量的关系QF·t,像素p的响应方程fp可以表示为:

    $${f_p}\left( {{Y_p}} \right) = {F_p} \cdot t = \sum\limits_{n = 0}^N {{a_{p,n}}Y_p^n} $$ (2)

    通常红外成像系统使用固定的F数,对某一固定温度的面源黑体采集J种不同积分时间的图像序列,可以得到不同图像所对应的辐射能量与积分时间比值R之间的关系:

    $${R_{j,j + 1}} = \frac{{{F_{p,j}}{t_j}}}{{{F_{p,j + i}}{t_{j + i}}}}$$ (3)

    式中:jj+i是图像序列的编号,将公式(2)代入,得到:

    $${R_{j,j + i}} = \frac{{\sum\limits_{n = 0}^N {{a_n}Y_{p,j}^n} }}{{\sum\limits_{n = 0}^N {{a_n}Y_{p,j + 1}^n} }}$$ (4)

    根据公式(4),可以得到像元p的误差方程,如公式(5)。结合约束fp(1)=1,通过最小化εp可以计算出响应方程fpN+1个多项式系数ap, n

    $${\varepsilon _p} = {\sum\limits_{j = 1}^{J - 1} {\sum\limits_{i = 1}^{J - j} {\left[ {\sum\limits_{n = 0}^N {{a_{p,n}}Y_{p,j}^n} - {R_{j,j + 1}}\sum\limits_{n = 0}^N {{a_{p,n}}Y_{p,j + }^n} } \right]} } ^2}$$ (5)

    在获得每个像素的响应方程后,可以估计出场景的辐射能量图,除以积分时间便能够得到场景辐射通量图的估计。由于光学系统的影响[8],以及辐射自校准方法计算出响应方程所固有的不确定性[11],还需要对获得的辐射通量图进行校正。对辐射通量图中像素p的校正使用公式(6)所示的线性校正模型完成,并使用两点校正方法计算出校正参数gpop,式中Fp*是校正后的辐射通量。

    $$ F_p^* = {g_p} \cdot {F_p} + {o_p} $$ (6)

    上文介绍的Ochs方法,采集固定在某一温度点的面源黑体的图像序列来计算出响应方程的多项式系数。然而经过实验发现Ochs方法中使用不同温度的黑体的图像序列计算出的响应方程和对应的误差ε有所差异,而差异大小与黑体温度之间并未呈现出明显的关联。例如黑体温度分为15℃、35℃和55℃时,Ochs方法计算出的2阶响应方程的平均误差$\bar \varepsilon $分别为4.57×10-5、3.74×10-5和3.93×10-5

    为了能够获得更准确且更稳定的结果,本文提出利用多个温度点的黑体图像序列来求解每个像素的响应方程的多项式系数。该方法对K种温度的面源黑体分别采集Jk种积分时间的图像(k=1, …, K),在误差方程(5)的基础之上,可以得到新的误差方程:

    $${\varepsilon _p} = \sum\limits_{k = 1}^K {\sum\limits_{j = 1}^{{J_k} - 1} {\sum\limits_{i = 1}^{{J_k} - j} {{{\left[ {\sum\limits_{n = 0}^N {{a_{p,n}}Y_{p,k,j}^n} - {R_{k,j,j + i}}\sum\limits_{n = 0}^N {{a_{p,n}}Y_{p,k,j + i}^n} } \right]}^2}} } } $$ (7)

    结合约束fp(1)=1,令误差方程最小化可求出响应方程的系数ap, n。需要注意的是,选取黑体的温度点时,其范围最好能够覆盖实际观测场景的温度范围。

    对于本文的方法,当采用黑体的温度点的数量K分别为2个、4个和9个时,得到的2阶响应方程通过公式(5)计算出的平均误差$\bar \varepsilon $分别为3.61×10-5、3.53×10-5和3.52×10-5,不难看出通过这种方法获得的结果相对更稳定。

    通过每个像素的响应方程估计出场景的辐射通量图后,还需要利用公式(6)进行非均匀性校正来得到校正图像。计算校正参数gpop最常见的方法是两点校正,即使用两幅不同温度的面源黑体的图像来计算[1]。为了能够充分利用辐射自校准过程中所用到的不同温度黑体的图像序列,而不是仅使用其中的两幅图像,本文通过公式(8)求解校正参数,即最小化所有图像中像素p的校正后的辐射通量Fl, p*与其期望数值${\bar F_l}$的相对偏差的平方和。公式(8)中,L是用于计算校正参数的黑体图像的总数量;${\bar F_l}$为图像校正后的期望值,通常希望经过非均匀性校正后的黑体图像的所有像素具有相同的输出,且校正前后图像的空域均值保持不变,因此这里${\bar F_l}$为辐射通量图像Fl的均值。

    校正参数的期望值${\hat g_p}$和${\hat o_p}$可以通过最小二乘法等优化算法计算得到。当输入图像只有两幅时,该方法得到的结果与两点校正方法的一样。

    $$({\hat g_p},{\hat o_p}) = \mathop {\arg \min }\limits_{({g_p},{o_p})} \frac{1}{2}\sum\limits_{l = 1}^L {{{\left( {\frac{{F_{l,p}^* - {{\bar F}_l}}}{{{{\bar F}_l}}}} \right)}^2}} $$ (8)

    本文提出的方法的处理流程如下:

    1)分别对K种温度面源黑体采集Jk种积分时间的图像,得到序列{Yk, j}并做归一化处理;

    2)使用{Yk, j}和积分时间{tk, j}利用公式(7)计算出每个像元的响应方程fp

    3)使用响应方程计算{Yk, j}对应的辐射通量图序列{Fk, j},并通过公式(8)获得校正参数{gp, op};

    4)对于待校正图像,先计算出待校正的辐射通量图,再使用公式(6)得到校正后的辐射通量图;

    5)若仅需输出图像,将校正后的辐射通量图乘以积分时间得到校正的图像。

    实验采集图像使用640×512中波红外碲镉汞焦平面阵列探测器组件和焦距30 mm的F/4镜头,探测器工作在ITR模式,采样ADC精度为14bit;高精度面源黑体使用HGH公司的DCN1000 N4,靶面尺寸为100 mm×100 mm。采集黑体图像时,调整镜头与黑体靶面间的距离确保靶面能够覆盖镜头视场。

    实验中以5℃为步长,分别采集15℃~100℃共18个温度点的黑体的图像。在确定至少能够覆盖探测器15%~85%的动态范围时任意挑选积分时间,每个温度点下分别采集8~15种积分时间的图像各1张,一共产生198张黑体图像。

    本文中,针对面源黑体的图像使用的偏移不均匀性NU[9, 12]进行评价,针对实际场景的图像使用粗糙度ρ[13]进行评价。

    另外,实验采集到的图像均会预先进行无效像元替换处理,所展示的红外图像均经过了非线性的自动增强处理。

    实验分别使用两点校正方法、Ochs方法和本文提出的方法处理图像数据。光子型红外探测器的响应线性度较好,2阶多项式模型足以拟合探测器的非线性性,因此Ochs方法和本文方法均使用2阶多项式模型建立响应方程。这3种方法中,两点校正使用积分时间为3 ms的20℃和75℃的图像计算校正参数;Ochs方法使用35℃的图像序列计算响应方程,使用20℃和90℃的图像来获取校正参数;本文方法使用15℃、30℃、50℃和90℃的图像数据计算响应方程和校正参数。

    这3种方法对198张黑体图像进行非均匀性校正处理后,校正后图像的偏移不均匀性NU的统计数据如表 1所示。表 1中可以看出,本文方法校正后的黑体图像的偏移不均匀性NU的均值,比未校正降低了98.3%,比两点校正降低了93.5%,比Ochs方法降低了24.1%,校正后图像NU的中值、最小值和最大值也均低于其他两种方法。

    表  1  3种方法处理前后的黑体图像的NU的统计数据
    Table  1.  NU statistics of the black body image before and after process of the three methods
    Method Mean NU Median NU Min NU Max NU
    Un-corrected 6.041% 6.489% 3.025% 8.583%
    Two-point 1.562% 1.081% 0.088% 6.024%
    Ochs 0.133% 0.128% 0.073% 0.281%
    Proposed 0.101% 0.098% 0.050% 0.205%
    下载: 导出CSV 
    | 显示表格

    另外,实验还使用该热像仪对一场景采集了4 ms、9 ms和12 ms三种积分时间的图像,两点校正、Ochs方法和本文方法校正后的图像如图 2所示。图 2中可以看出两点校正后的图像中存在亮点和暗点,且图像的积分时间偏离标定使用的积分时间(3ms)越多时亮点和暗点的数量越多;另外图像的四周还存在过补偿的情况,导致图像四周偏亮、中心偏暗,背景因对比度不足也难以辨别。相对于两点校正,Ochs方法和本文方法校正后的图像的效果均有较明显的提升,图像中均没有明显的固定图案噪声,比如暗角、四周过补偿、竖条纹、亮点和暗点等,图像经过增强后的对比度也更高。

    图  2  三种方法校正后的场景图像
    Figure  2.  Corrected scene images of three methods

    为了能够更客观地评价3种方法的校正效果,分别计算了9幅图像(增强之前)的粗糙度ρ,如表 2所示。3种方法中,本文方法校正后图像的粗糙度数值也最小。

    表  2  三种方法处理前后的场景图像的粗糙度ρ
    Table  2.  Roughness ρ of the scene images before and after theprocess of the three method
    Integration Time/ms Un-corrected Two-point Ochs Proposed
    4 0.11816 0.01032 0.00924 0.00904
    9 0.07297 0.00998 0.00900 0.00890
    12 0.06285 0.00989 0.00888 0.00876
    下载: 导出CSV 
    | 显示表格

    本文提出了一种基于像素级辐射自校准的红外图像非均匀性校正改进方法。该方法通过对估计出的场景的辐射通量图进行校正,实现了可变积分时间的非均匀性校正。该方法在辐射自校准的基础上,利用多个温度点下采集的面源黑体的不同积分时间的图像,获得了更准确且更稳定的像素级响应方程的估计,可以得到更准确的场景辐射通量的估计。该方法还将非均匀性校正参数的求解转化为了线性最小二乘问题,从而能够充分利用采集到的多温度点、多积分时间的图像,实现更好的非均匀性校正效果。实验表明,本文方法能够将线性响应范围内的任意积分时间下的红外图像的非均匀性降低至较低的水平。

  • 图  1   轻小型高光谱成像仪系统架构设计

    Figure  1.   Compact hyperspectral imager system architecture

    图  2   高光谱成像仪扫描模式设计图

    Figure  2.   Imaging spectrometer scanning mode design

    图  3   扫描模块结构设计

    Figure  3.   Scanning module structure design

    图  4   光学系统结构

    Figure  4.   Optical system structure diagram

    图  5   光学系统典型波长MTF

    Figure  5.   Optical system typical wavelength MTF

    图  6   数据采集与实时处理模块结构

    Figure  6.   Structure diagram of data acquisition and real-time processing module

    图  7   光谱异常提取算法架构

    Figure  7.   The architecture of pectral anomaly extraction algorithm

    图  8   基于二维奇异谱分解的高光谱非监督分类算法架构

    Figure  8.   Architecture of hyperspectral unsupervised classification algorithm based on 2DSSA

    图  9   光谱探测信噪比

    Figure  9.   Spectral probe signal-to-noise ratio

    图  10   轻小型高光谱成像仪外观

    Figure  10.   Appearance of a light and small hyperspectral imager

    图  11   中心视场靶标影像

    Figure  11.   Central field of view target image

    图  12   光谱响应拟合曲线

    Figure  12.   Spectral response fitting curves

    图  13   实验场景图

    Figure  13.   Experimental scene

    图  14   未知杂质类型检测结果

    Figure  14.   Detection results of unknown impurity type

    表  1   常用无人机平台光谱仪

    Table  1   Commonly used UAV platform spectrometer

    Manufacturers Project Spectral region/μm Spectral resolution /nm Pixel elements /pixel Field angle/° Mass/kg
    Specim FX10 0.4-1.0 5.5 b 1024 38c 1.26 d
    FX17 0.9-1.7 8 b 640 1.7 d
    Headwall Nano HyperSpec 0.4-1.0 6 b 640 17c 1.2 d
    Micro HyperSpec 0.4-1.0 5.8 b 1600 34c 3.9 d
    Resonon Pika L 0.4-1.0 3.3 b 900 13c 1.59 e
    Pika XC2 0.4-1.0 1.9 b 1600 23c 3.37 e
    Pika IR+ 0.9-1.7 5.6 b 640 21c 4.31 e
    HySpex Mjolnir V-1024 0.4-1.0 3 a 1024 20c 4 d
    Mjolnir S-620 0.97-2.5 5.1 a 620 4.5 d
    Note:a Spectral sampling interval. b Full width of spectral response function at half maximum. c FOV at common focal length.
    d Lens and image acquisition system not included. e Including image acquisition system.
    下载: 导出CSV

    表  2   光学系统设计指标

    Table  2   Optical system design indexes

    Parameters Indexes
    Spectrum range /μm 0.4~1.0
    F number 2.4
    Focal length /mm 25
    FOV/° 25
    Scanning angle /° -20~20
    Spectral resolution /nm 5
    Spectral sampling interval/nm 2.5
    Slits size 11.3 mm×0.09 μm
    Diffraction order -1
    MTF ≥0.45
    下载: 导出CSV

    表  3   不同场景下的成像条件

    Table  3   Imaging conditions in different scenes

    Surface reflection characteristic Solar zenith angle/°
    Forest 30
    Soil 30
    Albedo0.3 30
    Albedo0.3 45
    Albedo0.3 60
    下载: 导出CSV

    表  4   未知杂质类型时各杂质检测准确率

    Table  4   The detection accuracy of each impurity when the impurity type is unknown

    Impurity number Impurity type Impurity image Textual algorithm RXD
    Detection accuracy rate Detection accuracy rate
    1 White plastic 14 14 100% 14 100%
    2 Green plastic 13 12 92% 11 85%
    3 Blue plastic 11 9 82% 10 91%
    4 Cardboard 10 10 100% 9 90%
    5 Yellow plastic 14 9 64% 10 71%
    6 Bits of wood 12 10 83% 9 75%
    7 Froth 17 15 88% 13 76%
    8 Grey cardboard 14 13 93% 13 93%
    9 Red plastic 14 13 93% 14 100%
    10 Hemp rope 11 9 82% 8 73%
    Average - - 87% - 85%
    下载: 导出CSV

    表  5   已知杂质类型时各杂质检测准确率

    Table  5   The detection accuracy of each impurity when the impurity type is known

    Impurity number Impurity type Impurity image No impurity image Textual algorithm RXD algorithm
    Detection Accuracy rate False detection Rate for error detection Detection Accuracy rate False detection Rate for error detection
    1 White plastic 10 730 10 100% 68 9.32% 10 100% 59 8.08%
    2 Green plastic 10 730 10 100% 11 1.51% 10 100% 34 4.67%
    3 Blue plastic 10 730 10 100% 66 9.04% 10 100% 63 8.63%
    4 Cardboard 10 730 10 100% 72 9.86% 9 90% 68 9.32%
    5 Yellow plastic 10 730 10 100% 10 1.37% 10 100% 27 3.70%
    6 Bits of wood 10 730 10 100% 69 9.45% 10 100% 65 8.90%
    7 Froth 9 731 9 100% 67 9.17% 9 100% 56 7.67%
    8 Grey cardboard 10 730 10 100% 68 9.32% 10 100% 75 10.27%
    9 Red plastic 10 730 10 100% 43 5.89% 10 100% 31 4.25%
    10 Hemp rope 10 730 6 60% 80 10.96% 7 70% 95 13.01%
    - Average - - - 96% - 7.59% - 96% - 7.85%
    下载: 导出CSV
  • [1]

    Cocks T, Jenssen R, Stewart A, et al. The HyMap airborne hyperspectral sensor: the system, calibration and performance[C]//Proc. 1st EARSeL Workshop on Imaging Spectroscopy, 1998: 37-42.

    [2]

    Babey S K, Anger C D. Compact airborne spectrographic imager (CASI)[C]//Imaging Spectrometry of the Terrestrial Environment, 1930, DOI: 10.1117/12.157052.

    [3]

    Ulbrich G J, Meynart R, Nieke J. APEX-airborne prism experiment: the realization phase of an airborne hyperspectral imager[C]//Proceedings of SPIE-The International Society for Optical Engineering, 2004, 5570: 453-459.

    [4]

    Hamlin L, Green R O, Mouroulis P, et al. Imaging spectrometer science measurements for Terrestrial Ecology: AVIRIS and new developments[C]//Aerospace Conference. IEEE, 2011: 1-7.

    [5]

    Pullanagari R R, Kereszturi G, Yule I J. Quantification of dead vegetation fraction in mixed pastures using AisaFENIX imaging spectroscopy data[J]. International Journal of Applied Earth Observation & Geoinformation, 2017, 58: 26-35.

    [6]

    WANG Y. Wide-field-of-view visible and near infrared pushbroom airborne hyperspectral imager (Conference Presentation)[C]// Infrared Technology and Applications XLIV, 2018, 10624: 15-19.

    [7]

    Horstrand P, Guerra R, Rodriguez A, et al. A UAV platform based on a hyperspectral sensor for image capturing and on-board processing[J]. IEEE Access, 2019, 7: 66919-66938. DOI: 10.1109/ACCESS.2019.2913957.

    [8]

    QIN Jianwei, CHAO Kuanglin, Moon S Kim, et al. Hyperspectral and multispectral imaging for evaluating food safety and quality[J]. Journal of Food Engineering, 2013, 118(2): 157-171. DOI: 10.1016/j.jfoodeng.2013.04.001

    [9]

    Barreto M, Johansen K, Angel Y, et al. Radiometric assessment of a UAV-Based push-broom hyperspectral camera[J]. Sensors, 2019, 19(21): 4699. DOI: 10.3390/s19214699

    [10]

    Malenovsky Z, Lucieer A, Robinson S A, et al. Ground-based imaging spectroscopy data for estimation of Antarctic moss relative vigour from remotely sensed chlorophyll content and leaf density at ASPA[J]. Environmental Science, 2015, DOI: 10.4225/15/555C1DB80CB70.

    [11]

    Kanning M, I Kühling, Trautz D, et al. High-resolution UAV-based hyperspectral imagery for LAI and chlorophyll estimations from wheat for yield prediction[J]. Remote Sensing, 2018, 10(12): 2000. DOI: 10.3390/rs10122000

    [12]

    ZHU C, Kanaya Y, Tsuchiya M, et al. Optimization of a hyperspectral imaging system for rapid detection of microplastics down to 100 m[J]. Methods X, 2021, 8: 101175.

    [13]

    Lenhard, Karim, Schwarzmaier, et al. Independent laboratory character-rization of NEO HySpex imaging spectrometers VNIR-1600 and SWIR-320m-e[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(4): 1828-1841. DOI: 10.1109/TGRS.2014.2349737

    [14]

    Blaaberg S, T Løke, Baarstad I, et al. A next generation VNIR-SWIR hyperspectral camera system: HySpex ODIN-1024[C]//Electro-optical & Infrared Systems: Technology & Applications XI. International Society for Optics and Photonics, 2014, DOI: 10.1117/12.2067497.

    [15]

    Telmo A, Hruka Joná, Pádua Luís, et al. Hyperspectral imaging: a review on UAV-based sensors, data processing and applications for agriculture and forestry[J]. Remote Sensing, 2017, 9(11): 1110. DOI: 10.3390/rs9111110

    [16]

    Nex F, Armenakis C, Cramer M, et al. UAV in the advent of the twenties: Where we stand and what is next[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2022, 184: 215-242. DOI: 10.1016/j.isprsjprs.2021.12.006

    [17] 刘银年. "高分五号"卫星可见短波红外高光谱相机的研制[J]. 航天返回与遥感, 2018, 39(3): 25-28. https://www.cnki.com.cn/Article/CJFDTOTAL-HFYG201803004.htm

    LIU Y N. Visible-shortwave infrared hyperspectral imager of GF-5 satellite[J]. Spacecraft Recovery & Remote Sensing, 2018, 39(3): 25-28. https://www.cnki.com.cn/Article/CJFDTOTAL-HFYG201803004.htm

    [18]

    Stefano P, Angelo P, Simone P, et al. The PRISMA hyperspectral mission: Science activities and opportunities for agriculture and land monitoring[C]//Geoscience & Remote Sensing Symposium. IEEE, 2014: 4558-4561.

    [19]

    Iwasaki A, Tanii J, Kashimura O, et al. Prelaunch status of hyperspectral imager suite (Hisui)[C]//IEEE International Geoscience and Remote Sensing Symposium, 2019: 5887-5890.

    [20] 郭俊先. 基于高光谱成像技术的棉花杂质检测方法的研究[D]. 杭州: 浙江大学, 2011.

    GUO J X. Study on Detection of Cotton Trashes by Hyperspectral Imaging[D]. Hangzhou: Zhejiang University, 2011.

    [21] 汪瑶. 用于工业分拣的高光谱智能相机研究[D]. 合肥: 中国科学技术大学, 2012.

    WANG Y. Research on Hyperspectral Smart Camera for Industrial Sorting[D]. Heifei: University of Science and Technology of China, 2012.

    [22]

    Faqeerzada M A, Lohumi S, Kim G, et al. Hyperspectral shortwave infrared image analysis for detection of adulterants in almond powder with one-class classification method[J]. Sensors, 2020, 20(20): 5855. DOI: 10.3390/s20205855

    [23]

    YU F H, BAI J C, JIN Z Y, et al. Research on precise fertilization method of rice tillering stage based on UAV hyperspectral remote sensing prescription map[J]. Agronomy, 2022, 12(11): 2893. DOI: 10.3390/agronomy12112893

    [24]

    LIU X M, WANG H C, CAO Y W, et al. Comprehensive growth index monitoring of desert steppe grassland vegetation based on UAV hyperspectral[J]. Front Plant Sci. , 2023, 13: 1050999. DOI: 10.3389/fpls.2022.1050999.

    [25]

    Resonon Inc. Hyperspectral Imaging Solutions[EB/OL]. [2023-06-12]. https://resonon.com.

    [26] 李岩, 马越. 扫描线校正器校正量的实验室测试方法[J]. 航天返回与遥感, 2014, 35(2): 62-68. https://www.cnki.com.cn/Article/CJFDTOTAL-HFYG201402009.htm

    LI Y, MA Y. The laboratory scan line corrector test method[J]. Spacecraft Recovery & Remote Sensing, 2014, 35(2): 62-68. https://www.cnki.com.cn/Article/CJFDTOTAL-HFYG201402009.htm

    [27]

    ZENG Y, HAO D, Huete A, et al. Optical vegetation indices for monitoring terrestrial ecosystems globally[J]. Nature Reviews Earth & Environment, 2022(3): 477-493.

    [28]

    WANG Y, WANG L, YU C, et al. Constrained-target band selection for multiple-target detection[J]. IEEE transactions on geoscience and remote sensing: a publication of the IEEE Geoscience and Remote Sensing Society, 2019: 6079-6103, DOI: 10.1109/TGRS.2019.2904264.

    [29]

    Zabalza J, QING C, YUEN P, et al. Fast implementation of two-dimensional singular spectrum analysis for effective data classification in hyperspectral imaging[J]. Journal of the Franklin Institute, 2018, 355(4): 1733-1751. DOI: 10.1016/j.jfranklin.2017.05.020

    [30]

    Berk A, Anderson G P, Acharya P K, et al. MODTRAN (TM) 5, a reformulated atmospheric band model with auxiliary species and practical multiple scattering options: Update[C]//Proceedings of SPIE-The International Society for Optical Engineering, 2005, 5806: 662-667.

  • 期刊类型引用(2)

    1. 陆玉. 基于大数据分析的红外图像非均匀性自动化校对. 佳木斯大学学报(自然科学版). 2025(01): 39-42 . 百度学术
    2. 陈栋,孟奇,连细南. 高速飞行条件下红外探测关键技术研究. 舰船电子工程. 2022(10): 194-198 . 百度学术

    其他类型引用(6)

图(14)  /  表(5)
计量
  • 文章访问数:  176
  • HTML全文浏览量:  53
  • PDF下载量:  54
  • 被引次数: 8
出版历程
  • 收稿日期:  2023-02-21
  • 修回日期:  2023-04-27
  • 刊出日期:  2023-06-19

目录

/

返回文章
返回