面向红外与可见光图像融合的改进双鉴别器生成对抗网络算法

廖光凤, 关志伟, 陈强

廖光凤, 关志伟, 陈强. 面向红外与可见光图像融合的改进双鉴别器生成对抗网络算法[J]. 红外技术, 2025, 47(3): 367-375.
引用本文: 廖光凤, 关志伟, 陈强. 面向红外与可见光图像融合的改进双鉴别器生成对抗网络算法[J]. 红外技术, 2025, 47(3): 367-375.
LIAO Guangfeng, GUAN Zhiwei, CHEN Qiang. An Improved Dual Discriminator Generative Adversarial Network Algorithm for Infrared and Visible Image Fusion[J]. Infrared Technology , 2025, 47(3): 367-375.
Citation: LIAO Guangfeng, GUAN Zhiwei, CHEN Qiang. An Improved Dual Discriminator Generative Adversarial Network Algorithm for Infrared and Visible Image Fusion[J]. Infrared Technology , 2025, 47(3): 367-375.

面向红外与可见光图像融合的改进双鉴别器生成对抗网络算法

基金项目: 

2021年天津市科技领军(培育)企业重大创新项目 22YDPYGX00050

天津市多元投入基金重点项目 21JCZDJC00800

天津市应用基础研究项目 22JCZDJC00390

天津市教委科研计划项目 2021KJ018

天津市科技局技术创新引导专项基金 23YDTPJC00980

详细信息
    作者简介:

    廖光凤(1999-),女,硕士研究生,主要从事智能网联汽车技术方面的研究。E-mail:751790304@qq.com

    通讯作者:

    陈强(1981-),男,博士,硕士生导师,主要从事环境感知技术方面的研究。E-mail:chen@tute.edu.cn

  • 中图分类号: TP183

An Improved Dual Discriminator Generative Adversarial Network Algorithm for Infrared and Visible Image Fusion

  • 摘要:

    针对现有的红外与可见光图像融合算法对全局和多尺度特征提取不充分,对不同模态图像的关键信息提取不精准的问题,提出了基于双鉴别器生成对抗网络的红外与可见光图像融合算法。首先,生成器结合卷积和自注意力机制,捕获多尺度局部特征和全局特征;其次,将注意力机制与跳跃连接结合,充分利用多尺度特征并减少下采样过程中的信息丢失;最后,两个鉴别器引导生成器关注红外图像的前景显著目标和可见光图像的背景纹理信息,使融合图像保留更多关键信息。在公开数据集M3FD和MSRS上的实验结果表明,与对比算法相比,6种评价指标结果显著提高,其中平均梯度(Average Gradient, AG)在两个数据集上相较于次优结果分别提高了27.83%和21.06%。本文算法的融合结果细节丰富,具有较好的视觉效果。

    Abstract:

    An infrared and visible image fusion algorithm, based on a dual-discriminator generative adversarial network, is proposed to address issues, such as the insufficient extraction of global and multiscale features and the imprecise extraction of key information, in existing infrared and visible image fusion algorithms. First, a generator combines convolution and self-attention mechanisms to capture multiscale local and global features. Second, the attention mechanism is combined with skip connections to fully utilize multiscale features and reduce information loss during the downsampling process. Finally, two discriminators guide the generator to focus on the salient targets of the infrared images and background texture information of visible-light images, allowing the fused image to retain more critical information. Experimental results on the public multi-scenario multi-modality (M3FD) and multi-spectral road scenarios (MSRS) datasets show that compared with the baseline algorithms, the results of the six evaluation metrics improved significantly. Specifically, the average gradient (AG) increased by 27.83% and 21.06% on the two datasets, respectively, compared with the second-best results. The fusion results of the proposed algorithm are rich in detail and exhibit superior visual effects.

  • 高级辅助驾驶系统(Advanced Driving Assistance System,ADAS)是实现无人驾驶技术的重要基础,其中摄像头是环境感知的基本设备。使用两个摄像头拍摄时,可以在图像匹配的情况下测量障碍物的距离和大小,但车载摄像头拍摄速率高、曝光时间短[1],在现有的道路照明条件下,夜晚难以拍摄到高质量的障碍物图像[2];采用激光雷达能够准确测量物体的距离和大小,但激光雷达价格昂贵,并容易受到恶劣天气的影响,另外激光雷达难以准确地识别交通标志。为提高ADAS目标识别的准确度和运行速度,目前进行了很多图像识别的算法研究[3-5],但摄像头拍摄的图像质量会严重制约识别的效率。因此,提高车载摄像头拍摄图像的质量是一个重要的研究课题。

    采用主动红外系统能够以低成本的方式,拍摄出高质量图像。拍摄到的图像质量受照明条件的制约,道路照明经常不能满足拍摄高质量图像的要求,可以采用红外光进行补充照明,再通过红外相机拍摄出清晰的图像[6-7]。相比较而言,被动红外系统探测距离远,但探测器价格较高,难以普及。进口的高档汽车,如奔驰采用的是主动红外系统,而奥迪和宝马采用的是被动红外系统;国内的红旗等品牌的高端汽车大多采用的也是主动红外系统。

    为了提高对车辆周边物体识别的准确率,本文针对主动红外系统,设计了一种均匀照明光学系统。观瞄系统采用加装了可见光截止红外滤光片的黑白CCD(Charge Coupled Device)摄像头,在不考虑其他红外干扰的情况下,可以实现对本红外照明频率的最大响应。红外照明模块应在目标面处,达到照明均匀性和辐照度要求[8]。为实现好的均匀照明效果,现有设计采用双排复眼照明方法[9-13],但结构仍然比较复杂,本文提出一种结构简单的均匀照明方法,并进行了软件仿真。

    均匀照明技术的应用十分广泛,有两种常用的均匀照明方法。一种是自由曲面反射镜方法,其代替了早期的分块拼接的曲面反射镜方法,具体方法是建立光源经自由曲面到目标照明面的映射,求解微分方程,通过B样条插值和优化得到自由曲面反射镜[14-15],此方法适用于点光源;另一种是复眼照明方法,常使用两块参数一样的复眼透镜,对称放置,前后对应的子透镜为一子透镜组,经过各个子透镜组的光束通过聚焦透镜照射在整个目标面上并相互重叠,实现目标面均匀照明。

    本文使用复眼照明方法,相较于自由曲面反射镜方法,复眼照明方法匀光效果好、辐射能利用率高、设计简单。

    双排复眼照明方法可以应对准直光线有小发散角的情况,如小尺寸面光源发出的光线准直后有小的发散角,若使用双排复眼照明方法设计,此时前后两排子透镜还是一一对应关系,可以减弱光线小发散角带来的旁瓣,但其结构较为复杂。单排复眼透镜方法结构简单,但只适用于准直较好的光源。对于点光源,准直效果好,不需要双排复眼透镜解决小发散角问题,此时使用单排复眼照明方法更加简单。LED(Light Emitting Diode)光源在准直时完全可以当成点光源处理,而且使用率越来越高。因此,使用LED光源可以进一步简化复眼照明系统,并降低成本。

    国家标准[16]汽车近光灯和远光灯的测试距离是25 m,参考现有车灯照明标准,使用多个灯具分别向不同方向照射,向正前方照射距离达到25 m,向两侧的照射距离大于12 m,向后方照射距离大于6 m,红外照明面上的光斑应是均匀、稳定的矩形。

    表 1给出了向正前方照射的照明模块的光学指标,限于篇幅,向其他方向照射的性能指标不再一一列出。

    表  1  向正前方照射的灯具光学指标
    Table  1.  Optical indicators of lamps illuminating straight ahead
    Parameters Index
    Irradiance uniformity > 80%
    Irradiation distance/m 25
    Spot width and height/m 8×3
    Average irradiance/(W/m2) > 0.8
    下载: 导出CSV 
    | 显示表格

    设计之初,需要选好红外光源。综合考虑反射率、背景亮度、气象条件、光学元器件等因素[17],使用810 nm的红外光照明。经过比较后,采用OSRAM公司的SFH-4780S型红外LED,可以当成点光源,将其IES文件导入到ZEMAX\Objects\Sources\IESNA文件夹中。单颗红外LED的尺寸为3.5 mm×3.5 mm×2.39 mm,幅通量约为660 mW,辐射特性如图 1所示。

    图  1  红外LED的辐射特性
    Figure  1.  Radiation characteristics of the infrared LED

    本设计使用单排复眼照明方法,具体方法如下:先使用抛物反射面或消球差透镜准直LED光源发出的光线,再使准直后的光线通过单排复眼透镜即可实现目标面均匀照明。相较于双排复眼照明系统,本系统中每个光学通道的光线在准直后只受一块子透镜调制,各个通道在目标面上形成等大的光场区域并相互重叠。各个子透镜完全相同,为平凸透镜,其第二面采用二次曲面消除部分球差,可提高边缘辐照强度和系统的辐射能利用率。

    使用抛物面镜对LED发出的光线进行准直,将LED放在抛物面的焦点上。考虑到目标照明面较远,不使用聚焦透镜,通过调节复眼透镜的焦距,使各子透镜在目标面上形成的光场区域与目标面大小匹配,如图 2是照明系统的结构原理图。

    图  2  照明系统的结构原理图
    Figure  2.  Structural schematic diagram of the illumination system

    准直抛物面是无穷远点与焦点的等光程面,由Y-Z面的曲线绕Z轴旋转得到。以反射面左顶点为坐标原点,建立右手坐标系,反射面方程为:

    $$ z = \frac{1}{{4a}}({x^2} + {y^2}) $$ (1)

    式中:xyz为反射面上点的坐标,y取大于零部分,a为LED光源的Z坐标,即抛物面焦点,本设计将LED光源放置Z轴上5 mm处,辐射方向为Y轴正方向。为充分利用光源能量,抛物面半径取23 mm。

    复眼透镜采用PMMA(Polymethyl Methacrylate)材料,易于加工。下面将介绍如何得到子透镜参数。

    照明系统可以看成平行光入射各个子透镜,聚焦后继续传播,照射到照明面,如图 3是子透镜光路示意图。理想情况下,平行于光轴、入射高度为h的光线,经过焦距为f的聚焦透镜后,与光轴的夹角U可由式(2)得到:

    $$ f=h / \tan U $$ (2)
    图  3  子透镜光路
    Figure  3.  Optical path of sub lens

    理想情况下,平行于光轴均匀入射子透镜的光线,将在目标照明面上均匀分布。目标照明面宽度和高度之比为8:3,因此复眼透镜中每一块子透镜宽和高之比也为8:3。通过边缘光线分析,可得到公式[18]

    $$ \tan \theta = \frac{H}{{2D}} $$ (3)

    式中:θ为最大视场;H为目标面光斑的高度3 m;D为目标面的位置25 m,解得tanθ为0.06。当子透镜的半径确定时,焦距f就确定了,子透镜高度的近似计算公式为:

    $$ \frac{{{h_{\text{0}}}}}{2} = f*\tan \theta $$ (4)

    式中:h0为子透镜高度;f为子透镜焦距。

    若球差较大,将导致边缘光线与光轴的角度大于理想值,如图 4所示,边缘光线与子透镜光轴的交点F0′在像方焦点F′的左侧[18],与光轴的夹角也比理想值更大,边缘光线将射出目标面,边缘辐照强度弱,辐射能利用率低。

    图  4  对球差的分析
    Figure  4.  Analysis of spherical aberration

    使用二次曲面可以很好地消除球差。二次曲面公式如下:

    $$ z = \frac{{c{r^2}}}{{1 + \sqrt {1 - (1 + k){c^2}{r^2}} }} $$ (5)

    式中:c是曲率;r是矢径数值;k是圆锥系数。r越大,kz影响越大,面型越偏离球面,而r较小时接近球面,正好消除随r增大的球差。

    复眼照明将各个子光束在整个目标面重叠,因此在一定限度内,子透镜尺寸越小,单个子透镜接受到的平行光的均匀性越好,其在目标面成像越均匀。因制作工艺等原因,复眼透镜尺寸不能无限减小,每个子透镜单元的宽度设计为0.8 mm,高度为0.3 mm。使用公式(3),得到子透镜焦距为2.5 mm。

    子透镜的初始结构是在序列模式下得到的,子透镜厚度设置为3 mm,第一面为平面,固定子透镜的焦距为2.5 mm,优化第二面的半径和圆锥系数,得到消球差的子透镜参数。在非序列模式下,将复眼透镜中心设置在Y=12 mm处,将子透镜初始结构导入,X方向有60个子透镜,Y方向有80个子透镜。

    在ZEMAX中设置好初始结构,对1000万条光线追迹,同时微调子透镜第二面的半径和圆锥系数值。经过仿真发现,消除子透镜的部分球差可以实现均匀照明。优化后的子透镜厚度为3 mm,二次曲面的曲率半径为-1.212 mm,圆锥系数k为-1.82,图 5给出了优化后的目标照明面上的辐照度分布图,辐照度单位是W/m2,优化时设置光源能量为1 W。

    图  5  优化后的目标照明面的辐照度分布情况。(a) 伪彩色图;(b) Y方向;(c) X方向
    Figure  5.  Irradiance distribution on the target surface after optimizing. (a) Pseudo-color map; (b) Y direction; (c) X direction

    光线经过光学系统后,在25 m处的目标面上得到尺寸为8 m×3 m的矩形照明面,辐射能利用率达到98%,均匀性大于90%。

    在仿真中,尝试增大子透镜的尺寸,将子透镜宽度设置为1 mm左右并设置为变量,高度固定为0.375 mm,利用ZEMAX进行优化。结果表明,子透镜的宽度和高度比不是严格的8:3,原因是子透镜的球差与孔径有关,二次曲面无法同时满足X方向和Y方向球差校正的要求,此时需要调整子透镜的宽高比,以同时满足照明均匀性和照明面尺寸要求。在不考虑改变子透镜厚度和材料的情况下,本设计优化的自由度是子透镜第二面的半径、圆锥系数和宽度,避免了直接在非序列模式下优化时速度慢的问题。

    单个照明模块不能在目标面上达到0.8 W/m2的辐照度,使用30个光学结构组成平面阵列进行照明,如图 6所示。阵列的宽度和高度分别为244 mm和149 mm,在25 m处的目标照明面上,平均辐照度可达到0.81 W/m2,满足设计指标的要求。因为采用抛物反射面,系统尺寸较大,可以使用消球差透镜进行准直[10],系统尺寸将会减小。

    图  6  30个光学结构的平面阵列及其照明效果  (a) 照明模块阵列;(b) 照明效果
    Figure  6.  A planar array of 30 optical structures and its illumination effects. (a) Array illuminators; (b) Illuminating effect

    合理的公差分配能降低成本,减少制造、加工、装配的难度[19-20]。根据抛物面、复眼透镜的加工水平以及系统装配水平,初步分配公差。使用ZEMAX功能进行公差分析,进行了500次的模拟制造,目标面上的辐照度和均匀性基本满足要求,最终的公差分配如表 2所示。

    表  2  红外照明模块的主要公差分配
    Table  2.  Main tolerance allocation of infrared illuminators
    Type Tolerance
    Surface tolerances Radius/mm 0.04
    Thickness/mm 0.02
    PV(peak-to-valley)/μm 0.4
    Material Index 0.002
    Element tolerances Decenter X/mm 0.02
    Decenter Y/mm 0.02
    Decenter Z/mm 0.02
    Tilt X 0.04
    Tilt Y 0.04
    Tilt Z 0.02
    下载: 导出CSV 
    | 显示表格

    表 2中,Surface tolerance包括复眼透镜子透镜的曲率半径公差、厚度公差,以及二次曲面的PV值;Material是复眼透镜的材料,Index指折射率;Element tolerances包括装配过程中原件的偏心和旋转公差,decenter x是沿X轴的偏移,tilt x是以X轴旋转的角度。

    本文设计了一种红外照明装置,对ADAS中图像拍摄进行补充照明,以提高系统识别率。选择波长810 nm的LED光源,用抛物面反射镜将光线准直,使用复眼照明方法,在车辆正前方25 m处,实现了宽8 m、高3 m的均匀照明,辐照度均匀性大于90%,辐射能利用率达到98%;通过30个照明模块阵列对目标面进行照明,达到0.8 W/m2的照明要求。

    本文指出复眼照明系统的复杂程度主要取决于准直效果,当准直效果较好时不需要使用两块复眼透镜,只需要解决球差带来的边缘光线分布不均问题。本文提出的设计方法只使用一块复眼透镜,对准直后的光线进行角度调制,结构简单,装配公差宽松。使用二次曲面压缩边缘光线,使得辐射能利用率增大,边缘辐照度增强。本设计方法效率高,避免了在非序列模式下直接优化速度慢的问题,还便于调整照明面的尺寸。本设计方法适用于其他的照明系统,如紫外曝光机、工业扫描枪等。

  • 图  1   红外与可见光图像融合方案

    Figure  1.   Infrared and visible image fusion scheme

    图  2   CCA机制

    Figure  2.   CCA mechanism

    图  3   PA机制

    Figure  3.   PA mechanism

    图  4   生成器结构

    Figure  4.   The architecture of generator

    图  5   RDB结构

    Figure  5.   The architecture of RDB

    图  6   鉴别器结构

    Figure  6.   The architecture of discriminator

    图  7   夜间光照充足条件下对比结果

    Figure  7.   Comparison of results at night with sufficient light

    图  8   夜间昏暗条件下对比结果

    Figure  8.   Comparison of results in low light conditions at night

    图  9   大雾条件下对比结果

    Figure  9.   Comparison of results under foggy conditions

    图  10   隧道情况下对比结果

    Figure  10.   Comparison of results in tunnel case

    图  11   白天对比结果

    Figure  11.   Comparison of results under daylight conditions

    图  12   M3FD数据集定量分析

    Figure  12.   Quantitative analysis on the M3FD Dataset

    图  13   MSRS数据集定量分析

    Figure  13.   Quantitative analysis on the MSRS Dataset

    表  1   M3FD数据集的定量分析

    Table  1   Quantitative comparisons on the M3FD

    EN MI SF SD Qabf AG
    DDcGAN 6.3775 2.7990 6.7409 24.1168 0.2589 2.3080
    DenseFuse 6.6955 2.9281 9.2404 30.8108 0.4814 3.2054
    LRRNet 6.4355 2.8201 10.6596 27.1722 0.4892 3.5832
    NestFuse 6.7967 3.4503 10.9647 32.8006 0.5277 3.6390
    RFN-Nest 6.8659 2.8897 7.5290 33.3992 0.3754 2.7471
    Ours 6.8400 3.8980 13.4326 35.3704 0.5833 4.6136
    下载: 导出CSV

    表  2   MSRS数据集的定量分析

    Table  2   Quantitative comparisons of on the MSRS

    EN MI SF SD Qabf AG
    DDcGAN 5.8754 2.4820 5.7872 22.3322 0.2685 1.8848
    DenseFuse 6.1857 2.6777 7.3881 29.0080 0.4794 2.5167
    LRRNet 6.1925 2.9334 8.4421 31.7756 0.4440 2.6286
    NestFuse 6.5043 3.6730 9.7030 38.1962 0.6286 3.0880
    RFN-Nest 6.1957 2.4469 6.1339 29.0760 0.3749 2.1015
    Ours 6.6619 3.5331 11.4590 42.7672 0.6487 3.7383
    下载: 导出CSV

    表  3   消融实验的定量分析

    Table  3   Quantitative comparisons of ablation

    Models EN MI SF SD Qabf AG
    CCA+mask 6.4515 2.6611 9.4092 40.8056 0.5148 2.8907
    PA+mask 6.0226 2.1242 9.1762 37.3983 0.2622 2.4948
    PA+CCA 6.0910 2.1238 8.2665 32.3402 0.3747 2.3349
    Ours 6.6619 3.5331 11.4590 42.7672 0.6487 3.7383
    下载: 导出CSV
  • [1]

    ZHANG H, XU H, TIAN X, et al. Image fusion meets deep learning: a survey and perspective[J]. Information Fusion, 2021, 76: 323-336. DOI: 10.1016/j.inffus.2021.06.008

    [2] 谭明川, 聂仁灿, 张谷铖, 等. 基于深度学习的红外与可见光图像融合综述[J]. 云南大学学报(自然科学版), 2023, 45(2): 326-343.

    TAN M, NIE R, ZHANG G, et al. A review of infrared and visible image fusion based on deep learning[J]. Journal of Yunnan University (Natural Science Edition), 2023, 45(2): 326-343.

    [3]

    JIAN L, YANG X, LIU Z, et al. SEDRFuse: A symmetric encoder–decoder with residual block network for infrared and visible image fusion[J]. IEEE Transactions on Instrumentation and Measurement, 2020, 70: 1-15.

    [4]

    TANG L, YUAN J, ZHANG H, et al. PIAFusion: a progressive infrared and visible image fusion network based on illumination aware[J]. Information Fusion, 2022, 83: 79-92.

    [5]

    MA J, TANG L, XU M, et al. STDFusionNet: an infrared and visible image fusion network based on salient target detection[J]. IEEE Transactions on Instrumentation and Measurement, 2021, 70: 1-13.

    [6]

    Goodfellow I, Pouget Abadie J, Mirza M, et al. Generative adversarial nets[J/OL]. Advances in Neural Information Processing Systems, 2014: 2672-2680, https://arxiv.org/abs/1406.2661.

    [7]

    LIU J, FAN X, HUANG Z, et al. Target-aware dual adversarial learning and a multi-scenario multi-modality benchmark to fuse infrared and visible for object detection[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022: 5802-5811.

    [8]

    RAO D, XU T, WU X J. TGFuse: An infrared and visible image fusion approach based on transformer and generative adversarial network[J/OL]. IEEE Transactions on Image Processing, 2023, Doi: 10.1109/TIP.2023.3273451.

    [9]

    HUANG Z, WANG X, HUANG L, et al. Ccnet: Criss-cross attention for semantic segmentation[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019: 603-612.

    [10]

    ZHAO H, KONG X, HE J, et al. Efficient image super-resolution using pixel attention[C]//Computer VisionECCV, 2020: 56-72.

    [11]

    Ronneberger O, Fischer P, Brox T. U-net: Convolutional networks for biomedical image segmentation[C]//Medical Image Computing and Computer-Assisted Intervention–MICCAI, 2015: 234-241.

    [12]

    Sandler M, Howard A, ZHU M, et al. Mobilenetv2: Inverted residuals and linear bottlenecks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 4510-4520.

    [13]

    ZHANG Y, TIAN Y, KONG Y, et al. Residual dense network for image super-resolution[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 2472-2481.

    [14]

    SHI W, Caballero J, Huszár F, et al. Real-time single image and video super-resolution using an efficient sub-pixel convolutional neural network[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 1874-1883.

    [15]

    QIN X, ZHANG Z, HUANG C, et al. U2-Net: Going deeper with nested U-structure for salient object detection[J]. Pattern Recognition, 2020, 106: 107404. DOI: 10.1016/j.patcog.2020.107404

    [16]

    MA J, XU H, JIANG J, et al. DDcGAN: A dual-discriminator conditional generative adversarial network for multi-resolution image fusion[J]. IEEE Transactions on Image Processing, 2020, 29: 4980-4995. DOI: 10.1109/TIP.2020.2977573

    [17]

    LI H, WU X J. DenseFuse: A fusion approach to infrared and visible images[J]. IEEE Transactions on Image Processing, 2018, 28(5): 2614-2623.

    [18]

    LI H, XU T, WU X J, et al. Lrrnet: A novel representation learning guided fusion network for infrared and visible images[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2023, 45(9): 11040-11052. DOI: 10.1109/TPAMI.2023.3268209

    [19]

    LI H, WU X J, Durrani T. NestFuse: An infrared and visible image fusion architecture based on nest connection and spatial/channel attention models[J]. IEEE Transactions on Instrumentation and Measurement, 2020, 69(12): 9645-9656. DOI: 10.1109/TIM.2020.3005230

    [20]

    LI H, WU X J, Kittler J. RFN-Nest: An end-to-end residual fusion network for infrared and visible images[J]. Information Fusion, 2021, 73: 72-86. DOI: 10.1016/j.inffus.2021.02.023

    [21]

    TANG L, YUAN J, MA J. Image fusion in the loop of high-level vision tasks: A semantic-aware real-time infrared and visible image fusion network[J]. Information Fusion, 2022, 82: 28-42. DOI: 10.1016/j.inffus.2021.12.004

  • 期刊类型引用(9)

    1. 何邦盛,王忠华. 基于结构张量筛选和局部对比度分析的空中红外小目标检测算法. 红外技术. 2023(12): 1169-1176 . 本站查看
    2. 凡遵林,王浩,管乃洋,叶婷婷,孙骞冲. 单帧红外图像弱小目标检测研究综述. 红外技术. 2023(12): 1133-1140 . 本站查看
    3. 凡遵林,王浩,管乃洋,叶婷婷,孙骞冲. 单帧红外图像弱小目标检测研究综述. 红外技术. 2023(11): 1133-1140 . 本站查看
    4. 何邦盛,王忠华. 基于结构张量筛选和局部对比度分析的空中红外小目标检测算法. 红外技术. 2023(11): 1169-1176 . 本站查看
    5. 刘征,杨德振,李江勇,黄成章. 红外单帧弱小目标检测算法研究综述. 激光与红外. 2022(02): 154-162 . 百度学术
    6. 黄建军,彭雪梅. 基于数据驱动的激光图像弱小目标定位研究. 激光杂志. 2022(09): 109-113 . 百度学术
    7. 禤世丽,张茂胜,甘永进. 低质量红外偏振图像的边缘提取方法. 激光杂志. 2021(07): 79-83 . 百度学术
    8. 王曙光,石胜斌,胡春生. 一种对空红外弱小目标检测跟踪方法研究. 红外技术. 2020(04): 356-360 . 本站查看
    9. 廖红菊. 基于压缩感知的电气设备红外图像目标检测数学建模分析. 自动化与仪器仪表. 2020(10): 47-50 . 百度学术

    其他类型引用(14)

图(13)  /  表(3)
计量
  • 文章访问数:  45
  • HTML全文浏览量:  2
  • PDF下载量:  16
  • 被引次数: 23
出版历程
  • 收稿日期:  2024-05-18
  • 修回日期:  2024-07-21
  • 刊出日期:  2025-03-19

目录

/

返回文章
返回
x 关闭 永久关闭

尊敬的专家、作者、读者:

端午节期间因系统维护,《红外技术》网站(hwjs.nvir.cn)将于2024年6月7日20:00-6月10日关闭。关闭期间,您将暂时无法访问《红外技术》网站和登录投审稿系统,给您带来不便敬请谅解!

预计6月11日正常恢复《红外技术》网站及投审稿系统的服务。您如有任何问题,可发送邮件至编辑部邮箱(irtek@china.com)与我们联系。

感谢您对本刊的支持!

《红外技术》编辑部

2024年6月6日