空间相机大功率热源散热设计

董奎辰, 郭亮, 黄美娇, 刘春雨

董奎辰, 郭亮, 黄美娇, 刘春雨. 空间相机大功率热源散热设计[J]. 红外技术, 2023, 45(5): 521-526.
引用本文: 董奎辰, 郭亮, 黄美娇, 刘春雨. 空间相机大功率热源散热设计[J]. 红外技术, 2023, 45(5): 521-526.
DONG Kuichen, GUO Liang, HUANG Meijiao, LIU Chunyu. Heat-Dissipation Design for Space Camera High-Power Heat Source[J]. Infrared Technology , 2023, 45(5): 521-526.
Citation: DONG Kuichen, GUO Liang, HUANG Meijiao, LIU Chunyu. Heat-Dissipation Design for Space Camera High-Power Heat Source[J]. Infrared Technology , 2023, 45(5): 521-526.

空间相机大功率热源散热设计

基金项目: 

国家自然科学基金 61605203

中国科学院青年创新促进会资助项目 2015173

详细信息
    作者简介:

    董奎辰(1998-),男,硕士研究生,主要从事航天器热控制方面的研究。Email:dongkuichen6694@qq.com

    通讯作者:

    郭亮(1982-),男,博士研究员,博士生导师,主要从事航天器热控制、智能热控制和空间机器人方面的研究。Email:guoliang@ciomp.ac.cn

  • 中图分类号: V444.3+6

Heat-Dissipation Design for Space Camera High-Power Heat Source

  • 摘要: 为解决复杂外热流下散热面难以确定的难题,基于散热面总到达外热流最小的设计原则,对空间相机大功率热源散热设计进行研究。首先,根据相机所处空间环境分析相机受到的外热流。接着,通过分析外热流与热源工作模式,采用在相机两侧设置辐射冷板散热并通过热管耦合的方式,增大了热源的散热效率,减小了辐射冷板的面积。最后,根据相机所处空间环境和采取的热控措施利用热仿真软件进行了热分析验证。仿真结果表明:可见光组件温度为-1.9℃~12.9℃,红外组件温度为1.7℃~10.5℃,制冷机热端温度为-12℃~0.3℃,制冷机压缩机温度为-11.3℃~21.3℃。满足温控指标要求,解决了复杂外热流下相机大功率热源的散热问题。
    Abstract: To solve the difficulty of selecting an appropriate heat sink for complex heat flows, the design of high-power heat sources for space cameras was investigated based on the design principle of reducing the total heat flow to a heat sink. First, the heat flow to a camera was analyzed according to a space environment. Subsequently, by analyzing the heat flow and working mode of the heat source, the efficiency of heat dissipation from the heat source and the area of the radiant cooling plates were reduced by installing radiant cooling plates on both sides of the camera and coupling them through heat pipes. Finally, the thermal analysis was verified using a thermal simulation software based on the camera's space environment and the thermal control measures taken. The simulation results showed that the temperature of the visible focal plane component was -1.9℃ to 12.9℃, the temperature of the infrared camera circuit board was -1.7℃ to 6.7℃, the temperature of the hot end of the chiller was -12℃ to 0.3℃, and the temperature of the chiller compressor was -11.3℃ to 21.3℃. The temperature index requirements were satisfied, and the problem of heat dissipation from the high-power heat source of the camera under complex heat flow was solved.
  • 图像融合属于信息融合的一部分,其目的是针对同一场景,将来自不同传感器的图像联合起来,生成一幅信息丰富的融合图像,以便于后续处理。CT、磁共振成像、可见光图像与红外图像属于不同成像类型的源图像,在这些源图像组合中,本文重点研究红外与可见光图像融合,原因如下:第一,红外图像通过捕获物体热辐射信息成像,可见光图像通过捕获反射光成像,二者成像原理不同,因此可以从不同的角度提供互补信息。第二,红外图像和可见光图像几乎可以呈现所有物体的固有特性。可见光图像分辨率高,色彩和纹理信息丰富,但容易受到恶劣天气的影响;红外图像中热辐射信息丰富,目标突出,不受天气影响,但分辨率低,细节不清晰,利用二者的优势进行图像融合可以得到一幅信息丰富的图像。此外,这些图像可以通过相对简单的设备获得。因此,红外与可见光图像融合技术可以比其它融合方案应用范围更广,例如可以应用到目标识别[1]、目标检测[2]、图像增强[3]、监控[4]和遥感[5]等领域。

    图像融合包括像素级融合、特征级融合和决策级融合方法。像素级融合方法只对图像信息作特征提取并直接使用,代表性的方法包括变换域的各向异性扩散融合(anisotropic diffusion fusion, ADF)[6]、交叉双边滤波(cross bilateral filter, CBF)[7]和最小加权二乘法(weighted least square, WLS)[8]和稀疏域的自适应稀疏表示(adaptive sparse representation, ASR)[9]、拉普拉斯金字塔(laplacian pyramid, LP)[10]等方法。在变换域方法中,比较热门的是基于多尺度变换[11]的方法,但其忽略了融合过程中的空间一致性,容易在融合图像中引入光晕。稀疏域的方法[12]需要构建一个过完备字典,需要多次迭代,非常耗时。近年来,针对特征级图像融合,国内外学者提出了许多基于深度学习的融合方法。2017年,Prabhakar等人[13]提出了基于卷积神经网络的图像融合方法,该方法适用于多曝光图像融合,网络结构简单,仅使用编码网络中最后一层计算的结果,会造成中间层有用特征信息丢失的问题。2018年,Ma等人[14]提出了一种以生成对抗网络为模型的图像融合方法(FusionGAN),该方法通过生成器与判别器对抗性训练产生融合图像,无需预训练,是端到端的无监督学习模型,但其生成器与判别器网络结构相对简单,可以进行优化改进。2018年,Li等人[15]提出了一种基于深度网络的红外与可见光图像融合方法,该方法使用VGG网络为特征提取工具,在计算时参数较多,耗费大量计算资源。2019年,Li等人[16]提出了以密集连接网络为模型的图像融合方法(Dense Fuse),训练时只考虑编码层与解码层,不考虑融合层,测试时需要根据不同情况来设计融合规则。2020年,董安勇[17]等人改进了以卷积神经网络为模型的图像融合方法,有效地解决了低频子带融合模式给定的问题,同时又克服了手动设置参数的缺陷。2020年,Xu等人[18]提出了一种端到端的统一无监督学习(U2Fusion)图像融合方法,可以解决多模态、多聚焦和多曝光图像融合问题,但这种方法训练起来非常复杂,且占用大量内存资源。

    上述方法主要针对清晰明亮的图像进行融合。可见光图像在照明条件良好的情况下纹理清晰,红外图像在光照较差和存在烟雾的条件下也能较好地凸显出目标,二者在不同条件下各有所长,考虑到图像融合应该适应环境改变为源图像分配权重,从而更加合理地利用多模态信息,于是,本文提出一种模态自适应的红外与可见光图像融合方法(MAFusion)。主要工作如下:①采用双路特征提取网络针对性的提取成像特点不同的两类图像特征,以减少特征丢失;②建立自适应加权模块,通过双流交互学习红外与可见光图像差异,得到当前环境条件下两种模态在融合图像中所占的权重;③在图像融合过程中加入残差块与跳跃残差组合模块,补充融合图像的多尺度特征,提升网络性能;④在TNO和KAIST数据集上将MAFusion与其他方法进行对比实验,实验结果证明本文方法效果较好。

    生成对抗网络是由Goodfellow等人[19]提出的,由生成器(generative,G)和判别器(discriminative,D)组成。生成器用来生成需要的图片,判别器类似图像分类器,判断图片是由生成器生成的融合图像还是真实的可见光图像。训练后得到一个比较智能的自动生成器和一个判断能力较强的分类器。GAN模型的优化函数公式(1)所示:

    $$ \begin{gathered} \mathop {\min }\limits_G \mathop {\max }\limits_D V\left( {D,G} \right) = {E_{x{\text{~}}{p_{{\text{data}}}}\left( x \right)}}\left[ {\lg D\left( x \right)} \right]{\text{ + }} \hfill \\ \quad {E_{z{\text{~}}{p_z}\left( z \right)}}\left[ {\lg \left\{ {1 - D\left[ {G\left( z \right)} \right]} \right\}} \right] \hfill \\ \end{gathered} $$ (1)

    式中:E(*)表示分布函数的期望值;x表示输入的真实值;z表示输入生成器的噪声大小;pdata(x)表示真实样本的分布;pz(z)是定义在低维的噪声分布;希望D(x)越大越好,D[G(z)]越小越好,函数的目的是将最大损失最小化,即可得到损失函数的最优解。

    为解决模型增加网络深度后网络性能变差的问题,何凯明等人[20]创新性地提出了深度残差网络ResNet。残差网络的主要思想是将输入层通过跳跃连接与卷积层后的输出相加,有效地解决了梯度消失问题。残差块的结构如图 1所示,其中F(x)为残差学习函数,该函数的学习相对容易,有助于提取深层特征信息,激活函数为Relu。

    图  1  残差块结构图
    Figure  1.  Residual block structure

    在深度学习图像融合方法中,大多数方法采用相同的编解码网络进行特征提取,由于红外与可见光图像来自不同的信号,采用相同的编解码网络会造成突出特征提取不当的问题,因此,本方法将采用双流特征提取网络更具针对性地提取两类图像的特征。

    传统的模态堆叠策略在训练过程中对两类源图像在通道维按1:1的权重直接Concat级联,没有考虑两类图像在不同环境条件的优缺点,容易引入冗余特征,降低融合图像质量,因此需要一种融合策略能够自适应环境改变提取红外与可见光两个模态的重要特征,因此设计自适应加权模块为两个模态分配合理的权重。

    为了提高模型性能,使网络训练更加容易,同时解决反向传播时的梯度消失问题,本文方法引入了残差块,将Conv1的输出直接连接到Conv3后。利用残差块的恒等映射和跨层连接使前向传播与反向传播更加容易,同时有助于补充多尺度特征。在生成器网络中构建跳跃残差块,这种大幅度跨层连接方式使前后层特征联系更加密切,可以获取更多有利特征信息。

    本方法主体网络为GAN,包括生成器与判别器。生成器是整个模型的主要网络,影响最终融合图像的质量,主要用来生成可以骗过判别器的融合图像。判别器的作用不被生成器生成的图像骗过,经过训练达到很强的区分可见光图像与生成器生成的融合图像的能力。生成器与判别器均参与训练过程,测试时则直接利用训练好的生成器模型生成融合图像。

    训练过程如下:

    1)将红外与可见光图像随机采样级联输入生成器,得到初步融合图像(标记为假数据),记为D(F);

    2)将可见光图像作为真实数据,随机采样记为x

    3)将前两步中某一步产生的数据(标记为假数据的融合图像和标记为真实数据的可见光图像)输入判别器,判别网络的输出值为该输入属于真实数据(可见光图像)的概率,真为1,假为0。

    4)然后根据得到的概率值计算损失函数;

    5)根据判别模型和生成模型的损失函数,利用反向传播算法,更新模型的参数。先更新判别模型的参数,然后通过再采样得到的红外与可见光图像更新生成器的参数。

    生成器包含了双路输入与特征提取模块、自适应加权模块、残差块、跳跃残差块、特征重构模块和输出模块6个部分,其网络结构图如图 2所示。

    图  2  生成器网络结构图
    Figure  2.  Structure diagram of generator network

    生成器首先对红外图像和可见光图像进行特征提取,然后通过Concat操作将二者特征图级联为256通道特征图,再输入权值学习融合网络,完成权值分配。然后,重新分配权值的融合特征输入一个普通卷积Conv1后,进入残差块与跳跃残差模块,以实现提取深层特征的同时保留浅层特征;最后,通过输出模块进行特征重构得到融合图像。其具体网络结构参数见表 1

    表  1  生成器网络整体结构
    Table  1.  Overall structure of generator network
    layer k s n1 Input n2 Output fill function
    Feature extraction l0_ir 5×5 1 1 VIS 128 Conv0_ir VALID LReLU
    l0_vis 5×5 1 1 IR 128 Conv0_vis VALID LReLU
    Adaptive weighting module L11_w_ir 3×3 1 256 Concat(Conv0_ir, Conv0_vis) 128 ir_weight SAME LReLU
    L22_w_vis 3×3 1 256 Concat(Conv0_ir, Conv0_vis) 128 vis_weight SAME LReLU
    Routine
    convolution
    Layer1 5×5 1 256 Concat[multiply(Conv0_ir, ir_weight),
    multiply(Conv0_vis, vis_weight)]
    128 Net1 VALID LReLU
    Residual block Layer2 3×3 1 128 Net1 128 Net2 SAME LReLU
    Layer3 3×3 1 128 Net2 128 Net3 SAME -
    Add1 - - - Net1/Net3 - Net1+Net3 - LReLU
    Transfer layer Layer4 3×3 1 128 LReLU(Net1+Net3) 128 Net4 SAME LReLU
    Jump residual Add2 - - - Net1/net4 - Net1+net4 - -
    Output layer Layer5 3×3 1 128 Net4 64 Net5 VALID LReLU
    Layer6 3×3 1 64 Net5 32 Net6 VALID LReLU
    Layer7 1×1 1 32 Net6 1 Fused VALID tanh
    下载: 导出CSV 
    | 显示表格

    表中字母及缩写定义如下:VIS代表可见光图像,IR代表红外图像,ir_weight为红外图像权重,vis_weight为可见光图像权重,k表示卷积核大小,s表示移动步长,n1表示输入通道数,n2表示输出通道数。

    判别器希望训练出来的模型具有很强的判别输入图像是融合图像或可见光图像的能力,它以可见光图像为真实参考值,希望不被生成器生成的融合图像骗过,输出的判别值在(0, 1)之间,该值越趋近于1表明判别能力越强,即越趋向于真实参考值(可见光图像)。其网络结构如图 3所示。

    图  3  判别器网络结构图
    Figure  3.  Structure diagram of generator network

    判别器由4个卷积层、一个特征线性转换模块和一个线性层组成,卷积层以3×3大小的卷积核进行特征提取,填充方式均为VALID,激活函数为LeakyReLU,卷积层2、3和4使用BatchNorm来提高模型收敛速度。判别器的网络结构及参数信息见表 2

    表  2  判别器网络整体结构
    Table  2.  Overall structure of discriminator network
    Layer k s n1 Input n2 Output Padding Activation function
    Conv_1 5×5 2 1 VIS/Fused 32 Net1 VALID LReLU
    Conv_2 3×3 2 32 Net1 64 Net2 VALID LReLU
    Conv_3 3×3 2 64 Net2 128 Net3 VALID LReLU
    Conv_4 3×3 2 128 Net3 256 Net4 VALID LReLU
    Line_5 - - - Net4 - Net5(6*6*256) - -
    Output - - - Net5 1 Discriminant value (1) - -
    下载: 导出CSV 
    | 显示表格

    表中字母缩写定义如下:VIS代表可见光图像,Fused代表融合图像,k表示卷积核大小,s表示移动步长,n1表示输入通道数,n2表示输出通道数。

    为了在融合图像中充分利用红外图像目标区域的热辐射信息,保留可见光图像有利的纹理信息,抑制噪声等干扰信息引入融合图像,提出自适应加权模块来根据环境变化为两个模态分配合理的权重值,将源图像在当前环境条件下的优势充分体现出来。在生成器中,将该模块嵌入红外图像与可见光图像输入之后,最终得到一个包含两模态重要特征的融合特征图。其网络结构图如图 4所示。

    图  4  自适应加权模块结构图
    Figure  4.  Adaptive weighted fusion module structure diagram

    该模块以前一阶段得到的红外与可见光各自特征图Concat作为输入,首先通过一个3×3卷积分离两类特征,然后通过sigmoid函数计算当前环境下的红外图像与可见光图像所占的比例,红外权重矩阵Wir和可见光权重矩阵Wvis的计算公式如式(2)所示:

    $$ \begin{gathered} {\boldsymbol{W}_{{\text{ir}}}} = \sigma \left( {{C_1} * {S_{\text{f}}} + {b_1}} \right) \hfill \\ {\boldsymbol{W}_{{\text{vis}}}} = \sigma \left( {{C_2} * {S_{\text{f}}} + {b_2}} \right) \hfill \\ \sigma \left( x \right) \triangleq \frac{1}{{1 + {{\text{e}}^{ - x}}}} \hfill \\ \end{gathered} $$ (2)

    式中:C1C2表示卷积权重;b1b2为卷积偏置;WirWvis通过自主学习得来。最后将获得的权重与原始特征图像在通道维相乘,再与源图像相加以避免特征丢失,从而得到两个模态的优势特征,干扰信息被很好地抑制。

    为解决由于网络过深导致反向传播时梯度消失的问题,本文方法引入了残差块,学习到的残差信息有助于补充多尺度特征。同时,为了增加特征图前后层的关联性,降低网络训练复杂性,在残差块的输入与其后卷积层的输出通过跳跃连接相连,构建了一个跳跃残差模块。残差块与跳跃残差块的结构图如图 5所示。

    图  5  残差块及跳跃连接组合模块
    Figure  5.  Combined module of residual block and jump connection

    MAFusion的损失函数包括两部分:生成器损失和判别器损失。生成器损失计算融合图像与源图像之间的差别;判别器损失以可见光图像作为标签,训练辨别可见光图像与融合图像的能力。

    1)生成器损失函数

    生成器损失LG包含对抗损失LAdv及内容损失Lcon,其定义如式(3)所示:

    $$ L_\text{G}=L_\text{Adv}+L_\text{con}$$ (3)

    内容损失Lcon是生成器的主要损失函数,约束了融合图像与源图像间的相关性及重点提取红外图像与可见光图像的有利信息。内容损失越小,融合图像中源图像的特征越多,其定义如式(4)所示:

    $$ {L_{{\text{con}}}} = \frac{1}{{HW}}\left( {\left\| {F - I} \right\|_{\text{F}}^{\text{2}} + \xi \left\| {\nabla F - \nabla I} \right\|_{\text{F}}^{\text{2}}} \right) $$ (4)

    对抗损失LAdv是生成器与判别器交互的损失函数,其定义如式(5)所示:

    $$ {L_{{\text{Adv}}}} = \frac{1}{N}\sum\limits_{n - 1}^N {{{\left[ {D\left( F \right) - a} \right]}^2}} $$ (5)

    式中:D(F)为判别器对融合图像的判别结果,在(0, 1)之间;a为软标签(取值不确定的标签)。判别器希望融合图像向可见光图像靠近,其值越大越好,又要保证损失最小,根据文献[14]将软标签a的取值范围设置为(0.7, 1.2)。

    2)判别器损失函数

    判别器损失LD的目的是约束判别器网络反向传播参数更新,使判别器在训练后具有分辨可见光图像和融合图像的能力,其定义如式(6)所示:

    $$ {L_D} = \frac{1}{N}\sum\limits_{n = 1}^N {{{\left[ {D\left( V \right) - b} \right]}^2}} + \frac{1}{N}\sum\limits_{n = 1}^N {{{\left[ {D\left( F \right) - c} \right]}^2}} $$ (6)

    式中:D(V)表示判别器对可见光图像的判别结果;D(F)表示判别器对融合图像的判别结果,bc为软标签(取值不确定的标签),根据文献[14]将b的范围设置为(0.7, 1.2),将c的范围设置为(0, 0.3)。

    实验在Windows10操作系统和NVIDIA GTX 1080Ti GPU上完成,框架为TensorFlow 1.12.0,训练与测试平台为PyCharm。本文方法的训练集是在TNO[21]数据集中选择了39对不同场景的红外和可见光图像,以步长15将39对图像分成30236对120×120的红外图像与可见光图像,最后的融合图像为生成器输出图像的拼接。判别器训练次数设置为2,学习率设为0.00001,将batch_size设置为32,训练迭代次数设置为20次。本节采用TNO数据集的18对白天图像和KAIST[22]数据集的14对夜间图像评估MAFusion的性能。选择ADF[6]、CBF[7]、WLS[8]、FusionGAN[14]、Densefuse[16]和U2Fusion[18]6种方法与MAFusion作对比实验,对融合图像进行主观评价和客观评价。对比实验图片由MATLAB及PyCharm程序生成,客观评价指标计算通过MATLAB软件编程实现。

    MAFusion与对比方法在KAIST数据集中夜晚路灯下的“道路与行人”实验结果如图 6所示。

    图  6  KAIST数据集中“道路与行人”融合结果
    Figure  6.  Fusion results of "road and people" in KAIST dataset

    图 6的实验结果可以看出:图 6(c)中,道路右边的车轮廓模糊,整幅图像清晰度较低;图 6(d)中,整体噪声大,路灯中心有明显的黑块;图 6(e)中,道路右边的人边缘不清晰,整体纹理细节信息少;图 6(f)中,人和车的轮廓模糊;图 6(g)中,整体背景偏暗,视觉效果较好;图 6(h)中,图像整体较为平滑,路灯周围有光晕;图 6(i)中,整体背景较亮且清晰,目标突出,抑制路灯周围的光晕,能清楚地识别楼层、路灯、行人和车辆等目标。

    MAFusion与对比方法在TNO数据集中的“烟雾中的士兵”实验结果如图 7所示。

    图  7  TNO数据集中“烟雾中的士兵”融合结果
    Figure  7.  Fusion results of "a soldier in the smog" in KAIST dataset

    图 7的实验结果可以看出:图 7(c)、(h)中,能看到士兵与树木,但轮廓较模糊;图 7(d)中,图像整体上被烟雾笼罩,无法识别士兵,图像整体噪声较大,且有不连续的黑块;图 7(e)中,士兵轮廓不清晰,烟雾的干扰信息较多,图像不平滑;图 7(f)中,人与汽车的轮廓都比较模糊,图像较平滑,仍有烟雾的干扰信息;图 7(g)中,图像较清晰,但没有抑制烟雾的干扰,士兵轮廓不清晰;图 7(i)中,士兵与树木轮廓清晰可见,抑制了烟雾的干扰,重点目标突出,图像整体平滑,有利信息得到了良好地体现。

    MAFusion与对比方法在TNO数据集中的“士兵与车辆”实验结果如图 8所示。

    图  8  TNO数据集中“士兵与车辆”融合结果
    Figure  8.  Fusion results of "soldiers and vehicles " in TNO dataset

    图 8的实验结果可以看出:图 8(c)中,背景较暗,图像整体不够平滑;图 8(d)中,整体呈现颗粒状,有不连续的黑块,视觉效果差,整体噪声较大;图 8(e),图像整体较模糊,窗户与左侧暗处的树木轮廓不清晰;图 8(f)中,人的轮廓信息不清楚,部分可见光图像细节信息丢失;图 8(g)中,整体偏暗,人、车、树木、房屋均较清晰,但天空中的云轮廓较模糊;图 8(h)中,图像较平滑,但房屋的窗户、车窗与左侧树木的轮廓不清晰;图 8(i)中,整体较清晰,图像平滑,可以清晰看到房屋窗户的轮廓,车辆、房屋、士兵、地面、路灯和树木都清晰可见,细节信息丰富,热辐射信息也得到了较好的体现。

    为了进一步评价融合图像的融合效果,使用客观评价方法进行评估。选择信息熵EN、互信息MI和基于噪声评估的融合性能Nabf为测评指标,从图像信息丰富度、信息互补性和噪声等不同角度对融合图像进行评价。以下为测评指标的计算公式。

    1)信息熵[23]EN。其值大小能够体现融合图像中平均信息量的多少,其定义如式(7)所示:

    $$ {\text{EN}} = {\sum\nolimits_{i{\text{ = }}0}^L p _i}{\log _{\text{2}}}{p_i} $$ (7)

    信息熵越大越好,表明图像所含信息越丰富。

    2)互信息[24]MI。该指标表示融合图像包含源图像的信息量大小,其值越大越好,计算方法如式(8)所示:

    $$ \begin{array}{*{20}{c}} {{\text{M}}{{\text{I}}_{A,F}} = \sum\limits_{i = 1}^{L - 1} {\sum\limits_{j = 1}^{L - 1} {{h_{A,F}}\left( {i,j} \right)} } \cdot {{\log }_2}\frac{{{h_{A,F}}\left( {i,j} \right)}}{{{h_A}\left( i \right) + {h_F}\left( j \right)}}} \\ {{\text{M}}{{\text{I}}_{B,F}} = \sum\limits_{i = 1}^{L - 1} {\sum\limits_{j = 1}^{L - 1} {{h_{B,F}}\left( {i,j} \right)} } \cdot {{\log }_2}\frac{{{h_{B,F}}\left( {i,j} \right)}}{{{h_B}\left( i \right) + {h_F}\left( j \right)}}} \\ {{\text{M}}{{\text{I}}_{AB,F}} = \frac{{{\text{M}}{{\text{I}}_{A,F}} + {\text{M}}{{\text{I}}_{B,F}}}}{2}} \end{array} $$ (8)

    式中:AB为源图像;F为融合图像。

    3)基于噪声评价的融合性能[25]Nabf。该指标反映了图像中包含的不必要或冗余的干扰信息的多少,其值越小,图像噪声越少。

    首先,在照明条件差且行人较小的KAIST数据集上选取14对红外与可见光图像对进行实验,图片“道路与行人”的融合效果如图 6所示,CBF方法得到的融合图像视觉效果差,所以直接由其他5种方法与MAFusion分别生成的融合图像进行测评,“道路与行人”的测评结果见表 4。EN和MI指标的值越大越好,Nabf的值越小越好。

    表  4  KAIST数据集“道路与行人”融合图像客观评价
    Table  4.  Objective evaluation of "road and pedestrian" fusion image in KAIST dataset
    Methods EN MI Nabf
    ADF 5.7176 11.4352 0.0782
    WLS 5.8693 11.7387 0.2129
    densefuse 6.0565 12.1129 0.0121
    U2Fusion 5.3543 10.7086 0.0809
    FusionGAN 5.8022 11.6044 0.0389
    MAFusion 6.3678 12.5356 0.0447
    Note:Bold font is the best value
    下载: 导出CSV 
    | 显示表格

    表 4可见,MAFusion在“道路与行人”的融合图像在EN和MI两个方面都是最优的,Nabf值也接近于最优值。KAIST数据集中图像偏暗,MAFusion中模态自适应权值学习功能很好地感知了光照条件,为两个模态分配合适的权值,在目标区域保留红外图像的热辐射信息,背景区域保留可见光图像的纹理信息,使融合图像测评指标值进一步优化。

    以KAIST数据集中14对红外与可见光图像为源图像,MAFusion与6种对比方法的测评结果见表 5。表中数值均为每种方法生成的14张融合图像在EN、MI和Nabf指标上测评结果的平均值,EN和MI指标的值越大越好,Nabf的值越小越好。

    表  5  KAIST数据集14组融合图像客观评价指标均值
    Table  5.  Mean value of objective evaluation of 14 groups fusion images in KAIST dataset
    Methods EN MI Nabf
    ADF 6.2336 12.4673 0.0930
    WLS 6.4248 12.8496 0.2465
    CBF 6.5413 13.0827 0.1551
    Densefuse 6.6039 13.2078 0.0223
    U2Fusion 5.9722 11.9444 0.1318
    FusionGAN 6.2516 12.5033 0.0921
    MAFusion 6.7086 13.4042 0.0562
    Note:Bold font is the best value
    下载: 导出CSV 
    | 显示表格

    表 5可见,MAFusion在KAIST数据集上的融合图像在EN和MI两个方面都是最优的,Nabf也与对比方法最优值相近,算法性能良好。

    然后,在TNO数据集上选取18对红外与可见光图像进行实验,由MAFusion与6种对比方法分别生成融合图像进行测评,图片“烟雾中的士兵”的融合结果如图 7所示,其中CBF与WLS方法得到的融合图像视觉效果差,DenseFuse与U2Fusion有大量烟雾干扰信息,无法识别图中目标,所以直接由ADF、FusionGAN与MAFusion这3种方法分别生成的融合图像进行测评,“烟雾中的士兵”的测评结果见表 6。EN和MI指标的值越大越好,Nabf的值越小越好。

    表 6可见,MAFusion在“烟雾中的士兵”的融合图像在EN和MI两个指标中取得最大值,相比其他方法有明显地提高,说明得到的融合图像信息更丰富,源图像转移到融合图像的信息量较大。Nabf值最低,说明融合图像与对比方法相比噪声最小,抑制干扰信息引入融合图像。

    表  6  TNO数据集“烟雾中的士兵”融合图像客观评价
    Table  6.  Objective evaluation of "a soldier in the smog" fusion image in TNO dataset
    Methods EN MI Nabf
    ADF 6.4886 13.1772 0.104
    FusionGAN 6.3959 12.7919 0.026
    MAFusion 6.6097 13.2193 0.018
    Note:Bold font is the best value
    下载: 导出CSV 
    | 显示表格

    TNO数据集中图片“士兵与车辆”的融合结果如图 8所示,其中由CBF方法生成的融合图像含有大量不连续的黑块,图像视觉效果差,所以直接由其他5种方法与MAFusion分别生成的融合图像进行测评,“士兵与车辆”的测评结果见表 7。EN和MI指标的值越大越好,Nabf的值越小越好。

    表  7  TNO数据集“士兵与车辆”融合图像客观评价
    Table  7.  Objective evaluation of " Soldiers and vehicles " fusion image in TNO dataset
    Methods EN MI Nabf
    ADF 6.4620 12.9241 0.1582
    WLS 6.9916 13.9833 0.2652
    Densefuse 7.0227 14.0453 0.0931
    U2Fusion 7.1399 14.2797 0.4285
    FusionGAN 7.0007 14.0015 0.1093
    MAFusion 7.2017 14.4033 0.0801
    Note:Bold font is the best value
    下载: 导出CSV 
    | 显示表格

    表 7可见,MAFusion在“士兵与车辆”的融合图像在EN和MI两个指标中取得最大值,Nabf取得最小值,相比其他方法的性能有明显提高,说明MAFusion得到的融合图像信息更丰富,噪声较小,融合质量较好。

    以TNO数据集中的18对红外与可见光图像为源图像,由MAFusion与6种对比方法分别生成融合图像进行测评,测评结果见表 8。表中数值均为每种方法生成的18张融合图像在EN、MI和Nabf指标上测评结果的平均值,EN和MI指标的值越大越好,Nabf的值越小越好。

    表  8  TNO数据集18组融合图像客观评价指标均值
    Table  8.  Mean value of objective evaluation of 18 groups fusion images in TNO dataset
    Methods EN MI Nabf
    ADF 6.6001 13.2003 0.0896
    WLS 6.9157 13.8314 0.2404
    CBF 6.9846 13.9697 0.3921
    Densefuse 6.9482 13.8964 0.0854
    U2Fusion 7.0457 14.0915 0.3313
    FusionGAN 6.9058 13.8116 0.0892
    MAFusion 7.0653 14.1306 0.0608
    Note:Bold font is the best value
    下载: 导出CSV 
    | 显示表格

    表 8可以看出,MAFusion在EN和MI两个指标中取得最大值,较对比方法有提高,说明得到的融合图像有利信息更多,源图像转移到融合图像的信息量较大,噪声较小。

    为验证MAFusion中双路特征提取与自适应加权模块、残差块及跳跃残差块的作用,使用KAIST数据集中的14对典型红外与可见光图像做消融实验,采用客观评价对所有方法生成的融合图像进行测评,测评结果见表 9。表中数值均为每种方法生成的14张融合图像在EN、MI和Nabf指标上测评结果的平均值,EN和MI指标的值越大越好,Nabf的值越小越好。

    表  9  KAIST数据集消融实验客观评价
    Table  9.  Objective evaluation of ablation experiment in KAIST dataset
    Method FusionGAN Direct stacking Two way feature extraction and adaptive weighting Ordinary convolution Residual block Jump residual block EN MI Nabf
    - - - 6.3787 12.7574 0.0921
    - - 6.5284 13.0567 0.0607
    - - 6.7086 13.4042 0.0562
    Note:Bold font is the best value
    下载: 导出CSV 
    | 显示表格

    表 9中,方法①为FusionGAN方法,其采用直接堆叠策略将红外与可见光图像Concat后输入特征提取网络,特征提取阶段也使用普通卷积完成;方法②在FusionGAN的基础上,在特征提取阶段采用残差块与跳跃残差块,得到的图像经测评后3个指标值均优于方法①,体现了残差块和跳跃残差块恒等映射的优势,加强浅层特征与深层特征的联系,获得的融合图像能较好地兼顾不同种类源图像信息。方法③在方法②的基础上,将红外与可见光图像送入双路特征提取网络并进行权值自适应学习,得到的图像测评后的指标值均优于方法②。方法③即MAFusion生成的融合图像如图 6图 7图 8所示,图像中的信息更丰富,视觉效果良好。

    针对恶劣环境条件下红外与可见光图像融合效果较差且容易引入噪声的问题,本文提出了一种模态自适应的红外与可见光图像融合方法。该方法使用双路特征提取及权值学习融合网络,自适应提取两个模态的重要信息,并分配权重,强化对重要信息的学习。同时,在生成器特征提取阶段加入残差块与跳跃残差块,使得深层网络特征提取能力增强,反向传播也更加容易,增强模型学习能力。实验结果表明,提出的方法在图像的视觉观察、目标清晰度、图像信息丰富性和抑制噪声等方面具有良好的性能。

  • 图  1   相机主要结构及内热源分布示意图

    Figure  1.   Schematic diagram of the main structure of the camera and the distribution of internal heat sources

    图  2   平均到达外热流随β角变化趋势

    Figure  2.   Available average heat flows with different β

    图  3   β角0°时±X、±Y平均到达外热流

    Figure  3.   Available average heat flow when β=0° Time/s

    图  4   β角58.4°时±X、±Y平均到达外热流

    Figure  4.   Available average heat flow when β=60°

    图  5   制冷机热端散热方案示意图

    Figure  5.   Schematic diagram of the heat dissipation for refrigerator hotend

    图  6   内热源传热路径

    Figure  6.   Heat transfer path of the internal heat source

    图  7   相机有限元模型

    Figure  7.   Finite element model of camera

    图  8   高温工况温度分布云图与温度变化曲线

    Figure  8.   High temperature distribution clouds and temperature variation curves

    图  9   低温工况温度分布云图与温度变化曲线

    Figure  9.   Low temperature distribution clouds and temperature variation curves

    表  1   内热源温控指标

    Table  1   Temperature index of the internal heat source 

    Component Operating temperature
    Visible components -5~40
    Infrared components -25~55
    Refrigerator compressor -15~30
    refrigerator hot end ≤20
    下载: 导出CSV

    表  2   相机工况定义

    Table  2   Definition of camera working conditions

    Solar position β Heat sink surface coating surface properties
    High temperature working condition Winter solstice α/ε=0.23/0.92(End period)
    Low temperature working condition Summer Solstice 60° α/ε=0.13/0.92(Initial period)
    下载: 导出CSV
  • [1] 李庆林, 徐先锋, 魏志勇, 等. 资源一号02D卫星可见近红外相机技术与验证[J]. 航天器工程, 2020, 29(6): 78-84. https://www.cnki.com.cn/Article/CJFDTOTAL-HTGC202006016.htm

    LI Q L, XU X F, WEI Z Y, et al. Design and verification of visible and near-infrared camera for ZY-1-02D satellite[J]. Spacecraft Engineering, 2020, 29(6): 78-84. https://www.cnki.com.cn/Article/CJFDTOTAL-HTGC202006016.htm

    [2]

    Aguilar M A, Aguilar F J, Mar Saldaña M, et al. Geopositioning accuracy assessment of GeoEye-1 panchromatic and multispectral imagery[J]. Photogrammetric Engineering & Remote Sensing, 2012, 78(3): 247-257. http://www.onacademic.com/detail/journal_1000039023987410_4f89.html

    [3] 唐新明, 王鸿燕, 周平, 等. 资源三号卫星数据及产品体系[J]. 卫星应用, 2020(10): 14-18. https://www.cnki.com.cn/Article/CJFDTOTAL-WXYG202010007.htm

    TANG X M, WANG H Y, ZHOU P, et al. ZY-3 satellite data and product system[J]. Satellite Application, 2020(10): 14-18. https://www.cnki.com.cn/Article/CJFDTOTAL-WXYG202010007.htm

    [4] 宁献文, 张加迅, 江海, 等. 倾斜轨道六面体卫星极端外热流解析模型[J]. 宇航学报, 2008(3): 754-759. DOI: 10.3873/j.issn.1000-1328.2008.03.004

    NING X W, ZHANG J X, JIANG H, et al. Extreme external heat flux analytical model for inclined-orbit hexahedral satellite[J]. Journal of Astronautics, 2008(3): 754-759. DOI: 10.3873/j.issn.1000-1328.2008.03.004

    [5] 郭亮, 吴清文. 光谱成像仪CCD组件的热分析及验证[J]. 光学精密工程, 2009, 17(10): 2440-2444. DOI: 10.3321/j.issn:1004-924X.2009.10.014

    GUO L, WU Q W. Thermal design and proof RTests of CCD components in spectral imagers[J]. Optics and Precision Engineering, 2009, 17(10): 2440-2444. DOI: 10.3321/j.issn:1004-924X.2009.10.014

    [6] 訾克明, 吴清文, 李泽学, 等. 空间光学遥感器的热设计实例及其仿真分析[J]. 计算机仿真, 2008, 25(12): 77-80. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJZ200812023.htm

    ZI K M, WU Q W, LI Z X, et al. Simulation analysis of a space optical remote-sensor's thermal design[J]. Computer Simulation, 2008, 25(12): 77-80. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJZ200812023.htm

    [7] 苗建印. 航天器热控制技术[M]. 北京: 北京理工大学出版社有限责任公司, 2018.

    MIAO J Y. Spacecraft Thermal Control Technology[M]. Beijing: Beijing Institute of Technology Press, 2018.

    [8] 柏添, 孔林, 黄健, 等. 低倾角轨道微小遥感卫星的热设计及验证[J]. 光学精密工程, 2020, 28(11): 2497-2506. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM202011012.htm

    BO T, KONG L, HUANG J, et al. Thermal design and verification of micro remote-sensing satellite in low inclination orbit[J]. Optics and Precision Engineering, 2020, 28(11): 2497-2506. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM202011012.htm

    [9] 李强, 陈立恒. 复杂外热流条件下红外探测器组件热设计[J]. 红外与激光工程, 2016, 45(9): 73-79. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ201609011.htm

    LI Q, CHEN L H. Thermal design of infrared detector components in complex heat flux[J]. Infrared and Laser Engineering, 2016, 45(9): 73-79. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ201609011.htm

    [10] 杨世铭, 陶文铨. 传热学[M]. 北京: 高等教育出版社, 2010.

    YANG S M, TAO W Q. Heat Transfer[M]. Beijing: Higher Education Press, 2010.

  • 期刊类型引用(3)

    1. 蒲阳. 电网高压输电无人机巡检关键点图像融合研究. 电子设计工程. 2025(08): 150-154 . 百度学术
    2. 邢志坤. 基于LabVIEW的变电站移动机器人轨迹跟踪虚拟仿真系统设计. 自动化与仪表. 2024(07): 67-71 . 百度学术
    3. 李辉,余大成,陈耀. 基于OWA算子和CWAA算子的变电站巡视周期优化. 广西电力. 2024(05): 50-54 . 百度学术

    其他类型引用(1)

图(9)  /  表(2)
计量
  • 文章访问数:  189
  • HTML全文浏览量:  55
  • PDF下载量:  35
  • 被引次数: 4
出版历程
  • 收稿日期:  2022-03-17
  • 修回日期:  2022-05-10
  • 刊出日期:  2023-05-19

目录

/

返回文章
返回