Heat-Dissipation Design for Space Camera High-Power Heat Source
-
摘要: 为解决复杂外热流下散热面难以确定的难题,基于散热面总到达外热流最小的设计原则,对空间相机大功率热源散热设计进行研究。首先,根据相机所处空间环境分析相机受到的外热流。接着,通过分析外热流与热源工作模式,采用在相机两侧设置辐射冷板散热并通过热管耦合的方式,增大了热源的散热效率,减小了辐射冷板的面积。最后,根据相机所处空间环境和采取的热控措施利用热仿真软件进行了热分析验证。仿真结果表明:可见光组件温度为-1.9℃~12.9℃,红外组件温度为1.7℃~10.5℃,制冷机热端温度为-12℃~0.3℃,制冷机压缩机温度为-11.3℃~21.3℃。满足温控指标要求,解决了复杂外热流下相机大功率热源的散热问题。Abstract: To solve the difficulty of selecting an appropriate heat sink for complex heat flows, the design of high-power heat sources for space cameras was investigated based on the design principle of reducing the total heat flow to a heat sink. First, the heat flow to a camera was analyzed according to a space environment. Subsequently, by analyzing the heat flow and working mode of the heat source, the efficiency of heat dissipation from the heat source and the area of the radiant cooling plates were reduced by installing radiant cooling plates on both sides of the camera and coupling them through heat pipes. Finally, the thermal analysis was verified using a thermal simulation software based on the camera's space environment and the thermal control measures taken. The simulation results showed that the temperature of the visible focal plane component was -1.9℃ to 12.9℃, the temperature of the infrared camera circuit board was -1.7℃ to 6.7℃, the temperature of the hot end of the chiller was -12℃ to 0.3℃, and the temperature of the chiller compressor was -11.3℃ to 21.3℃. The temperature index requirements were satisfied, and the problem of heat dissipation from the high-power heat source of the camera under complex heat flow was solved.
-
Keywords:
- space camera /
- thermal design /
- thermal analysis
-
0. 引言
车载热成像系统目前在一些高端汽车上作为夜间驾驶辅助设备有所部署。由于热成像系统依据物体的温差进行成像,不受光源影响,同时受到天气变化的影响较小,且具备较长的探测距离[1],因此车载热成像对于高级驾驶辅助系统(advanced driving assistance system, ADAS)的夜间行车模块具备很强的应用价值[2-3]。结合近年来高度发展的机器视觉,人工智能深度学习技术,希望提出一种针对车载热成像系统的高效目标检测方法。
目标检测领域,得益于深度卷积神经网络[4](convolutional neural network, CNN)的算法,目标检测的准确率得到大幅提升。学术界涌现出一系列基于R-CNN的检测算法,如SPP-Net(Spatial Pyramid Pooling Net)[5],Fast-RCNN[6],Faster-RCNN[7-9]等,检测精度得到大幅度提升。同时出现了区别于R-CNN系列两步检测方法的端到端检测算法,如SSD(Single Shot Multi Box Detector)[10]和YOLO(You Only Look Once)[11]等,检测速度得到较大提升。其中YOLO系列目标检测框架相对现行其他目标检测框架具备检测精度高,速度快的优点[12]。
对于车载热成像系统而言,目标检测方法需要考虑以下3个方面的问题:
1)对红外图像中远距离低分辨率,细节模糊的小目标识别检测精度。目前车载热成像仪在兼顾成本,视场角与探测识别距离情况下普遍采用19 mm镜头,384×288分辨率机芯(奥迪,宝马,奔驰等高端车型所部署的车载热成像成像系统)。该配置成本较低,同时成像视场较大,可在100 m距离上提供可识别人体红外图像,200 m距离上提供可识别机动车红外图像,而较远距离上成像像素较低,普遍为10×10像素级别。
2)在车载动态环境中目标检测方法的实时性。车载热成像机芯刷新频率普遍为50 Hz,可在行车速度低于60 km/h的情况下实时提供流畅红外图像,红外视频传输速率为25 fps,因此目标检测算法要求平均处理速度需高于30 fps。
3)网络的精简程度,是否适宜部署于车载嵌入式系统。目前最新可用于车载嵌入式系统的边缘计算ASIC如Google Edge TPU,要求网络轻量级,模型权重大小在100 MB之内,方可部署。
结合以上3个问题考虑,如使用YOLO系列中检测精度较高,满足红外小目标检测精度的YOLOV3目标检测网络,存在网络结构复杂,模型权重大(234 MB),实时性低的缺点,无法部署于边缘计算系统。如使用YOLO系列中针对移动端,边缘计算领域的轻量级目标检测网络Tiny-YOLOV3[13]将提高检测实时性,网络轻量级,模型权重大小(34 MB)适宜部署车载嵌入式系统,但该类轻量级目标检测网络对红外小目标检测精度较低,难以满足车载热成像目标检测率方面要求。
针对车载热成像系统目标检测的实时性与轻量化需求,本文基于目前目标检测效果良好的轻量级目标检测网络Tiny-YOLOV3基础框架,针对红外图像特点提出了一种增强型轻量级红外目标检测框架I-YOLO,该网络构架分为主干网络与检测网络两部分:主干网络在Tiny-YOLOV3基础结构上进行增强设计,根据红外小目标低像素特点,提取浅层卷积层特征,构造浅层卷积特征输出层,增加原网络特征金字塔网络尺度,提高红外小目标检测率,同时根据红外图像格式,在主干网络中第一个卷积层使用单通道卷积核,降低运算量。检测层参考文献[14]使用CenterNet的检测方式以降低目标的误检率,提高检测实时性。
1. 车载热成像目标检测网络
1.1 Tiny-YOLOV3目标检测模型
Tiny-YOLOV3目标检测模型为YOLO系列中针对移动端与边缘计算设计的轻量级目标检测网络,特点为精简、高实时性、检测精度较高。
Tiny-YOLOV3主干网络为YOLOV3的简化,由13个卷积层,6个最大池化层,1个维度连接层构成,结构如图 1所示。
Tiny-YOLOV3检测层根据输入的图像数据,在2个尺度上运用回归分析法输出图像数据的多个滑动窗口位置及该窗口中检测到的目标类别,设置多个锚点框(anchor box)以检测目标。
Tiny-YOLOV3的分类函数使用独立的logistic分类器,分类器表达式如下:
$$ \begin{array}{l} {b_x} = \sigma ({t_x}) + {c_x}\\ {b_y} = \sigma ({t_y}) + {c_y}\\ {b_w} = {p_w} \times {e^{{t_w}}}\\ {b_h} = {p_h} \times {e^{{t_h}}} \end{array} $$ (1) 式中:tx、ty、tw、th表示模型的预测输出;cx和cy表示网络栅格的坐标;pw和ph表示预测前边框的尺寸;bx、by、bw和bh就是预测得到的边框的中心的坐标和尺寸。
在每一个预测尺度上Tiny-YOLOV3检测层将输入图像分成S×S个单元格,每个单元格的神经元负责检测落入该单元格的对象,最多可包括两个预测对象的滑动窗口。T为目标置信度,它反映当前滑动窗口是否包含检测对象及其预测准确性的估计概率,计算如下式:
$$ T{\rm{ = }}{P_{\rm{o}}} \times {P_{\rm{I}}} $$ (2) 式中:Po表示检测对象落在滑动窗口内的概率,PI表示滑动窗口与真实检测对象区域的重叠面积(像素单位)。Tiny-YOLOV3的2个预测尺度分别为13×13,26×26。以S=13为例,检测原理如图 2所示。
1.2 I-YOLO增强型轻量级红外目标检测网络
Tiny-YOLOV3目标检测网络具备轻量级,高实时性的优点,适宜部署移动端,嵌入式系统,边缘计算单元,但针对车载热成像远距离小目标分辨率低(10×10像素级别),细节模糊的特点,该检测网络需进一步强化其目标检测性能,且根据红外图像单通道特点,可进一步降低运算量,提高实时性。本文提出的I-YOLO增强型轻量级红外目标检测模型,在Tiny-YOLOV3目标检测网络基础上进行主干网络与检测网络的改进,提升其目标检测性能,降低计算量,提升实时性。
对于远距离低分辨率红外小目标的特征提取,Tiny-YOLOV3目标检测网络浅层卷积Conv4层能够较为有效地表征红外小目标的语义信息,而Conv3层感受野太小,Conv5层则感受野太大,包含一定的背景噪声干扰。因此,为提升红外小目标检测能力,I-YOLO目标检测网络将Tiny-YOLOV3中Maxpool3层更换为Conv4层,并且为了减少无用参数,增加了Conv5层的压缩维度;除此以外,在Tiny-YOLOV3模型的基础上增加上采样层Upsample2,将Conv5层和Upsample2在通道维度上进行连接操作,Conv7通过Upsample2进行升采样操作,从而形成特征金字塔增加的一个特征图层,特征金字塔网络由Tiny-YOLOV3的13×13和26×26像素提升为13×13、26×26和52×52像素的3检测尺度结构。同时,由于红外图像的单通道特点,为了减少运算量并提高算法的实时检测能力,可通过在第一个卷积层中采用单通道卷积核的方式来实现。而对于检测网络模块,使用CenterNet结构以替换原有YOLO层,对于检测方法进行优化,降低误检率,进一步提高实时性。I-YOLO网络结构如图 3所示。
为进一步提高红外图像中红外目标的检测精度,提高算法的实时检测能力,有效减少运算量,检测网络模块采用了CenterNet结构,用无锚点方式(anchor free)代替原有基于锚点(anchor box)的YOLO检测层。使改进后的目标检测网络更适合检测红外小目标。
CenterNet是ICCV2019大会上提出的目标检测最新方法[14],其基本思想为:因为缺少对于相关裁剪区域的附加监督,致使基于锚点(anchor box)的方法会出现大量有误的边界框,因此原Tiny-YOLOV3在检测层中需要大量的anchor box进行目标检测。而CenterNet是一个ont-stage的关键点检测模型,在检测时不预先生成候选框进行分类,而是直接通过三元组(中心点及上下对角点),在降低运算量提高实时性的同时提高检测准确率及召回率。I-YOLO所使用的CenterNet通过Cascade corner pooling及Center pooling来丰富3个关键点处的信息提取。本文使用CenterNet检测结构如图 4所示。
CenterNet网络中的Center Pooling模型由2个Conv-BN-ReLU,1个Left Pooling,1个Right Pooling,1个Top Pooling以及1个Bottom Pooling组成,可以有效地感知proposal的中心区域。Cascade corner pooling模型由2个Conv-BN-ReL,1个Left Pooling,1个Conv-BN以及1个Top Pooling构成,其目的是增加原始的corner pooling以感知内部信息的功能。以尺度S=13为例CenterNet检测原理如图 5所示。
在使用CenterNet进行检测时,边界框的检测情况受中心区域面积的影响较大,为了适应不同尺寸的目标物,这里采取尺度敏感区域,以生成可以适应不同大小目标的中心区域。比如,如果要对一个边界框I的保留情况做出判断,tlx,tly代表边界框左上角的点,brx, bry代表边界框右下角的点。这里定义一个中心区域j,设左上角的点的位置坐标为(ctlx, ctly),右下角点的位置坐标为(cbrx, cbry)。这些参数定义满足如下式:
$$ \begin{array}{l} ct{{\rm{l}}_x} = \frac{{(n + 1)t{{\rm{l}}_x} + (n - 1)b{{\rm{r}}_x}}}{{2n}}\\ ct{\rm{l}}y = \frac{{(n + 1)t{{\rm{l}}_y} + (n - 1)b{{\rm{r}}_y}}}{{2n}}\\ cb{{\rm{r}}_x} = \frac{{(n - 1)t{{\rm{l}}_x} + (n + 1)b{{\rm{r}}_x}}}{{2n}}\\ cb{{\rm{r}}_y} = \frac{{(n - 1)t{{\rm{l}}_y} + (n + 1)b{{\rm{r}}_y}}}{{2n}} \end{array} $$ (3) 式中:n代表中心区域j的大小(n为奇数)。当边界框小于150时n=3,大于150时n=5。实验证明,此设置对于单通道红外小目标图像仍然适用。
I-YOLO在原Tiny-YOLOV3目标检测网络基础上增加了一定数量卷积层以提取低层卷积特征增加检测尺度,在检测模块使用了CenterNet结构从而在一定程度上提升检测算法的实时性并降低误检率。因此在原目标检测网络基础上加深了网络结构,使得训练模型权重由34MB增加至96MB,而相比小目标检测性能良好的YOLO V3目标检测网络模型权重234 MB,I-YOLO属于轻量级目标检测网络,其模型权重大小可满足在嵌入式系统与边缘计算单元上的部署。除此以外,对于尺度在8×8像素级别以上的红外小目标,I-YOLO可产生较好的目标检测效果。机动车红外图像小目标尺度普遍在10×10像素级别,因此,I-YOLO适用于车载热成像的目标识别。
2. 实验结果及分析
2.1 实验平台
实验硬件数据采集平台为氧化钒384×288分辨率机芯,19 mm镜头的户外热成像探测仪,输出为单通道16 bit数据。车载红外热成像数据采集平台如图 6所示。
模型训练与测试使用硬件平台为Core i7-8750H 2.2 GHz处理器+16 GB内存+Geforce GTX 1080 8 GB显卡。软件平台使用Win10+tensorflow1.9.0+CUDA9.2+VS2017+Open CV4.0。
2.2 评价标准
为评价I-YOLO在车载热成像目标检测应用方面性能,采用平均准确率Mp,平均误检率Mf,平均漏检率Mm,平均运算速度Mo,以及模型权重大小Mw作为评价指标,其中Mp、Mf、Mm计算如下式:
$$ {M_p} = \frac{{{\rm{TP}}}}{{{\rm{TP + FP}}}} $$ (4) $$ {M_{\rm{f}}} = \frac{{{\rm{FP}}}}{{{\rm{FP + TN}}}} $$ (5) $$ {M_{\rm{m}}} = \frac{{{\rm{FN}}}}{{{\rm{FN + TP}}}} $$ (6) 式中:TP表示视红外图像中正确检测出的目标数量;FN表示红外图像中没有检测出来的目标数量;FP表示红外图像中误检出来的目标数量;TN表示红外图像中没有误检的目标数量;Mo与Mw由实际测试及训练得到。
2.3 实验数据集及模型训练
实验训练数据集使用了2018年传感器系统开发商FLIR公司发布的自动驾驶开源红外热成像数据集,该数据集汇集了12000个白天和夜间场景的热图像。该红外热成像数据集的应用将有助于驾驶员或未来的自动驾驶车辆适应黑暗,雾,烟等具有挑战性的环境。
按5:1比例将该数据集划分为训练集与测试集,标注需要检测的4类目标。FLIR部分数据集如图 7所示。
在模型训练环节,对数据集中的图像样本进行预处理,产生416×416像素的图像,训练时选取100幅的图像数量作为小批量训练的样本数量阈值,权重在每一批图像训练之后得到一次更新。将衰减率设为0.0005,动量设置为0.9,学习率初始化为0.001,对I-YOLO网络进行20000次迭代,保存等间隔的10次模型版本,最终选取精度最高的模型。
整个训练的目标损失函数计算公式如下:
$$ L = L_{{\rm{det}}}^{{\rm{co}}} + L_{{\rm{det}}}^{{\rm{ce}}} + {L_{\rm{d}}} $$ (7) 式中:$L_{{\rm{det}}}^{{\rm{co}}}$与$L_{{\rm{det}}}^{{\rm{ce}}}$分别为边缘关键点与中心点的散焦损失,用于训练检测目标边缘与中心点。Ld为向量距离损失函数,计算如下式:
$$ {L_{\rm{d}}} = \alpha L_{{\rm{pull}}}^{{\rm{co}}} + \beta L_{{\rm{push}}}^{{\rm{co}}} + \gamma (L_{{\rm{off}}}^{{\rm{ce}}} + L_{{\rm{off}}}^{{\rm{co}}}) $$ (8) 式中:$L_{{\rm{pull}}}^{{\rm{co}}}$为边缘点回拉损失,用于将同一目标内嵌向量最小化;$L_{{\rm{push}}}^{{\rm{co}}}$为边缘点外推损失,用于将不同目标内嵌向量最大化;$L_{{\rm{off}}}^{{\rm{ce}}}$与$L_{{\rm{off}}}^{{\rm{co}}}$分别为中心关键点与边缘关键点的偏移损失,用于预测二者的偏移值。α,β,γ为权重系数,根据文献[14]分别取0.1, 0.1, 1。
经过20000次迭代,模型平均损失降至0.2以下。如图 8所示。
2.4 测试结果及分析
实际测试使用车载热成像在夜间城市街道实地拍摄的红外视频,视频总长400帧,包括需要检测的4类感兴趣目标,为对比I-YOLO性能指标,采用相同数据集与训练参数进行训练的SSD300×300,RetinaNet-50-500,Tiny-YOLOV3,YOLOV3模型进行对比测试,随机选取测试视频中3帧检测结果进行对比,测试效果如图 9所示。
图 9中,(a)为SSD300×300检测结果,(b)为RetinaNet-50-500检测结果,(c)为Tiny-YOLOV3检测结果,(d)为YOLOV3检测结果,(e)为本文方法检测结果。由实际检测结果可见,SSD300×300在121帧检测出轿车6辆,行人1人,在318帧,检测出轿车6辆,卡车1辆,在326帧,检测出轿车5辆,平均检测速度13FPS。RetinaNet-50-500在121帧检测出轿车7辆,行人1人,在318帧,检测出轿车7辆,卡车1辆,在326帧,检测出轿车5辆,平均检测速度7FPS。Tiny-YOLOV3在121帧检测出轿车6辆,行人1人,在318帧,检测出轿车6辆,卡车1辆,在326帧,检测出轿车4辆,平均检测速度62FPS。YOLOV3在121帧检测出轿车7辆,行人1人,在318帧,检测出轿车7辆,卡车1辆,在326帧,检测出轿车5辆,卡车1辆,平均检测速度21FPS。本文方法在121帧检测出轿车7辆,行人1人,在318帧,检测出轿车7辆,卡车1辆,在326帧,检测出轿车5辆,平均检测速度81fps。根据以上结果分析得出,本文方法在检测精度上十分接近YOLOV3,与RetinaNet-50-500相当,超过SSD300×300,Tiny-YOLOV3,检测实时性上超过所有对比检测方法。
检测模型对整个测试红外视频中4类感兴趣目标的平均准确率Mp,平均误检率Mf,平均漏检率Mm,统计分析如表 1所示。
表 1 4类检测目标统计数据分析Table 1. Statistical analysis of four kinds of detection targetsDetection model Mp(%) Mf(%) Mm(%) Person Car Bus Truck Person Car Bus Truck Person Car Bus Truck SSD300×300 66 71 73 68 12 13 14 11 21 12 21 20 RetinaNet-50-500 90 89 88 92 15 17 18 14 6 4 6 14 Tiny-YOLOV3 65 70 75 69 15 10 15 10 20 15 23 21 YOLOV3 95 90 90 95 20 18 20 15 5 3 5 15 I-YOLO 91 88 89 93 3 5 3 5 9 8 6 18 由表 1的统计结果对比可见,本文提出的I-YOLO红外目标检测网络在对车载热成像系统中4类主要检测目标的平均准确率,平均漏检率方面相对SSD300×300,Tiny-YOLOV3表现更为优良,与RetinaNet-50-500相当,非常接近YOLOV3,平均误检率方面相对SSD300×300,RetinaNet-50-500,Tiny-YOLOV3,YOLOV3均表现更为优良。
在整个测试红外视频中,对检测模型平均准确率Mp,平均误检率Mf,平均漏检率Mm,平均运算速度Mo,以及模型权重大小Mw的综合统计分析如表 2所示。
表 2 综合性能测试对比分析Table 2. Comparison and analysis of comprehensive performance testsDetection model Mp/% Mf/% Mm/% Mo/FPS Mw/MB SSD300×300 67 11 31 13 196 RetinaNet-50-500 90 15 13 7 246 Tiny-YOLOV3 66 12 32 62 34 YOLOV3 95 16 6 21 234 I-YOLO 91 6 12 81 96 由表 2综合测试对比分析结果可见,I-YOLO红外目标检测网络平均检测率达到YOLOV3目标检测网络95%,超出SSD300×300目标检测网络24%,RetinaNet-50-500目标检测网络1%,Tiny-YOLOV3目标检测网络25%,平均误检率相对SSD300×300目标检测网络降低5%,相对RetinaNet-50-500目标检测网络降低9%,相对YOLOV3目标检测网络降低10%,相对Tiny-YOLOV3目标检测网络降低6%,平均漏检率超出YOLOV3目标检测网络6%,相对SSD300 300目标检测网络降低19%,相对RetinaNet-50-500目标检测网络降低1%,相对Tiny-YOLOV3目标检测网络降低20%,平均运算速度上高于SSD300×300网络68 fps,高于RetinaNet-50-500网络74 fps,高于YOLOV3网络60fps,高于Tiny-YOLOV3网络19 fps,模型权重大小上为96 MB,大大低于SSD300×300,RetinaNet-50-500,YOLOV3网络模型权重,高于Tiny-YOLOV3网络模型权重,由于Tiny-YOLOV3检测精度不能满足对红外目标的检测。因此I-YOLO在红外目标检测精度,检测实时性与模型大小几项指标上满足车载热成像系统实时目标检测的需求,适宜于部署Edge-TPU类型的最新边缘计算嵌入式设备上。
3. 结论
文中针对车载热成像系统对红外目标检测的需求,提出了一种增强型轻量级红外目标检测网络模型I-YOLO,该网络基于Tiny-YOLOV3的构架,在基础网络部分,为提高红外小目标检测率,提取低层卷积特征增加构建检测尺度,根据红外图像单通道输出特点在网络第一个卷积层中采用单通道卷积核从而减少了网络的计算量,在检测部分搭建CenterNet检测结构,进一步提高算法实时性,降低误检率。通过红外数据集制作,模型训练,实际测试的结果分析,本文提出的I-YOLO目标检测框架对于车载热成像中的目标检测方面在平均检测率,平均漏检率上优于Tiny-YOLOV3,接近于YOLOV3,在平均误检率,实时性上优于YOLOV3与Tiny-YOLOV3。权重模型精简,适宜于在新一代车载嵌入式系统中部署,辅助夜间智能驾驶。
-
表 1 内热源温控指标
Table 1 Temperature index of the internal heat source
℃ Component Operating temperature Visible components -5~40 Infrared components -25~55 Refrigerator compressor -15~30 refrigerator hot end ≤20 表 2 相机工况定义
Table 2 Definition of camera working conditions
Solar position β Heat sink surface coating surface properties High temperature working condition Winter solstice 0° α/ε=0.23/0.92(End period) Low temperature working condition Summer Solstice 60° α/ε=0.13/0.92(Initial period) -
[1] 李庆林, 徐先锋, 魏志勇, 等. 资源一号02D卫星可见近红外相机技术与验证[J]. 航天器工程, 2020, 29(6): 78-84. https://www.cnki.com.cn/Article/CJFDTOTAL-HTGC202006016.htm LI Q L, XU X F, WEI Z Y, et al. Design and verification of visible and near-infrared camera for ZY-1-02D satellite[J]. Spacecraft Engineering, 2020, 29(6): 78-84. https://www.cnki.com.cn/Article/CJFDTOTAL-HTGC202006016.htm
[2] Aguilar M A, Aguilar F J, Mar Saldaña M, et al. Geopositioning accuracy assessment of GeoEye-1 panchromatic and multispectral imagery[J]. Photogrammetric Engineering & Remote Sensing, 2012, 78(3): 247-257. http://www.onacademic.com/detail/journal_1000039023987410_4f89.html
[3] 唐新明, 王鸿燕, 周平, 等. 资源三号卫星数据及产品体系[J]. 卫星应用, 2020(10): 14-18. https://www.cnki.com.cn/Article/CJFDTOTAL-WXYG202010007.htm TANG X M, WANG H Y, ZHOU P, et al. ZY-3 satellite data and product system[J]. Satellite Application, 2020(10): 14-18. https://www.cnki.com.cn/Article/CJFDTOTAL-WXYG202010007.htm
[4] 宁献文, 张加迅, 江海, 等. 倾斜轨道六面体卫星极端外热流解析模型[J]. 宇航学报, 2008(3): 754-759. DOI: 10.3873/j.issn.1000-1328.2008.03.004 NING X W, ZHANG J X, JIANG H, et al. Extreme external heat flux analytical model for inclined-orbit hexahedral satellite[J]. Journal of Astronautics, 2008(3): 754-759. DOI: 10.3873/j.issn.1000-1328.2008.03.004
[5] 郭亮, 吴清文. 光谱成像仪CCD组件的热分析及验证[J]. 光学精密工程, 2009, 17(10): 2440-2444. DOI: 10.3321/j.issn:1004-924X.2009.10.014 GUO L, WU Q W. Thermal design and proof RTests of CCD components in spectral imagers[J]. Optics and Precision Engineering, 2009, 17(10): 2440-2444. DOI: 10.3321/j.issn:1004-924X.2009.10.014
[6] 訾克明, 吴清文, 李泽学, 等. 空间光学遥感器的热设计实例及其仿真分析[J]. 计算机仿真, 2008, 25(12): 77-80. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJZ200812023.htm ZI K M, WU Q W, LI Z X, et al. Simulation analysis of a space optical remote-sensor's thermal design[J]. Computer Simulation, 2008, 25(12): 77-80. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJZ200812023.htm
[7] 苗建印. 航天器热控制技术[M]. 北京: 北京理工大学出版社有限责任公司, 2018. MIAO J Y. Spacecraft Thermal Control Technology[M]. Beijing: Beijing Institute of Technology Press, 2018.
[8] 柏添, 孔林, 黄健, 等. 低倾角轨道微小遥感卫星的热设计及验证[J]. 光学精密工程, 2020, 28(11): 2497-2506. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM202011012.htm BO T, KONG L, HUANG J, et al. Thermal design and verification of micro remote-sensing satellite in low inclination orbit[J]. Optics and Precision Engineering, 2020, 28(11): 2497-2506. https://www.cnki.com.cn/Article/CJFDTOTAL-GXJM202011012.htm
[9] 李强, 陈立恒. 复杂外热流条件下红外探测器组件热设计[J]. 红外与激光工程, 2016, 45(9): 73-79. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ201609011.htm LI Q, CHEN L H. Thermal design of infrared detector components in complex heat flux[J]. Infrared and Laser Engineering, 2016, 45(9): 73-79. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ201609011.htm
[10] 杨世铭, 陶文铨. 传热学[M]. 北京: 高等教育出版社, 2010. YANG S M, TAO W Q. Heat Transfer[M]. Beijing: Higher Education Press, 2010.
-
期刊类型引用(3)
1. 邵延华,黄琦梦,梅艳莹,张晓强,楚红雨,吴亚东. 一种基于多尺度的目标检测锚点构造方法. 红外技术. 2024(02): 162-167 . 本站查看
2. 杨锦帆,王晓强,林浩,李雷孝,杨艳艳,李科岑,高静. 深度学习中的单阶段车辆检测算法综述. 计算机工程与应用. 2022(07): 55-67 . 百度学术
3. 宋甜,李颖,王静. 改进YOLOv5s的车载红外图像目标检测. 现代计算机. 2022(02): 21-28 . 百度学术
其他类型引用(1)