图像融合是用特定的算法将两幅或多幅图像融合为一幅新的图像,用于提高图像的辨识度和细节丰富度。本文针对传统红外与微光图像融合方法出现细节缺失、边缘纹理不清晰等问题,提出了一种基于边缘引导滤波增强和图小波变换(Graph Wavelet Transform, GWT)的图像融合算法。首先,使用边缘引导滤波对微光图像进行预处理增强。接着使用GWT对红外和微光图像分别进行多尺度分解,得到各自的低频子带图像和高频子带图像。对低频子图像,使用滚动引导滤波(Rolling Guidance Filtering, RGF)进行分解得到基础层和细节层,其中基础层利用视觉显著映射(Visual Saliency Map, VSM)进行融合,细节层利用最大绝对值原则(Max Absolute, MA)进行融合;对高频子图像,采用区域能量最大进行融合。最后,对融合后的低频和高频子带图像进行GWT反变换,得到最终的融合结果。在公开数据集上的实验结果表明,该方法表现出较好的主观视觉效果,优于所比较的其他算法,且保留了更多的纹理信息和边缘细节。
针对复杂背景干扰下的红外目标跟踪,提出融合并行混合注意力机制的候选区域孪生网络跟踪算法。并行混合注意力机制以并行的方式计算空间注意力和通道注意力特征图,然后将空间和通道注意力特征图通过维度扩展转化为与输入特征图相同的维度,并将扩展后的两类注意力特征图进行逐元素相乘以有效聚合多注意力权重,从而获取混合注意力特征图。同时,为能够根据混合注意力权重动态调整原始特征图中对应元素的权重,将混合注意力特征图和输入特征图进行逐元素相乘。在候选区域孪生特征提取网络中融入并行混合注意力机制并对地/空背景下红外飞机目标进行跟踪,实验结果表明,相对于SiamRPN、SiamBAN、Mixformer,提出算法的成功率和精度分别提高了15.5%、1.8%、8.5%和20.1%、9.3%、7.7%,跟踪速度达到201帧/s,能够有效实现复杂背景干扰下的红外目标跟踪且有较好的实时性。
针对CNN与Transformer提取的特征之间交互作用未充分挖掘而导致的融合图像易产生红外特征分布不均匀、轮廓不清晰以及重要背景信息丢失等问题,本文提出了一种新的结合CNN-Transformer特征交互的红外与可见光图像融合网络。首先,新融合网络设计了新的空间通道混合注意力机制以提升全局及局部特征的提取效率并得到混合特征块;其次,利用CNN-Transformer的特征交互获取融合混合特征块,并构建多尺度重构网络以实现图像特征重构输出;最后,使用TNO数据集将新融合网络与其它9种融合网络进行对比图像融合实验。实验结果表明,新融合网络获得的融合图像在视觉感知方面表现优异,既突出了红外特征和物体轮廓,又保留了丰富的背景纹理细节;网络在EN、SD、AG、SF、SCD以及VIF指标上相较于现有融合网络平均提高约64.73%、8.17%、69.05%、66.34%、15.39%和25.66%。消融实验证明了新模型的有效性。
为了提升高光谱地物识别的精度,提出了一种基于自集成网络(Self-Ensembling Network)的高光谱图像地物识别模型。通过引入正则项约束优化自集成网络,该模型提升了地物识别模型的泛化性能,并构建自集成学习机制,解决有限标记样本下的模型欠拟合问题,降低高光谱图像识别模型的训练对大量标注样本的依赖。该模型包括一个学生网络和一个教师网络,在网络中加入了带梯度算子的密集连接模块,增强网络对边缘和细粒度特征的感知能力,提升高光谱图像的特征提取性能。在监督损失和无监督损失的共同约束下,学生网络和教师网络互相学习,从而建立了模型的自集成机制,保证了模型的分类精度。为了进一步提升模型的泛化性能,模型优化时引入了L2正则化项,用于约束目标函数的训练和优化,从而克服模型的过拟合问题。将所提方法应用于Pavia University、Salinas和WHU-Hi-LongKou三个高光谱数据集,平均分类精度分别为96.91%、96.73%和98.12%,与多种分类算法进行对比,验证了所提方法在有限标记样本下具有更好的分类精度。
无人机雾天影像识别在环境监测、灾害救援等领域发挥作用。然而由于雾天环境下光线衰减和雾气遮挡地物,传统的单一特征识别无人机雾天影像方法的效果差。针对此问题,本文提出一种结合多特征无人机雾天影像识别的方法。提取无人机影像中暗通道特征、纹理特征和颜色特征,提取的特征组合为特征向量并进行降维处理,最后利用支持向量机进行训练和分类,以实现对无人机雾天影像的准确识别。实验证明该方法在无人机雾天影像数据集上的准确率达到97.68%,误报率达到5.05%,优于对比的4种方法。为无人机在雾天环境下的影像识别和影像去雾提供一种新的可靠解决方案,具有较高的实用性和推广价值。
针对传统多尺度变换方法在红外与可见光图像融合过程中融合结果对比度低、边缘轮廓不清晰的问题,本文提出了一种基于图像增强和多尺度分解的红外与可见光图像融合算法。首先,对可见光图像使用基于引导滤波的图像增强算法,提升整体对比度和可视性。其次,利用改进的滚动引导滤波器分别将增强后的可见光图像和红外图像分解为不同尺度的基础层和细节层。然后,对基础层和细节层进行显著性分析,构造显著图并计算权重图。最后,利用权重图对基础层和细节层进行加权平均融合,再将融合后的基础层和细节层相加,得到最终的融合结果。将本文方法与8种基于多尺度的融合方法进行主观图像质量分析和7个评价指标的对比。实验结果表明,本文方法不仅可以保留源图像中的边缘轮廓,提升融合结果的整体对比度、清晰度,而且能减少伪影。
针对传统图像生成平台所模拟的仿真图像和外场实拍图像风格相差较大、逼真度不够高等问题,为满足图像制导武器在半实物仿真试验中模拟的仿真图像更加接近真实战场环境,提出了循环对抗生成网络的方法。该网络由生成器和判别器构成,该方法是一种无监督的深度学习模型,嵌入现有图像生成平台。为保证实时性,采用有锁共享内存技术,解决了在半实物中图像传输超时的问题。试验结果表明:该方法用于半实物仿真中既保证了实时性又提高了置信度。
在多频外差结构光三维测量技术中,相位误差严重影响了测量的准确性。针对这一问题,本文提出了一种基于多频外差的相位误差校正方法。首先对投影设备进行非线性校正,使用多项式逆向推导输出光强和输入光强关系,利用该多项式对输入相移条纹图像进行反演校正;并提出高斯自适应双边滤波算法,用于对相机拍摄的相移条纹图像进行去噪处理;随后对处理后的图像使用相移法生成截断相位,通过优化正向构造连续辅助相位和逆向推导截断相位级数约束过程进行绝对相位恢复。实验结果表明,校正后的非线性平均绝对误差和均方根误差分别减少了74.58%和77.65%,有效降低了绝对相位的非线性误差。此外,所提方法对相位跳跃性误差的抑制效果明显,得到的点云模型表面更加平滑,且在测量标准块阶梯高度差时,绝对误差和相对误差分别降至0.034 mm和0.38%,提升了结构光三维测量系统的测量精度和鲁棒性。
红外辐射定标是建立成像光谱的数字量化值与目标光谱辐射亮度值二者之间关系的方法,对所测光谱进行定标是定量分析中的重要环节。在实际应用中,由于仪器本身的稳定性和目标辐射特性对仪器的影响,定标结果的好坏没有很好的评估,本文提出了基于噪声等效辐亮度(noise equivalent spectral radiance,NESR)来定量分析定标结果的准确性。采用两点线性辐射定标法对仪器进行标定,利用NESR信噪比计算方法得到仪器NESR的实测值,通过对比NESR标称参数,可以快速、定量化地判定辐射定标结果的准确性。利用自研的成像遥测系统采集到的数据进行验证,得出该方法可以快速、有效地评价辐射定标结果的准确性,从而提高标定后亮温光谱的质量,为后续红外光谱气体识别奠定基础。
为了使观测设备可以在不同环境下进行观察且设备便于携带,本文对小型化多功能光学系统进行优化。小型化多功能光学系统旨在解决原系统存在的体积大、重量大、白光观察延迟的问题且要满足观测要求。小型化多功能光学系统包括3个模块,激光模块用于激光测距;微光模块用于夜间观察;白光模块用于平时观察。激光模块能量汇聚的尺寸优于ϕ1 mm;微光模块调制传递函数在53 lp/mm处良好;白光模块放大倍率为5.7×,保证中心视场优于5.7′,边缘视场优于17.1′;图像观察模块在62 lp/mm处中心视场的调制传递函数优于0.3。小型化多功能光学系统的设计将多功能系统的体积从原有的261 cm×237 cm×115 cm减小到了220 cm×173 cm×102 cm,重量减轻了496.6 g;所以该小型化多功能光学系统的设计具有一定参考价值。
针对复杂环境下电力设备检测算法鲁棒性较低和小目标检测不准确的问题,本文提出一种基于自适应融合和自注意力增强的跨模态多层次特征融合算法。首先构建双流特征提取网络,提取可见光图像和红外图像的多层级目标表征。通过引入自适应融合模块,捕捉可见光分支和红外分支两种模态下的互补特征,并进一步利用基于Transformer的自注意力机制来增强互补特征的语义空间信息。最后通过不同尺度下的深层特征来实现目标的精确定位。本文在自建电力设备数据集上进行充分实验,实验结果表明,所提算法的平均精确率均值(mAP50)可以达到91.7%,相较于单一可见光支路和单一红外支路,分别提升了3.5%和3.9%,有效地实现了跨模态信息的融合。与当前主流目标检测算法相比,展现出较高的鲁棒性。
为了解决可见光与红外图像融合中存在小裂缝不易识别,伴随光照强度变弱造成纹理细节丢失和引入边缘伪影等常见问题,本文提出了一种基于多尺度特征提取的多路注意力生成对抗网络(Multiscale feature extraction-multiscale attention GAN,M2GAN)的图像融合方法。首先,M2GAN提出一种多尺度特征提取模块,该模块采用配准后的可见光和红外图像,提取可见光与红外图像中不同尺度信息,并通过侧边连接使融合过程中的裂缝细节和语义信息同时被保留,使裂缝特征更加丰富。此外,还提出了多路注意力机制,将多尺度融合图像分别和红外源图像、可见光源图像拼接起来,构建红外强度路径和可见光梯度路径,以保存更多目标信息和背景信息。在自制数据集上,与多种主流图像融合算法的实验结果对比,6种评价指标结果显著提高,其中结构相似性、边缘保持度指标分别平均提高了10.66%和24.92%。M2GAN具有更好的视觉效果与结构相似度,在客观评价方面优于对比方法。
近年来,生物特征识别技术取得了快速的发展,从单一模态下身份识别逐渐演变为融合多模态特征的身份识别。其中基于掌纹和掌静脉的身份识别技术是一大研究热点,如何实现实时非接触式手掌识别仍然存在挑战。本文中我们采用双目相机同时获取可见光和近红外光手掌图像,基于手掌关键点检测来定位感兴趣区域,并设计了一个融合Log-Gabor卷积的掌纹和掌静脉网络(Log-Gabor-convolution Palmprint and Vein Network, LogPVNet),该网络采用双支路并行特征提取结构,并设计了参数自适应Log-Gabor卷积以及多感受野特征融合模块,显著提升了双模态图像纹理特征的提取能力。在CASIA-PV和TJU-PV两个公开的掌纹和掌静脉数据集和自建数据集——SWUST-PV上进行方法测试,实验结果表明:所提出的方法在保证识别精度达到99.9%以上,等误率值低至0.0012%或以下的情况下,模型参数量与基础模型相比降低76%,浮点计算量降低81%,实现了模型的轻量化。
针对目前自动化红外成像气体泄漏检测方法直观性、实时性较差、误报率高的问题,提出了一种基于改进YOLOv5-Seg的实时泄漏检测模型Gas-Seg。Gas-Seg采用泄漏气体云团分割方法,实现了对泄漏区域的低误报识别和直观展示。为了增强模型对泄漏气体关键特征的学习能力,采用了卷积注意力模块(Convolutional Block Attention Module, CBAM)融合空间和通道特征,并运用空洞空间池化金字塔(Atrous Spatial Pyramid Pooling, ASPP)提取气体云团的多尺度特征,从而提高了对气体云团的识别准确度。此外,还通过使用C3Ghost模块降低了模型的参数量,进而提高了模型的推理速度。最后,引入了辅助验证的方法来排除静止区域的误报,有效降低了单帧检测的误报率。最终,Gas-Seg模型在mAP@0.5和mAP@0.5:0.9方面分别达到了93.5%和66.5%,相比YOLOv5-Seg分别提高了3.7%和2%。在距离为10 m,泄漏量分别为0.75 L/min和1.5 L/min的乙烯气体检测实验中,预警准确率分别达到了84.4%和99.7%,同时推理速度达到了51 FPS(帧/s),充分展现了其实时检测的潜力。
2021年1月1日及之后的用户请选择该区域登录系统
2020年12.31号及之前的用户请选择该区域登录系统
1979年创刊,月刊
主 管:中国兵器工业集团公司
主 办:昆明物理研究所
中国兵工学会夜视技术专业委员会
标准刊号:ISSN 1001-8891CN 53-1053/TN
邮发代号:64-26
地 址:云南省昆明市教场东路31号
电 话:0871-65105248
邮 箱:irtek@china.com
《红外技术》是我国光电子领域科技期刊中创刊最早的刊物之一。 《红外技术》由科学出版社出版,国内外公开发行,为单月刊技术类科技期刊。《红外技术》是一份立足科研、全面反映“红外技术”的国内外研究进展及其在国防、工农业及国民经济各领域的应用情况的专业学术性期刊。经过多年的努力,《红外技术》已成为中文核心期刊、中国科技核心期刊、中国科学引文数据库来源期刊。
更多>尊敬的专家、作者、读者:
端午节期间因系统维护,《红外技术》网站(hwjs.nvir.cn)将于2024年6月7日20:00-6月10日关闭。关闭期间,您将暂时无法访问《红外技术》网站和登录投审稿系统,给您带来不便敬请谅解!
预计6月11日正常恢复《红外技术》网站及投审稿系统的服务。您如有任何问题,可发送邮件至编辑部邮箱(irtek@china.com)与我们联系。
感谢您对本刊的支持!
《红外技术》编辑部
2024年6月6日