An Infrared Micro Scanner Measurement and Calibration Method Based on Image Processing
-
摘要: 在以红外焦平面为核心的红外成像系统中,微扫描器件可以有效提高整个系统的空间分辨率。针对微扫描器件的检测,本文提出了一种基于图像处理的测量与校准方法,并搭建了一套检测系统用于对微扫描器件进行检测与校准。以某型微扫描器件为测试对象,实验结果表明本文所提方法在测量精度、重复精度以及不确定度方面均达到了良好的效果,可以为微扫描器件的设计、生产提供基础支撑。Abstract: In infrared imaging systems, in which the core is an infrared focal plane array, a microscanner can enhance the spatial resolution of the entire system. To test microscanners, this study developed a measurement and calibration method based on image processing and built a system to measure and calibrate microscanners. Using a microscanner as a test subject, the test results indicate that the proposed method has a significant effect on the measurement accuracy, repetition accuracy, and uncertainty. The method can provide technical support for the design and manufacture of microscanners.
-
Keywords:
- infrared focal plane array /
- micro scanner /
- measurement method /
- image processing
-
0. 引言
红外成像技术是根据辐射原理成像而得到红外图像,图像的亮度表征物体表面的温度。由于具有隐蔽性好、全天候、适应雨雾等特殊气象条件等优良特性,因此得到了广泛应用[1-4]。然而受制于红外图像的成像机理、成像系统特性的影响,红外图像通常具有信噪比低、分辨率低和边缘模糊的特点,图像中往往缺少细节,这限制了红外图像的进一步应用。因此,如何提高图像分辨率并增强红外图像中的细节,成为了重要需求。
超分辨率(super resolution, SR)算法[5]是指从同一场景的一个或多个低分辨率观测结果中恢复高分辨率图像的任务。根据输入的低分辨率图像(low resolution,LR)的数量,可以将超分辨率算法(super resolution, SR)分为单图像超分辨率(single-image-super-resolution, SISR)和多图像超分辨率(multiple-image-super-resolution, MISR)。与MISR相比,SISR因其高效而广受欢迎。由于具有高感知质量的HR(high resolution, HR)图像具有更多有价值的细节,因此它被广泛用于许多领域,例如医学成像,卫星成像和安全成像[6-8]。典型的SISR框架中,LR图像建模如下:
$$ I_{\mathrm{LR}}=\boldsymbol{D}_k \boldsymbol{M}_k I_{\mathrm{HR}}+n $$ (1) 式中:IHR是对应的是模型输入的原始场景高分辨率图像;Mk表示运动位移矩阵;Dk为降采样矩阵;n表示噪声向量。图像的超分辨率重建就是根据图像的退化模型进行的逆过程。通常低分辨图像可以被认为是降质模型的输出;在超分辨率算法中,研究者们试图从ILR中恢复出高分辨图像ISR尽可能地接近原始的退化前的高分辨图像IHR,过程如公式表示为:
$$ I_\text{SR}=F(I_\text{LR}, θ) $$ (2) 式中:F代表超分辨率重建模型;θ是模型中的参数。但该等式并不是唯一的,因为高分辨图像的退化可能同时受到多个退化因素的影响,图像超分辨率重构过程中也无法确定退化因素的种类,因此该公式的解不是唯一的,即在图像超分辨率重建过程中一个低分辨的输出可能获取多个高分辨的输入。因而超分辨率重构问题也被看作是一个病态问题。
传统SISR的算法主要分为3类:基于插值的超分辨率方法、基于重构的超分辨率方法和基于学习的超分辨率方法。基于插值的超分辨率方法原理简单,其重构效果不是很好,在超分辨率领域应用有限。基于重构的超分辨率方法是从输入图像中提取所有有用信息,整个超分辨率过程等于信息提取和信息融合过程,以输入图像先验知识和全局重构限制作为正则项,构建代价函数求解逆运算,此方法能保持清晰的图像边缘,但不能有效恢复纹理细节信息。基于学习的超分辨率技术是借助机器学习知识,以大量的训练图像学习先验模型,用学习过程中获得的知识对低分辨率图像中丢失的高频细节信息进行预测和补充,它能生成丰富的高频细节部分和纹理信息,但难以控制伪像失真。
随着深度学习的发展,基于深度学习[8]的SISR算法显示出优于其他基于学习的方法的性能。SRCNN[9]是第一种使用深度学习方法的超分辨率算法,该方法表现出远超传统方法的学习能力,但该算法是先将图像进行上采样而后再利用卷积层进行学习,因而其结果中可能会出现将噪声和有价值信号同时放大的情况,影响重构结果的信噪比。VDSR(very deep super resolution)[10]是SISR算法中第一种深层网络,该网络由20层VGG组成,通过学习插值结果和高分图像之间的残差,以代替原来的直接映射。SRGAN(semi-supervised learning with generative adversarial networks)[11]将GAN网络应用超分辨网络,构建一个具有感知损失的更深层网络的生成对抗网络以构造逼真的超分图像。
EDSR(enhanced deep residual networks)[12]在ResNet[13]基础上设计了一种新的模块,扩大模型的尺寸来提升结果质量。ESPCN(efficient sub-pixel convolutional neural network)[14]使用亚像素上采样的方法对图像进行快速的超分辨率重建,仅在最后阶段将低分辨率图像放大为高分辨率图像,是一种高效、快速的像素重排列的超分辨率算法。
上述方法对SISR表现出良好的效果,但应用于红外图像时仍需改进:
一方面,卷积层提取特征时会很好地保留低频信息,高频信息会作为冗余信息舍弃,进而在重构图像中造成细节缺失,由于红外图像中信息量少相比可见光图像影响更大;另一方面,大多数的SISR中的网络模块对其他层的特征利用较少,无法避免卷积层在使用过程中的信息损失。
根据以上分析,本文针对红外图像特点提出深度残差神经网络的超分辨率重构算法,结合密集网络、残差结构以及亚像素上采样等结构优点,得到高质量红外重构图像,为后续的语义分割、目标识别等创造条件。
1. 基于深度残差神经网络的超分辨率重构算法
基于深度学习的超分辨率模型专注于研究低分辨率图像与原始高分辨率图像之间的差异,虽然网络模型之间差异巨大,但本质上是一些模块的组合,比如模型框架、上采样方法等。因此,我们可以根据特定用途将这些模块集成起来构造出一个超分辨率模型。本文设计的深度卷积残差网络结构由残差单元构成深度残差强化模块,上采样部分我们使用亚像素上采样层。
1.1 深度残差强化模块
红外图像信息量少,分辨率低,网络需要学习到足够的图像中的信息才能保证重构图像质量。即使是网络中少量信息损失都可能会影响最终的重构图像质量。对于超分辨率算法来说,网络深度增加意味着网络会损失更多的高频细节,在重构图像中图像细节会有相应的损失。在语义分割、目标识别等高级图像任务中,ResNet被用来解决卷积神经网络深度加深时会产生梯度爆炸的现象,但由于图像超分辨率任务是图像到图像的映射任务,仅需研究输入图像与目标图像高度相关仅学习它们之间的差异即可,一些模块在超分辨率任务中并不是必要的,因而不能直接套用到超分辨这种低级视觉问题上。比如BN层主要应用于输入图像的数据分布和输出数据的分布不一致的情况。对于超分辨率任务来说,输入和输出的数据分布非常接近。因此一些研究保留了ResNet的跳线结构并去掉了BN层,有效地降低了网络的计算量。如图 1所示,EDSR提出的这个残差块(residual block)没有应用池化层和批量归一化(batch normalization,BN)层,去掉后的网络就可以堆叠更多的网络层或者使每层提取更多的特征,从而得到更好的性能表现。由于大多数的残差区域接近零,模型的复杂性和学习难度大大降低。而跳线连接方式的保留本身就可以减轻由于网络深度不断增加而导致的降级问题,减少训练难度并提高学习能力。
针对红外图像中信息量少的特点,我们改变原有ResNet中的激活函数。ReLU(可以按公式(3)计算)保留了阶跃函数的生物启发(即只有当输入超过阈值时神经元才会被激活),允许基于梯度的学习(尽管在x=0时,导数未定义)。因为函数及其导数都不包含复杂的数学运算,所以此函数计算过程非常快。但是当输入小于零或梯度为零时,其权重无法更新,此时ReLU的学习速度会变慢,甚至可能使神经元直接失效。Leaky ReLU函数(Leaky Rectified Linear Unit,LeakyReLU)(可按公式(4)计算)是经典ReLU激活函数的变体。其中a需人工设置,一般为0.01或0.001数量级的较小正数。当输入为负时,这个函数的输出仍然有一个小的斜率。当导数非零时,可以减少沉默神经元的出现,允许基于梯度的学习(虽然会很慢),从而解决ReLU函数进入负区间后神经元不学习的问题。与ReLU相比,LeakyReLU具有更大的激活范围。
$$ \text{ReLU} x=\max (0, x)=\left\{\begin{array}{l} x, \text { if } x \geq 0 \\ 0, \text { if } x<0 \end{array}\right. $$ (3) $$ \text{LeakyReLU}(x)=\max (0, x)=\left\{\begin{array}{ll} a x, & \text { if } x \geq 0 \\ 0 & \text { if } x<0 \end{array}\right. $$ (4) 1.2 亚像素上采样层
红外探测器相比可见光探测器像元数量少,获取的红外图像的分辨率低,为便于显示多采用插值法以提高图像分辨率。一般插值法是通过目标函数在若干点的函数值或者导数值附近构造一个与目标函数相近似的低次插值多项式。该方法增加了图像的美观性,但在某种程度上丧失了部分数据的真实性,没有考虑到原有像素间的分布特点,仅能针对局部小区域进行运算并且运算量巨大,在某种程度上丧失了部分数据的真实性,因而在重构图像中可能会出现纹理条纹或者局部模糊甚至对求梯度优化有害。
亚像素上采样层又称像素混合层(pixel-shuffle layer)不同于基于插值的上采样方法,该层的插值函数隐含在前一个卷积层中,可以自动学习。在本文中,亚像素层可以表示为:
$$ I_\text{SR}=PS(W_\text{L}*f^{L-1}(I_\text{LR})+b_\text{L}) $$ (5) 其中PS代表亚像素上采样运算,WL代表卷积操作。
$$\text{PS}(T)_{x, y, c}=T_{[x /s], [y /s], C \cdot s \cdot {\rm{mod}} (y, s)+C \cdot {\rm{mod}}(x, s)+c}$$ (6) 式中:mod()表示在最后一层的前一层进行的卷积操作;s是比例因子。
亚像素上采样层是一个端到端的上采样层,执行上采样通过卷积产生多个通道然后重塑它们。在这一层中,假设输入尺寸为h×w×c,则输出尺寸为h×w×s2。之后,进行变形操作以产生大小sh×sw×c输出。这里的卷积操作是在低分辨率图像,因而亚像素上采样的效率将高于双三次上采样和反卷积。使用这种端到端的上采样方式得到的子像素层提供更多的上下文信息以帮助生成更多现实的细节。然而,因为构造亚像素点时利用的信息来源于同一卷积层,其感受野的大小是相同的,实现了相互独立的块状区域预测。但由于构造过程缺少全局信息,独立预测块状区域中的相邻像素可能会导致输出不平滑。
1.3 深度密集残差结构的设计
在超分辨率重构过程中的信息损失可以分为两部分:一部分源于卷积层在进行卷积操作时造成的中心区域外的信息损失;另一部分是在超分辨率重构过程中,高频信息被作为冗余信息舍弃。在前文设计的深度残差模块可避免卷积层使用过程中的信息损失,可通过堆叠该模块增加网络深度。但是,模块仅能利用这个模块内部信息,其他模块的信息无法充分利用。并且结构中缺少对于低分辨率图像中信息的利用。
在本文中,我们构建了深度密集残差结构。结构中包含6个改进的残差块,每个残差块用以提取局部特征。为了充分利用每个模块提取的信息,每个残差块的输出可以递进地传递到下一个残差块的各层并与那一层的特征进行融合,从而保证特征信息连续传递。这种局部特征融合策略通过自适应地保存信息来提取局部密集特征,在实现密集网络的同时用于解决梯度消失问题,有效地保证了网络对于红外图像的学习能力。
在提取多层局部密集特征后,我们进一步进行全局特征融合以传输全局上下文特征,作为对重建图像的指导。通过连接输入和输出图像将全局特征传输到亚像素上采样层(即pixel-shuffle layer),实现对于全局残差特征的利用。如图 2所示,亚像素上采样层可以直接访问原始的低分辨率输入,避免由于卷积层大量使用造成的局部上下文信息缺失引起的重建错误。局部特征融合和全局特征融合也可以起到减少高频信息损失的作用。
在网络中,我们选用L2 loss(即最小化误差)作为网络的损失函数。该函数是真实值和预测值之间所有平方差的总和,公式如(7)所示:
$$ \text{Loss}(x, y)=\frac{1}{n} \sum\limits_{i=1}^{n}\left(y_{\text {tros }}-y_{\text {probiciona }}\right)^{2} $$ (7) 式中:ytrue代表真实值;ypredicted代表预测值。
2. 实验结果与分析
2.1 实验设置
实验中我们使用中国科技大学提出的地/空背景下红外图像弱小飞机目标检测跟踪数据集[15]。红外数据集中每个红外数据段的原始数据为视频格式,为了后续数据加工的方便,在数据预处理阶段将每个数据段的视频格式数据转换为8 bit位深的Windows位图格式的多文件的图像序列。图像分辨率为10~100 m。
测试集中我们使用了中波红外热像仪提取的图像,该热像仪能见度为8 km,视场角为17°×13°,图像原始分辨率为768×564。
我们使用来自NVIDIA 1080Ti GPU的随机样本训练所有网络,为了优化,我们使用b=0.9、且学习率为10−4的ADAM。由于GPU内存限制,我们调整了数据集中图像的大小,我们将图像裁剪为512×512像素,这可以保证网络有足够的数据,防止模型过拟合,提高其鲁棒性。测试图像尺寸为256×256像素。为客观公平进行比较,所有基于深度学习模型的超分辨率算法都采用相同的训练集进行训练。
为了模拟低分辨率图像,我们首先按比例因子图像进行下采样,将对应的图像大小改为原来的1/比例因子,作为超分辨率网络的输入。我们设置的比例因子为2、3和4。实验中使用PSNR和SSIM作为客观评价标准。
PSNR的定义可以表示为:
$$ \mathrm{MSE}=\frac{1}{H \times W} \sum\limits_{i=1}^{H} \sum\limits_{j=1}^{W}(X(i, j)-Y(i, j))^{2} $$ (8) $$ \text { PSNR }=10 \times \lg \left(\frac{\left(2^{n}-1\right)^{2}}{M S E}\right) $$ (9) 式中:n是每个像素的位数;X是原始图像;Y是超分辨图像。H和W是图像的宽度和高度。
SSIM值的公式为:
$$ \text{SSIM}(x, y)=\frac{\left(2 \mu_{x} \mu_{y}+c_{1}\right)\left(2 \sigma_{x y}+c_{2}\right)}{\left(\mu_{x}^{2}+\mu_{y}^{2}+c_{1}\right)\left(\sigma_{x}^{2}+\sigma_{y}^{2}+c_{2}\right)} $$ (10) 式中:μx是图像x的平均值;μy是图像y的平均值;σx2是x的方差;σy2是y的方差;σxy是x和y的协方差。c1=(k1L)2和c2=(k2L)2是维持稳定的函数;L是像素值动态范围,k1=0.01,k2=0.03。
2.2 实验结果对比
在对比实验中,采用了3种经典的基于深度学习的超分辨率算法与本文算法进行定性定量比较:EDSR(enhanced deep-networks for super-resolution),超分卷积神经网络(super-resolution convolutional neural network, SRCNN),ESPCN(efficient sub-pixel convolutional neural network)。本文同时选择了常用的双线性插值法(Bicubic)作为实验结果中主观评价的结果之一。为客观公平进行比较,所有基于深度学习模型的超分辨率算法都采用相同的训练集进行训练。
对比的实验结果分别列在表 1~2以及图 3~4中。从表 1和表 2的结果来看,本文设计的超分辨率方法在所有尺度因子下均获得较高的PSNR与SSIM。实验结果表明,本文提出的方法在PSNR和SSIM等客观评价指标上优于其他算法。相比于其他几种算法,本文设计的深度残差神经网络的重构红外图像效果明显优于其他几种算法,图像更加自然,与原图像相比改善了部分区域的纹理细节,实现了高质量的红外图像重构。
表 1 使用4种方法对红外图像的PSNR与SSIM评价结果1Table 1. PSNR evaluation results of infrared images using four methodsScale factor SRCNN EDSR ESPCN Proposed in this paper PSNR SSIM PSNR SSIM PSNR SSIM PSNR SSIM 2 21.11 0.75 22.51 0.79 23.52 0.76 25.46 0.80 3 21.55 0.79 23.08 0.81 25.21 0.83 26.31 0.84 4 22.85 0.80 23.31 0.867 24.58 0.84 26.85 0.84 表 2 使用4种方法对红外图像的PSNR与SSIM评价结果2Table 2. PSNR evaluation results of infrared images using four methodsScale factor SRCNN EDSR ESPCN Proposed in this paper PSNR SSIM PSNR SSIM PSNR SSIM PSNR SSIM 2 22.35 0.81 24.35 0.83 25.11 0.84 27.65 0.85 3 25.31 0.841 27.35 0.85 28.37 0.88 28.42 0.88 4 26.31 0.852 27.45 0.87 28.52 0.89 29.41 0.90 从表 1和表 2可以看出,本文算法的SSIM值与ESPCN的SSIM值非常接近,PSNR值提升相对较多。这表明本文设计的算法在增加网络深度的同时并没有造成超分辨率重构结果质量的降低。与EDSR算法的对比表明,本文提出的算法在SSIM和PSNR值上有所提高,这表明本文设计的密集网络结构中关于局部特征融合和全局特征融合的设计可以有效地改善重构图像质量。
在图 3和图 4中可以看出,所有算法的重建质量相比双线性插值有一定的提升,对于具有明显边界的区域够得到清晰的纹理。所有算法的重建质量相比双线性插值有一定的提升,对于具有明显边界的区域能够得到清晰的纹理。
在图 3中,图 3(b)为双线性上采样方法,重建图像中部分匀质区域过于平滑,缺少细节真实感。图 3(c)是SRCNN的结果,由于网络只有3层,学习能力有限,图像中出现大量虚假纹理信息,在均匀区域容易出现伪影;图 3(d)是EDSR的结果,该网络堆叠更多的残差模块以提高网络学习能力,因此重构结果明显优于SRCNN,但是网络缺少对于其他层信息的利用,图像中出现大量纹理条纹;图 3(e)中的ESPCN算法采用了亚像素上采样层,其效果与EDSR近似,但相比EDSR层数较少,图像中的景物轮廓不够清晰,白点的无人机轮廓也并不清晰;图 3(f)是本文设计的方法,图像细节明显,尤其是林地、草地等具有不规则形状的区域重建效果较好。图 4中可以看出,本文提出的网络对复杂的杂乱纹理的重建效果较好,尤其是草地上的杂乱区域的重构图像比较清晰,细节丰富。
得益于深度残差模块的使用以及亚像素上采样模块的引入,本文所提出的模型可以获得更加理想的高分辨图像,解决了不规则纹理的模糊问题。尤其是通过采用密集特征连接结构,该网络可以有效地加深网络结构,提高网络的学习能力。这表明我们提出的方法在提取信息和高频信息保留方面效果较好。
3. 结论
针对红外图像特点,本文提出了一种基于深度残差神经网络的超分辨率重构算法。该模型利用改进的残差模块有效地增加了网络深度,提高了网络的学习能力,通过使用密集特征连接提高了网络对高频信息的利用,并有效地增加了对于网络结构中不同层的信息利用。仿真实验结果表明本文模型能够生成具有丰富细节并且目标轮廓边界清晰的图像,有效地补充了原图中的细节。总体来看,本文中设计的算法在保持较高精度的同时,还可以很好地处理目标的尺度变化和目标周围的环境,说明算法中加入的密集网络结构、深度残差强化模块等发挥了良好的作用。
-
表 1 数学模型参数p计算结果
Table 1 Calculation results of parameter p
No. The X direction displacement (pixel) The Y direction displacement (pixel) The piezo positioner displacement/μm 1 -0.002 -0.004 0 2 0.621 0.639 5 3 1.398 2.206 10 4 2.875 3.327 15 5 3.655 4.573 20 6 5.111 5.878 25 7 6.474 6.993 30 8 7.533 8.109 35 9 8.661 9.221 40 10 9.81 10.321 45 11 10.616 11.579 50 12 12.042 12.871 55 The parameter p of the X direction: 0.2260 pixel/μm,
the parameter p of the Y direction: 0.2364 pixel/μm表 2 某型微扫描器件的测试结果
Table 2 The test results of a micro scanner
The design displacement No. X direction displacement test Y direction displacement test Real value Difference Real value Difference 12.5 μm 1 12.573 0.073 12.089 -0.411 2 12.303 -0.197 12.221 -0.279 3 12.567 0.067 12.121 -0.379 4 12.485 -0.015 12.231 -0.269 5 12.506 0.006 12.075 -0.425 6 12.504 0.004 12.053 -0.447 7 12.576 0.076 12.231 -0.269 8 12.208 -0.292 12.221 -0.279 9 12.507 0.007 12.113 -0.387 10 12.510 0.01 12.113 -0.387 11 12.450 -0.05 12.072 -0.428 12 12.372 -0.128 12.157 -0.343 13 12.451 -0.049 12.174 -0.326 14 12.455 -0.045 12.178 -0.322 15 12.448 -0.052 12.173 -0.327 16 12.498 -0.002 12.149 -0.351 17 12.486 -0.014 12.083 -0.417 18 12.366 -0.134 12.078 -0.422 19 12.454 -0.046 12.158 -0.342 20 12.457 -0.043 12.133 -0.367 Mean 12.4588 -0.0412 12.1412 -0.3589 表 3 本文实验不确定度汇总
Table 3 The summary of the test uncertainty in this paper
Uncertainty component Ui Uncertainty source Uncertainty Sensitivity coefficient ci $ \left| {{c_i}} \right| \cdot {U_i} $ U(m) of the X direction The repeat test of the X direction 0.02014 μm c1=4.425 0.08912 μm U(m) of the Y direction The repeat test of the Y direction 0.01278 μm c1=4.230 0.05406 μm U(m1) of the X direction The error of the piezo positioner at the X direction -0.0041 μm c2=2.791 -0.01144 μm U(m1) of the Y direction The error of the piezo positioner at the Y direction -0.0045 μm c2=2.699 -0.01215 μm The synthetic uncertainty of the X direction: 0.08985 μm; The expand uncertainty of the X direction: 0.17970 μm
The synthetic uncertainty of the Y direction:0.05541 μm; The expand uncertainty of the Y direction: 0.11082 μm -
[1] Bagavathiappan S, Lahiri B B, Saravanan T, et al. Infrared thermography for condition monitoring–a review[J]. Infrared Physics & Technology, 2013, 60: 35-55.
[2] Kogure S, Inoue K, Ohmori T, et al. Infrared imaging of an A549 cultured cell by a vibrational sum-frequency generation detected infrared super resolution microscope[J]. Optics Express, 2010, 18(13): 13402-13406. DOI: 10.1364/OE.18.013402
[3] Lanfrey D B, Trinolet P, Pistone F, et al. New IR detectors with small pixel pitch and high operating temperature[C]//Proc. of SPIE, 2010, 7854: 78540M.
[4] 吕侃, 王世勇. 超分辨率技术在红外微扫描中的应用[J]. 电子设计工程, 2011, 19(13): 166-169. DOI: 10.3969/j.issn.1674-6236.2011.13.050 LV Kan, WANG Shiyong. Application of super-resolution techniques in infrared micro-scanning[J]. Electronic Design Engineering, 2011, 19(13): 166-169. DOI: 10.3969/j.issn.1674-6236.2011.13.050
[5] 张良, 仇振安, 杨小儒, 等. 红外系统微扫描技术研究[J]. 激光与光电子学进展, 2012, 49(4): 1-5. https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ201204024.htm ZHANG Liang, QIU Zhen'an, YANG Xiaoru, et al. Research of infrared micro-scanning technology[J]. Laser & Optoelectronics Progress, 2012, 49(4): 042302 https://www.cnki.com.cn/Article/CJFDTOTAL-JGDJ201204024.htm
[6] 吴新社, 邓芳轶, 陈敏, 等. 旋转式红外微扫描器研制[J]. 红外与毫米波学报, 2011, 30(3): 263-267. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYH201103017.htm WU Xinshe, DENG Fangyi, CHEN Min, et al. Development of rotary infrared micro-scanner[J]. Journal of Infrared and Millimeter Waves, 2011, 30(3): 263-267. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYH201103017.htm
[7] 王学伟, 李珂, 王世立. 红外成像系统微扫描成像重建算法研究[J]. 光电工程, 2012, 39(12): 122-126. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC201212023.htm WANG Xuewei, LI Ke, WANG Shili. Microscanning reconstruction algorithm for IR imaging system[J]. Opto-Electronic Engineering, 2012, 39(12): 122-126. https://www.cnki.com.cn/Article/CJFDTOTAL-GDGC201212023.htm
[8] 代少升, 张德州, 崔俊杰, 等. 基于微扫描的红外超分辨率成像系统的设计[J]. 半导体光电, 2017, 38(1): 103-106, 112. https://www.cnki.com.cn/Article/CJFDTOTAL-BDTG201701026.htm DAI Shaosheng, ZHANG Dezhou, CUI Junjie, et al. Design of infrared super-resolution imaging system based on micro-scanning[J]. Semiconductor Optoelectronics, 2017, 38(1): 103-106, 112. https://www.cnki.com.cn/Article/CJFDTOTAL-BDTG201701026.htm
[9] 黄燕, 沈飞, 黄整章, 等. 压电式高精度位移微扫描控制系统设计[J]. 光学精密工程, 2016, 24(10s): 454-460. HUANG Yan, SHEN Fei, HUANG Zhengzhang, et al. Micro-scanning control system design for piezoelectric high-precision displacement[J]. Editorial Office of Optics and Precision Engineering, 2016, 24(10s): 454-460.
[10] 王忆锋, 侯辉, 冯雪艳. 红外焦平面器件微扫描技术的发展[J]. 红外技术, 2013, 35(12): 751-758. http://hwjs.nvir.cn/article/id/hwjs201312002 WANG Yifeng, HOU Hui, FENG Xueyan, Development of microscan techniques in infrared focal plane array[J]. Infrared Technology, 2013, 35(12): 751-758. http://hwjs.nvir.cn/article/id/hwjs201312002
[11] 王林波, 王延杰, 邸男, 等. 基于几何特征的圆形标志点亚像素中心定位[J]. 液晶与显示, 2014, 29(6): 1003-1009. https://www.cnki.com.cn/Article/CJFDTOTAL-YJYS201406024.htm WANG Linbo, WANG Yanjie, DI Nan, et al. Subpixel location of circle target center based on geometric features[J]. Chinese Journal of Liquid Crystals and Displays, 2014, 29(6): 1003-1009. https://www.cnki.com.cn/Article/CJFDTOTAL-YJYS201406024.htm
[12] 梁智滨, 吴鹏飞, 李灵巧, 等. 基于改进Zernike矩和均值漂移的插针位置检测方法[J]. 桂林电子科技大学学报, 2021, 41(4): 305-311. https://www.cnki.com.cn/Article/CJFDTOTAL-GLDZ202104008.htm LIANG Zhibin, WU Pengfei, LI Lingqiao, et al. Pin position detection based on improved Zernike moment and mean shift[J]. Journal of Guilin University of Electronic Technology, 2021, 41(4): 305-311. https://www.cnki.com.cn/Article/CJFDTOTAL-GLDZ202104008.htm
[13] 田光宝, 王见, 王博文. 单目相机非合作目标提取及位姿检测[J]. 红外与激光工程, 2021, 50(12): 20210166. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ202112050.htm TIAN Guangbao, WANG Jian, WANG Bowen. Monocular camera non-cooperative target extraction and pose detection[J]. Infrared and Laser Engineering, 2021, 50(12): 20210166. https://www.cnki.com.cn/Article/CJFDTOTAL-HWYJ202112050.htm
[14] Ghosal S, Mecrotra R. Orthogonal moment operator for subpixel edge detection[J]. Pattern Recognition, 1993, 26(2): 295-306.
[15] 卢达, 白静芬, 林繁涛, 等. 基于映射常数的动态量值不确定度评定方法[J]. 电测与仪表, 2022, 59(6): 53-59. https://www.cnki.com.cn/Article/CJFDTOTAL-DCYQ202206008.htm LU Da, BAI Jingfen, LIN Fantao, et al. Evaluation of uncertainty for dynamic values based on mapping constants[J]. Electrical Measurement & Instrumentation, 2022, 59(6): 53-59. https://www.cnki.com.cn/Article/CJFDTOTAL-DCYQ202206008.htm
[16] 中国国家标准化管理委员会. 测量不确定度评定和表示: GB/T 27418-2017[S]. 北京: 中国标准出版社, 2018. Standard Administration. Guide to Evaluation and Expression of Uncertainty in Measurement: GB/T 27418-2017[S]. Beijing: Standards Press of China, 2018.
-
期刊类型引用(1)
1. 郭亮. 基于CGAN的近红外关联成像高分辨率重构. 智能计算机与应用. 2024(05): 144-149 . 百度学术
其他类型引用(9)