基于相机平移矩阵奇异值分解的极线校正

李守业, 胡茂海, 李天冉, 段哲一

李守业, 胡茂海, 李天冉, 段哲一. 基于相机平移矩阵奇异值分解的极线校正[J]. 红外技术, 2024, 46(2): 155-161.
引用本文: 李守业, 胡茂海, 李天冉, 段哲一. 基于相机平移矩阵奇异值分解的极线校正[J]. 红外技术, 2024, 46(2): 155-161.
LI Shouye, HU Maohai, LI Tianran, DUAN Zheyi. Epipolar Rectification Based on Singular Value Decomposition of Camera Translation Matrix[J]. Infrared Technology , 2024, 46(2): 155-161.
Citation: LI Shouye, HU Maohai, LI Tianran, DUAN Zheyi. Epipolar Rectification Based on Singular Value Decomposition of Camera Translation Matrix[J]. Infrared Technology , 2024, 46(2): 155-161.

基于相机平移矩阵奇异值分解的极线校正

详细信息
    作者简介:

    李守业(1999-)男,硕士研究生,主要研究方向为机器视觉。E-mail: lsy@njust.edu.cn

    通讯作者:

    胡茂海(1967-)男,博士,副教授,主要研究方向为机器视觉、高速数据采集。E-mail: hmh@njust.edu.cn

  • 中图分类号: TP391.4

Epipolar Rectification Based on Singular Value Decomposition of Camera Translation Matrix

  • 摘要: 极线校正是一种针对双目相机原始图像对的投影变换方法, 使校正后图像对应的极线位于同一水平线上,消除垂直视差,将立体匹配优化为一维搜索问题。针对现今极线校正的不足,本文提出一种基于双目相机平移矩阵的极线校正方法:首先利用奇异值分解(singular value decomposition, SVD)平移矩阵,求得校正后的新旋转矩阵;其次通过校正前后的图像关系确立一个新相机内参矩阵,完成极线校正。运用本文方法对SYNTIM数据库的不同场景多组双目图像进行验证,实验结果表明平均校正误差在0.6像素内,图像几乎不产生畸变,平均偏斜在2.4°左右,平均运行时间为0.2302 s,该方法具有应用价值,完全满足极线校正的需求,解决了双目相机在立体匹配过程中由于相机的机械偏差而产生的误差和繁琐的计算过程。
    Abstract: Epipolar rectification is a projection transformation method for the original image pair of a binocular camera such that the corresponding polar lines of the corrected image are on the same horizontal line, no vertical parallax occurs, and stereo-matching is optimized as a one-dimensional search problem. A polar correction method based on a binocular camera translation matrix is proposed to address the shortcomings of current polar correction methods. First, the new corrected rotation matrix is derived using the translation matrix of singular value decomposition. Second, a new camera internal reference matrix is established based on the image relationship before and after correction to complete the polar correction. The proposed method was used to verify multiple groups of binocular images in different scenes in the SYNTIM database. The experimental results show that the average correction error is within 0.6 pixels. The image produces minimal distortion, and the average deviation is approximately 2.4°. The average operation time is 0.2302 s. With its application value, this method fully satisfies polar correction requirements, solves the error, and improves the tedious calculation process caused by the mechanical deviation of the camera during the stereo matching of binocular cameras.
  • 夜间高分辨率图像被广泛应用于安防安保监控系统、航天航空军事制导、对地检测卫星遥感以及汽车自动驾驶等领域。然而,有雾的夜间图像经增强处理后呈现出对比度低,细节模糊等特征,不易辨识。目前最广泛使用的基于暗通道先验理论(dark channel prior, DCP)的去雾算法[1]对白天降质图像进行去雾时具有较好的效果,但对夜间降质图像进行去雾后,图像在人工光源区域存在严重的颜色失真[2],暗区域的亮度不够[3]

    目前,基于DCP算法的夜间图像去雾算法的研究已经取得了较大的进展:陈志恒提出了一种自适应全局亮度补偿算法[4],自适应调节夜间有雾图像的全局亮度,提高了夜间降质图像待去雾区域的可视度,但对微弱光源的夜间图像去雾效果有待改进;皮燕燕将夜间有雾图片分为结构层和纹理层,利用DCP算法得到结构层的无雾反射光图像,对纹理层进行增强后得到夜间去雾图像[5],但对图像天空部分的去雾存在失真;王柳哲针对夜晚环境的光照不均匀会影响暗通道的大气光估计,采用中值滤波与加权正则化模型对环境光进行优化的方法来估计大气光值[6],改进了去雾图像的色偏现象,但是不能很好地去除光晕。

    针对现有算法存在的图像颜色失真、微弱光源图像去雾效果差、光晕不能很好去除等问题,本文提出了采用暗态点光源模型的夜间有雾图像去雾算法,针对传统图像透射率分布估计不准导致颜色失真的问题,通过暗通道可信度权值因子对粗透射率分布进行修正,再利用边窗导向滤波对粗透射率分布进行细化。实验结果表明,本文算法去雾效果好、在微弱光源处还原性好,有效减少了还原图像的光晕与颜色失真。

    He通过统计发现,晴朗天气图像的暗通道图像中至少86%以上的灰度值集中分布在[0, 16]的灰度空间范围之内,且在无天空区域图像的R、G、B通道中,至少存在一个通道的灰度值是趋近于0的[1]。He将这一结果定义为暗通道先验,用式(1)进行表示:

    $$ {J_{{\text{dark}}}}(x, y) = \mathop {\min }\limits_{c \in \{ R, G, B\} } \left( {\mathop {\min }\limits_{y \in \mathit{\Omega } (x, y)} \left( {{J_{\text{c}}}(x, y)} \right)} \right) $$ (1)

    式中:Jdark(x, y)表示无雾图像的暗通道图像;Jc(x, y)表示无雾图像的RGB通道中的某一通道;Ω(x, y)表示滤波的窗口大小。

    通过计算大气光值A和透射率分布t″(x, y)解得无雾图像J(x, y)的表达式如式(2)所示:

    $$ J(x, y) = \frac{{I(x, y) - A}}{{t''(x, y)}} + A $$ (2)

    然而,当透射率分布t″(x, y)趋近于零时,会导致还原后的去雾图像J(x, y)包含大量的噪声,表现出复原的图像整体偏白。为避免该类情况的发生,在实际处理中,给透射率分布设置一个下限t0,复原后的降质图像可以表示为式(3):

    $$ J(x, y) = \frac{{I(x, y) - A}}{{\max \left[ {t''(x, y), {t_0}} \right]}} + A $$ (3)

    式中:t0一般取作0.1,相当于去雾图像仍然保留了少量的雾层。

    DCP算法对白天图像进行处理时具有较好的去雾效果,去雾结果颜色真实自然。但对夜间图像进行去雾时,处理后的图像在人工光源区域产生严重的颜色失真,暗区域的亮度不够导致细节信息缺失,光源区域的纹理受损严重。

    针对夜间有雾图像的纹理细节保持、色彩保持等问题,本文在DCP算法的基础上,提出了一种采用暗态点光源模型的夜间有雾图像去雾算法。算法实现过程如图 1所示,主要由夜间环境光分布估计、透射率分布估计以及颜色校正3个模块组成,具体过程如下:

    图  1  采用暗态点光源模型的夜间图像去雾算法流程
    Figure  1.  Process of nighttime image dehazing algorithm using dark point light source model

    利用最小值滤波算法、自适应伽马变换算法建立暗态点光源模型,并利用最大值滤波算法获取夜间降质图像的亮度分布。使用暗态点光源模型、亮度分布以及联合双边滤波算法估计夜间降质图像的环境光分布[7]

    通过颜色空间转换、HSV通道分离,对降质图像的亮度通道和饱和度通道分别进行最大值滤波、最小值滤波处理,利用联合双边滤波对其进行细化处理,得到暗通道可信度权值因子。然后,建立扇形模型,利用高斯均值函数、边界约束、均值不等关系,获取“伪”去雾图像,再结合夜间环境光分布,将获取的暗通道可信度权值因子和伪去雾图像作为修正参数,改进透射率分布的求取公式,获取夜间降质图像的透射率分布。最后利用边窗导向滤波细化纹理,得到精细化透射率分布,再对降质图像进行还原后获取去雾图像。

    根据输入图像G通道的最大灰度值,计算输入图像的景深图像,将其与输入图像B通道、R通道的最大灰度值做减法,求取景深差分图像DDF。再利用φθ两个校正参数分别对图像R通道和B通道进行色偏校正,再将处理后的3个通道进行融合,得到颜色校正的图像。

    在计算夜晚降质图像的透射率分布时,容易引起透射率分布t′(x, y)的估计值偏小[8]。为提高透射率分布估算结果的准确度,减少去雾图像的颜色失真,本文通过暗通道可信度权值因子ω和“伪”去雾图像$\tilde J(x, y)$对图像粗透射率分布进行修正,同时利用边窗导向滤波对其进行细化,得到细透射率分布t″(x, y)。

    暗通道可信度权值因子获取流程如图 2所示,将夜间降质图像I(x, y)转换至HSV颜色空间,并进行通道分离得到饱和度通道S(x, y)、亮度通道V(x, y)图像,分别对其进行最大值滤波、最小值滤波,得到Smax(x, y)和Vmin(x, y)。

    图  2  暗通道可信度权值因子获取流程
    Figure  2.  Dark channel credibility weight factor acquisition process

    Smax(x, y)和Vmin(x, y)图像自身边缘信息损失严重,需用联合双边滤波对其进行纹理细化,得到细化结果Smin′(x, y)和Vmin′(x, y),处理过程如式(4)所示:

    $$ \left\{ \begin{array}{l} {{S'}_{\max }}\left( {x, y} \right) = {\rm{CroBilFilter}}\left( {{S_{\max }}\left( {x, y} \right)} \right) \\ {{V'}_{\min }}\left( {x, y} \right) = {\rm{CroBilFilter}}\left( {{V_{\min }}\left( {x, y} \right)} \right) \end{array} \right. $$ (4)

    此时以细化后Smax′(x, y)和Vmin′(x, y)为处理对象,对暗通道可信度权值因子ω进行求取,求取过程如式(5)、(6)所示。

    $$ \left\{ \begin{array}{l} {\omega _1} = {\left( {1 + {k_1} \cdot \exp \left( {{{S'}_{\max }}\left( {x, y} \right)} \right)} \right)^{ - 1}} \\ {\omega _2} = {\left( {1 + {k_2} \cdot \exp \left( {\frac{{{{V'}_{\min }}\left( {x, y} \right)}}{{A(x, y)}} - 1} \right)} \right)^{ - 1}} \end{array} \right. $$ (5)
    $$ \omega=\omega_1 \cdot \omega_2 $$ (6)

    式中:A(x, y)表示夜间环境光分布;ω1表示饱和度系数;ω2表示亮度系数;ω表示暗通道可信度权值因子。暗通道可信度权值因子ω会随着Smax′(x, y)的增加、Vmin′(x, y)的减少而出现大幅度下降;k1k2表示sigmoid函数的缩放系数,当k1=8、k2=20时,具备较好的实验效果。

    通过构建一个扇形模型,对夜间无雾图像的暗通道图像作初始估计;设定一种自适应高斯均值衰减函数用来估计扇形阴影区域的最小值和最大值;通过几何均值不等关系进行逼近拟合,得到最佳的夜间无雾图像暗通道图,将其称作夜间伪去雾图像,记作$ {\tilde J_{{\rm{night}}}}(x, y) $。

    本文通过边缘最值约定对min(Jc(x, y))的范围进行约束,构建如图 3所示的扇形模型,由图可知:min(Jc(x, y))的最优解存在于min(Icmin(x, y))与min(Icmax(x, y))之间的阴影区域中。

    图  3  扇形模型几何表示
    Figure  3.  Sector model geometric representation

    采用不等式逼近对阴影区域内的最优解min(Jc(x, y))进行求取。采用较为剧烈的衰减ρ2处理上边界min(Icmax(x, y)),对下边界min(Icmax(x, y))采用较为平和的衰减ρ1对其进行估值,以防止逼近过程中产生溢出现象。得到扇形区域两侧边界的估计值如式(7)所示:

    $$ \left\{ \begin{array}{l} \min \left( {{I_{{\text{cmin}}}}(x, y)} \right) = {\rho _1}\min \left( {{I_{{\text{cmin}}}}(x, y)} \right) \\ \min \left( {{I_{{\text{cmax}}}}(x, y)} \right) = {\rho _2}\min \left( {{I_{{\text{cmax}}}}(x, y)} \right) \end{array} \right. $$ (7)

    在得到阴影区域两侧边界的估计值min(Icmin(x, y))和min(Icmax(x, y))后,根据式(8)通过不等式形式进行逼近,从而得到最佳min(Jc(x, y)),本文称作夜间伪去雾图像,并记作${\tilde J_{{\rm{night}}}}(x, y)$,如式(8)所示:

    $$ \begin{array}{l} {{\tilde J}_{{\rm{night}}}}(x, y) = \min \left( {{J_{\text{c}}}(x, y)} \right) \\ \;\; \;\;\; \;\; \;\; \;\; \;\; \;\;= \sqrt {\min \left( {{J_{{\text{cmin}}}}(x, y)} \right) \cdot \min \left( {{J_{{\text{cmax}}}}(x, y)} \right)} \end{array} $$ (8)

    结合夜间环境光分布A(x, y),将暗通道可信度权值因子ω和夜间伪去雾图像${\tilde J_{{\rm{night}}}}(x, y)$作为修正参数,对透射率分布求取公式进行改进,得到式(9):

    $$ t'(x, y) = \frac{{1 - \psi \cdot \left( {\frac{{I\left( {x, y} \right)}}{{A(x, y)}}} \right)}}{{1 - \omega \cdot \left( {\frac{{{{\tilde J}_{{\rm{night}}}}(x, y)}}{{A(x, y)}}} \right)}} $$ (9)

    式中:t′(x, y)为粗透射率分布;ω为暗通道可信度权值因子;ψ为雾层保留参数,用作去雾图像中少量雾气的保留,以保证图像的视觉真实性,对于夜间雾图的处理中,一般取作0.65。

    为减小去雾后出现的光晕现象,本文根据文献[9]提出的边窗导向滤波技术对粗透射率分布进行纹理细化处理,以提升图像边缘信息的保持能力。通过对边窗的滤波核函数F进行加权操作,并将其应用在{L, R, U, D, NW, NE, SW, SE}8个窗口类型上,从输出的8个结果中,找出与输入最接近的边窗类型,将其滤波结果作为最终的边窗滤波结果,得到精细化透射率分布t″(x, y)。

    在得到夜间环境光分布A(x, y)以及细透射率分布t″(x, y)以后,对式(3)进行改进得到式(10):

    $$ J(x, y) = \frac{{I(x, y) - A(x, y)}}{{\max \left[ {t''(x, y), {t_0}} \right]}} + A(x, y) $$ (10)

    为验证本文算法的去雾效果,本文将从主观和客观两个评价角度进行实验对比。

    本文以重度雾霾下的城市夜景实拍等夜间降质图像建立降质图库,随机选取了4幅具有低照度夜间特征代表性的降质图像,基于低照度夜间增强算法对其处理之后,分别采用基于暗通道先验理论去雾算法与本文算法对其进行去雾处理,得到结果如图 4所示。

    图  4  本文算法的去雾结果对比
    Figure  4.  Comparison of dehazing results of the algorithm in this paper

    可以看到,采用基于暗通道先验理论的去雾图像在人工光源区域有严重的光晕效应,而本文的去雾算法的去雾结果中图像中的雾气得到有效去除,去雾后的图像颜色自然,符合人眼视觉观感。

    使用图像信息熵、平均梯度和对比度对经过文献[1]、[6]、[10]中算法与本文算法的处理结果进行客观评价。统计其客观评价结果如表 1~表 3所示,其中,表 1为图像信息熵的统计结果,表 2为图像平均梯度的统计结果,表 3为图像对比度的统计结果。表中,算法1为传统DCP算法[1],算法2为基于多光源模型与暗通道先验的去雾算法[6],算法3为基于暗通道补偿与大气光值改进的去雾算法[10]

    表  1  图像信息熵统计结果
    Table  1.  Image information entropy
    Comparative object Original image Enhanced image Algorithm 1 Algorithm 2 Algorithm 3 Method of this paper
    Fig. 1 6.87 7.15 7.28 7.46 9.04 9.77
    Fig. 2 6.74 7.03 7.26 7.2 7.21 7.61
    Fig. 3 7.14 7.95 7.29 8.44 11.17 13.81
    Fig. 4 6.57 7.28 7.68 8.06 8.98 9.74
    下载: 导出CSV 
    | 显示表格
    表  2  图像平均梯度统计结果
    Table  2.  Image average gradient
    Comparative object Original image Enhanced image Algorithm 1 Algorithm 2 Algorithm 3 Method of this paper
    Fig. 1 4.21 6.59 8.13 10.51 7.19 13.61
    Fig. 2 1.56 2.56 3.56 4.42 7.83 8.04
    Fig. 3 9.77 13.01 14.41 17.79 19.05 22.11
    Fig. 4 5.53 8.92 9.09 14.22 11.95 17.16
    下载: 导出CSV 
    | 显示表格
    表  3  图像对比度统计结果
    Table  3.  Image contrast
    Comparative object Original image Enhanced image Algorithm 1 Algorithm 2 Algorithm 3 Method of this paper
    Fig. 1 61.05 202.34 247.98 365.75 446.84 558.29
    Fig. 2 14.23 23.58 28.97 50.72 47.31 51.79
    Fig. 3 229.85 493.12 581.56 707.65 943.99 976.51
    Fig. 4 82.88 196.79 231.62 320.78 337.73 441.38
    下载: 导出CSV 
    | 显示表格

    可以看出,经过本文算法处理过后的图像的质量普遍有较为明显的改善,主要表现在图像的信息熵值、平均梯度以及对比度均高于对比算法,说明处理后的夜间有雾图像所包含的信息量更为丰富,在纹理细节上损失较小、图像清晰度高,同时夜间降质图像的明暗对比度得到较好地拉伸。

    为解决基于暗通道先验理论的去雾算法在处理夜间有雾图像时细节信息缺失、光源区域的纹理受损严重的问题,本文提出采用暗态点光源模型的夜间有雾图像去雾算法。同时通过暗通道可信度权值因子和“伪”去雾图像对图像粗透射率分布进行修正,再利用边窗导向滤波对其进行细化,提高了透射率分布估算结果的准确度。实验结果表明,本文算法处理后的图像在微弱光源处还原性好,有效减少了还原图像的光晕与颜色失真且在去雾前经过视见度增强处理,降质图像的亮度得到一定程度的保留,可视性较好。

  • 图  1   对极几何

    Figure  1.   Epipolar geometry

    图  2   极线校正流程

    Figure  2.   Epipolar correction process

    图  3   20对图像使用不同方法的误差(a)、畸变(b)、偏斜(c)、运行时间(d)

    Figure  3.   Rectification error(a), scale variance(b), skewness(c)and runtime(d) of different methods for 20 images

    图  4   画出极线的Rubik图像及极线斜率(a) 原始图像(斜率=1.23×10-2)(b) Bouguet方法(斜率=3.82×10-7)(c) Fusiello方法(斜率=2.71×10-7)(d) Hartley方法(斜率=3.95×10-5)(e) Mallon方法(斜率=3.19×10-7)(f) Wu方法(斜率=1.48×10-6)(g) 本文推荐方法(斜率=2.39×10-7

    Figure  4.   Rubik image with polar line drawn and polar line slope (a) Original image(Slope=1.23×10-2); (b) Bouguet's method (Slope=3.82×10-7); (c) Fusiello's method(Slope=2.71×10-7); (d) Hartley's method(Slope=3.95×10-5); (e) Mallon's method(Slope=3.19×10-7); (f) Wu's method(Slope=1.48×10-6); (g) Proposed rectification method (Slope=2.39×10-7)

    表  1   平均误差、畸变、偏斜、运行时间

    Table  1   Average error, scale, variance, skewness and runtime

    Methods Bouguet Fusiello Hartley Mallon Wu Proposed
    Error in pixels 0.6495 0.6268 0.8467 0.6361 0.7028 0.5940
    Scale variance 1.2275 1.2261 1.1270 1.1243 1.1900 1.0062
    Skewness/(°) 2.3369 2.4472 2.5156 3.2096 3.0419 2.3941
    Runtime/s 0.2349 0.2294 0.8473 1.305 0.2412 0.2302
    下载: 导出CSV
  • [1] 王学, 周红旭, 张雷, 等. 基于近红外双目立体视觉的悬臂式掘进机定位研究[J/OL]. 工矿自动化: 1-11[2022-09-15]. DOI: 10.13272/j.issn.1671-251x.17896.

    WANG X, ZHOU H X, ZHANG L, et al. Research on cantilever roadheader positioning based on near-infrared binocular stereo vision[J/OL]. [2022-09-15]. Mine Automation, DOI: 10.13272/j.issn.1671-251x.17896.

    [2] 江荣, 朱攀, 周兴林, 等. 基于双目视觉算法的路面三维纹理信息获取[J]. 激光与光电子学进展, 2022, 59(14): 284-292.

    JIANG R, ZHU P, ZHOU X L, et al. Three-dimensional pavement texture information acquisition based on binocular vision algorithm[J]. Laser & Optoelectronics Progress, 2022, 59(14): 284-292.

    [3] 舒方林, 张海波, 曹文冠. 基于立体视觉的交叉路口对向车辆运动状态估计[J]. 计算机与数字工程, 2022, 50(5): 1029-1034.

    SHU F L, ZHANG H B, CAO W G. Estimating the motion state of oncoming vehicle based on stereo vision at intersection[J]. Computer & Digital Engineering, 2022, 50(5): 1029-1034.

    [4] 冉舒文, 刘显明, 雷小华, 等. 基于双目视觉的抬头显示虚像三维形貌测量[J/OL]. [2022-10-26]. 光学学报, http://kns.cnki.net/kcms/detail/31.1252.O4.20220714.1900.522.html.

    RAN S W, LIU X M, LEI X H, et al. Head-up display virtural image 3D topography measurement based on binocular vision[J/OL]. [2022-10-26]. Acta Optica Sinica, http://kns.cnki.net/kcms/detail/31.1252.O4.20220714.1900.522.html

    [5]

    Bouguet J Y. Matlab Camera Calibration Toolbox[EB/OL]. 2000, http://www.vision.caltech.edu\bouguetj\calib_doc.

    [6]

    Andrea Fusiello, Luca Irsara. Quasi-Euclidean epipolar rectification of uncalibrated images[J]. Machine Vision and Applications, 2011, 22(4): 663-670. DOI: 10.1007/s00138-010-0270-3

    [7]

    Richard I Hartley. In defense of the eight-point algorithm[J]. IEEE Trans. Pattern Anal. Mach. Intell., 1997, 19(6): 580-593. DOI: 10.1109/34.601246

    [8]

    Hartley R, Zisserman A. Multiple View Geometry in Computer Vision[M]. Cambridge: Cambridge University Press, 2000.

    [9]

    Richard I Hartley. Theory and practice of projective rectification[J]. International Journal of Computer Vision, 1999, 35(2): 115-127. DOI: 10.1023/A:1008115206617

    [10] 林国余, 张为公. 一种无需基础矩阵的鲁棒性极线校正算法[J]. 中国图象图形学报, 2006(2): 203-209.

    LIN G Y, ZHANG W G. An Effective robust rectification method for stereo vision[J]. Journal of Image and Graphics, 2006(2): 203-209.

    [11]

    John Mallon, Paul F Whelan. Projective rectification from the fundamental matrix[J]. Image and Vision Computing, 2005, 23(7): 643-650. DOI: 10.1016/j.imavis.2005.03.002

    [12]

    WU Wenhuan, ZHU Hong, ZHANG Qian. Epipolar rectification by singular value decomposition of essential matrix[J]. Multimedia Tools Appl., 2018, 77(12): 15747-15771. DOI: 10.1007/s11042-017-5149-0

    [13]

    Martin A Fischler, Robert C Bolles. Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography[J]. Commun. ACM, 1981, 24(6): 381-395. DOI: 10.1145/358669.358692

    [14]

    Hyunsuk Ko, Han Suk Shim, Ouk Choi, et al. Robust uncalibrated stereo Rectification with constrained geometric distortions (USR-CGD)[J]. Image and Vision Computing, 2017, 60: 98-114. DOI: 10.1016/j.imavis.2017.01.001

  • 期刊类型引用(5)

    1. 王怡雯,郑伟,邢成龙. 方向显著性特征分布的加权散度红外弱小目标增强检测. 空间科学学报. 2025(01): 215-225 . 百度学术
    2. 杜妮妮,单凯东,王建超. HRformer:基于多级回归Transformer网络的红外小目标检测. 红外技术. 2024(02): 199-207 . 本站查看
    3. 杜妮妮,单凯东,卫莎莎. LPformer:基于拉普拉斯金字塔多级Transformer的红外小目标检测. 红外技术. 2023(06): 630-638 . 本站查看
    4. 蔺素珍,张海松,禄晓飞,李大威,李毅. RBNSM:一种复杂背景下红外弱小目标检测新方法. 红外技术. 2022(07): 667-675 . 本站查看
    5. 李常宝. 基于滑窗的自适应红外小目标检测方法. 光学技术. 2022(04): 506-512 . 百度学术

    其他类型引用(6)

图(4)  /  表(1)
计量
  • 文章访问数:  113
  • HTML全文浏览量:  25
  • PDF下载量:  19
  • 被引次数: 11
出版历程
  • 收稿日期:  2023-02-27
  • 修回日期:  2023-03-27
  • 刊出日期:  2024-02-19

目录

/

返回文章
返回