覆盖层对顶发射白光微型OLED性能的影响研究

杨启鸣, 钱福丽, 苟国汝, 王体炉, 鲁朝宇, 周允红, 段谦, 于晓辉, 段瑜, 王光华, 杨文运

杨启鸣, 钱福丽, 苟国汝, 王体炉, 鲁朝宇, 周允红, 段谦, 于晓辉, 段瑜, 王光华, 杨文运. 覆盖层对顶发射白光微型OLED性能的影响研究[J]. 红外技术, 2023, 45(3): 303-307.
引用本文: 杨启鸣, 钱福丽, 苟国汝, 王体炉, 鲁朝宇, 周允红, 段谦, 于晓辉, 段瑜, 王光华, 杨文运. 覆盖层对顶发射白光微型OLED性能的影响研究[J]. 红外技术, 2023, 45(3): 303-307.
YANG Qiming, QIAN Fuli, GOU Guoru, WANG Tilu, LU Chaoyu, ZHOU Yunhong, DUAN Qian, YU Xiaohui, DUAN Yu, WANG Guanhua, YANG Wenyun. Research on Capping Layer for Top-emitting White OLED Micro-display Performance[J]. Infrared Technology , 2023, 45(3): 303-307.
Citation: YANG Qiming, QIAN Fuli, GOU Guoru, WANG Tilu, LU Chaoyu, ZHOU Yunhong, DUAN Qian, YU Xiaohui, DUAN Yu, WANG Guanhua, YANG Wenyun. Research on Capping Layer for Top-emitting White OLED Micro-display Performance[J]. Infrared Technology , 2023, 45(3): 303-307.

覆盖层对顶发射白光微型OLED性能的影响研究

基金项目: 

国家自然科学基金项目 61604064

云南省应用基础研究面上项目 2016FB112

云南省技术创新人才培养项目 2017HB111

详细信息
    作者简介:

    杨启鸣(1992-),男,云南临沧人,硕士,工程师,主要从事OLED器件开发。E-mail:yangqiming@oleid.com

    通讯作者:

    段瑜(1981-),女,云南曲靖人,硕士,研究员级高级工程师,主要从事OLED器件开发。E-mail:duanyu@oleid.com

  • 中图分类号: TN383+.1

Research on Capping Layer for Top-emitting White OLED Micro-display Performance

  • 摘要: 采用两种覆盖层CPL(Capping layer)材料Alq3和ZnSe制备了顶发射白光有机电致发光器件TE-OLEDs(Top emitting white organic light-emitting diodes),器件结构为ITO/NPB: LiQ (5%) (10 nm) /TCTA(20nm)/FIrpic+3.5%Ir(ppy)3+0.5%Ir(MDQ)2(acac)(25nm)/TPBI(10nm)/LiF(5nm)/Mg: Ag(10%) (12 nm)/CPL。实验结果表明,Alq3和ZnSe作为CPL可以增强TE-OLED器件的出光和调制光谱特性,并且ZnSe作为覆盖层制备的TE-OLED器件色坐标(CIEX,CIEY)随亮度变化更平稳,表现出良好的色稳定性。进一步,通过改变ZnSe厚度来优化器件,当ZnSe为45 nm时,器件获得了最佳的亮度和电流效率,分别为1461 cd/cm2和7.38 cd/A,色坐标为(0.30,0.33)。
    Abstract: We prepared top-emitting white organic light-emitting diode (OLED) devices using Alq3 and ZnSe as capping layers (CPLs). The basic structure of the OLED was ITO/NPB: LiQ(5%)(10 nm)/TCTA(20 nm)/FIrpic+3.5%Ir(ppy)3+0.5%Ir (MDQ)2(acac)(25 nm)/TPBI(10 nm)/LiF(5 nm)/Mg: Ag(10%)(12 nm)/ CPL. The brightness and current efficiency of OLED devices fabricated with Alq3 and ZnSe as CPLs are significantly better than those without capping layers. Moreover, the color coordinates (CIEX, CIEY) of the OLED devices prepared with ZnSe CPLs changed more smoothly with brightness, showing good color stability. Further, by changing the ZnSe thickness to optimize the device, when the CPL was 45 nm, the maximum current efficiency and maximum brightness of the device were 7.38 cd/A and 1410 cd/m2, respectively, and the color coordinates were (0.30, 0.33).
  • 图像融合是一种图像增强技术,它的目标是将多个传感器采集到的有效信息结合到一起,得到一幅信息较全面的图像,以供后续处理或辅助决策。红外与可见光融合是近几年较为热门的一种图像融合技术。其中红外成像传感器能根据热辐射的不同,可将目标与背景区域区分开,具有全天时全天候工作的能力,即使在雨雪等恶劣条件下仍具有良好的目标检测识别能力,但图像分辨率低、对比度差、边缘模糊;可见光图像可以提供与人眼视觉相似的高分辨率,能获取场景、纹理等信息,但容易受外界光照、天气等因素的影响。因此,将可见光与红外图像的信息互补融合在一起,可生成目标显著、纹理细节丰富的高质量图像,广泛应用于军事侦察、实时监控、汽车自动驾驶等领域[1-2]

    早期研究人员一般采用基于稀疏表示(Sparse Representation,SR)[3]、低秩表示(Low Rank Repre-sentation,LRR)[4-5]、多尺度变换等传统算法实现红外与可见光图像的融合。基于SR和LRR的融合方法[6-9]中,利用滑动窗把原始影像分割成影像块,再把影像块构建成矩阵,该矩阵被反馈送到SR(或LRR)中计算SR(或LRR)系数,利用这些系数表征图像特征。通过该运算,将图像融合问题转化为系数融合问题。融合系数由适当的融合策略生成,然后在SR(或LRR)框架中重构融合图像。多尺度变换方法[10-14]首先对源图像进行多尺度分解,然后设计相应的融合规则对不同尺度的图像进行融合,最后进行多尺度逆变换重构融合图像。这些图像融合算法的融合性能高度依赖于所使用的特征提取方法,且需人工设计融合规则,计算复杂度高,缺乏通用性。

    近年来,由于卷积运算强大的特征提取能力,基于深度学习的图像融合算法在图像融合领域得到了飞速发展。2018年,Liu等人[15]提出一种基于卷积神经网络的多聚焦图像融合方法,打破了传统融合算法手动设计图像活动水平测量的约束,但该算法网络层数较少,特征提取能力不足,融合图像存在信息缺失。2019年,Ma等人[16]提出FusionGAN,将生成对抗网络引入图像融合领域,但该算法在对抗训练时,判别器仅以可见光图像作为参照,使得融合图像对比度强但细节纹理不明显。2020年,Ma等人[17]又提出一种GANMcC算法,利用多分类约束生成对抗网络进一步将图像融合问题转化为多分类限定问题,但该算法缺少对源图像非典型特征的抑制。Prabhakar等人[18]提出了一种无监督的深度学习框架DeepFuse,实现多曝光图像的融合,其自编码网络思想被很多研究者采纳,但其网络结构简单,图像深度特征提取不充分。Li等人[19]将密集连接模块引入编码器结构中,以获取图像深层特征,但该算法网络结构简单,不能提取图像多尺度特征,融合图像对比度不足。Zhang等人[20]提出了一种基于卷积神经网络的融合框架,这是一种简单而有效的图像融合架构,但其仅用单一尺度对图像进行特征提取,导致部分特征缺失。

    针对上述问题,本文提出一种多尺度和卷积注意力相结合的红外与可将光图像融合算法。首先,编码器采用多尺度卷积操作提取红外和可见光图像不同感受野的特征信息,以克服单一尺度卷积核特征提取不足的问题,同时为了获取全局关联信息,引入改进的可变形卷积注意力模块(Deformable-Convolutional Block Attention Module, D-CBAM)[21],把网络生成的特征图和通过空间注意力和通道注意力得到的注意力特征图进行加权,增强网络对红外和可见光图像重要特征的表达能力。其次,将编码器提取到的红外和可见光的图像特征输入融合层,融合策略中引入空间注意力和通道注意力机制,以融合红外与可见光的典型目标和纹理细节等重要特征。最后,构建三层卷积块组成的解码器,对融合后的特征进行重构,得到最终的融合图像。训练阶段舍弃融合层,并利用混合损失函数进行约束,提升模型学习图像均方误差、结构和色彩等图像特征的能力。

    多尺度和卷积注意力相结合的红外与可见光图像融合方法总体框架如图 1所示。

    图  1  所提网络结构
    Figure  1.  Structure of proposed network

    整体框架由3部分组成:编码器、融合层和解码器。融合时,首先将红外与可见光图像作为源图像输入编码器,通过一层卷积核大小为3×3的卷积层和三层多尺度可变形卷积注意力模块(Multi-scale Deformable-Convolutional Block Attention Module, MSCB)组成的编码器提取源图像的多通道显著特征信息;然后,引入基于空间注意力和通道注意力的双重注意力机制融合策略对编码器提取到的特征进行融合;最后,在解码器中对融合后的特征信息进行重构,输出最终的融合图像。

    本文编码器由一个单一尺度卷积核的卷积块和3个MSCB组成,每个MSCB包含4个独立分支和一个D-CBAM。4个独立分支采用不同尺度的卷积核,可以提取图像不同感受野的特征信息,丰富图像信息。卷积注意力模块可以捕获红外与可见光图像的全局依赖关系,增强红外与可见光轮廓及纹理细节等信息。

    红外与可见光图像融合旨在将红外目标和可见光的场景纹理信息更好地结合在一起,因此需要提取源图像多尺度的区域特征,以更好地表征红外目标和可见光的纹理细节信息。而在常见的基于卷积神经网络的深度学习方法中,大都采用单一尺度卷积核的卷积块提取图像特征,导致无法对源图像的特征信息进行全面的提取。Szegedy等人[22]提出深度卷积神经网络Inception module模型,该模型通过使用不同大小卷积核的卷积块对源图像不同感受野的特征信息进行提取,从而获得图像不同尺度的特征信息,成功应用于图像分类和图像检测等多种任务中。受其启发,本文提出一种多尺度卷积注意力模块MSCB,结构如图 2所示。

    图  2  多尺度卷积注意力模块
    Figure  2.  Multi-scale convolutional attention block

    其中,Fi表示输入特征,Fo表示经MSCB提取加强后的特征,即MSCB的输出。每个MSCB包含4个独立分支和一个注意力模块,每个分支结构由不同卷积核的卷积层组成,MSCB模块参数如表 1所示。

    表  1  MSCB模块参数设置
    Table  1.  MSCB module parameter settings
    Kernel size Outputs channel Activation function
    Branch1 1×1 16 R-Relu
    Branch2 3×3Maxpooling
    1×1
    16
    16
    R-Relu
    Branch3 1×1
    3×3
    3×3
    32
    64
    16
    R-Relu
    R-Relu
    R-Relu
    Branch4 1×1
    1×7
    7×1
    64
    128
    16
    R-Relu
    R-Relu
    R-Relu
    下载: 导出CSV 
    | 显示表格

    分支一可以减少中间层信息的损失;分支二使网络能够更好地提取源图像的背景信息;分支三与分支四增加网络感受野,提取多个尺度的特征信息,丰富融合图像信息。其中,分支三用两个卷积核大小为3×3的卷积层替代卷积核大小为5×5的卷积层,分支四用一个卷积核大小为1×7的卷积层和一个卷积核大小为7×1的卷积层替代卷积核大小为7×7的卷积层,每一分支使用卷积核大小为1×1的卷积层为该分支降维,以降低模型参数量和计算量、增加网络深度,加快计算速度并增强网络的非线性特性。之后,将4个分支的输出进行级联操作,然后将其输入到D-CBAM中,对每一通道信息赋值权重,使更具作用的信息被赋予更大权重,大大提升了对图像特征的提取能力,从而提升融合图像的质量。

    在深度学习构建图像融合的众多方法中,注意力机制是最有效的建模方法之一。目前常用的注意力机制主要有通道注意力、空间注意力、通道与空间注意力等;通道注意力机制旨在显示不同通道之间的相关性,空间注意力机制旨在提升关键区域的特征表达,通道与空间注意力机制结合了通道注意力和空间注意力的形式形成一种更加综合的特征注意力机制,例如卷积注意力模块(Convolutional Block Attention Module, CBAM)[23]

    CBAM包含通道注意力(Channel Attention Module, CAM)和空间注意力(Spatial Attention Module, SAM)两个子模块,所提算法选用可变形卷积注意力模块(D-CBAM),就是将CBAM中的SAM子模块中的卷积层换成可变形卷积块,从而增大卷积块的感受野,使重要信息更易被关注到,并予以更大权重,使编码器提取到更加重要的特征信息,并降低信息冗余。其结构示意图如图 3所示。

    图  3  卷积注意力模块
    Figure  3.  Convolutional block attention module

    简单的加权平均融合策略没有对提取的特征图进行筛选,容易引入噪声造成融合图像存在伪影[24]。空间注意力和通道注意力可以同时在空间和通道维度上对深度网络提取的深度特征进行提取,从而增强红外与可见光轮廓和纹理细节等特征信息。因而,本文使用基于空间和通道注意力双重注意力机制的融合策略,融合策略结构如图 4所示。

    图  4  融合策略结构
    Figure  4.  The structure of the fusion strategy

    图 4中,FvFi为由编码器分别从可见光图像和红外图像中提取的多尺度深度特征,FSFC分别为通过空间注意力模型和通道注意力获得的融合特征,Ff为经融合层融合得到的多尺度深度特征,将其作为解码器网络的输入。其中,由FSFC得到Ff的表达式为:

    $$ F_{\rm f}=0.6×F_{\rm S}+0.4×F_{\rm C} $$ (1)

    空间注意力模型是在图像融合任务中利用基于空间的融合策略,因红外图像中的显著目标亮度较大,为增强融合图像的显著目标对比度,将soft-max算子进行改进,输入特征FvFi通过全局平均池化层和改进后的soft-max算子(Isoft-max)计算获得权重图αvαi,其计算表达式为:

    $$ \begin{aligned} & \alpha_{\mathrm{v}}(x, y)=\left\{\begin{array}{l} 0, I_{\mathrm{ir}}(x, y)>220 \\ \frac{\mid \mathrm{e}^{-F_v(x, y) \|_1}}{\mathrm{e}^{\left\|F_{\mathrm{i}}(x, y)\right\|_1}+\mathrm{e}^{\left\|F_{\mathrm{v}}(x, y)\right\|_1}}, 25 \leq I_{\mathrm{ir}}(x, y) \leq 220 \\ 1, I_{\mathrm{ir}}(x, y)<25 \end{array}\right. \\ & \alpha_{\mathrm{i}}(x, y)=\left\{\begin{array}{l} 1, I_{\mathrm{ir}}(x, y)>220 \\ \frac{\mathrm{e}^{\left\|F_{\mathrm{i}}(x, y)\right\|_1}}{\mathrm{e}^{\left\|F_{\mathrm{i}}(x, y)\right\|_1}+\mathrm{e}^{\left\|F_{\mathrm{v}}(x, y)\right\|_1}}, 25 \leq I_{\mathrm{ir}}(x, y) \leq 220 \\ 0, I_{\mathrm{ir}}(x, y)<25 \end{array}\right. \end{aligned}$$ (2)

    式中:||⋅||1表示L1范数;(x, y)表示像素对应位置坐标。

    然后,将输入特征(FvFi)与权重图(αvαi)做相乘操作得到增强后的可见光图像特征$ {\hat F_{\text{v}}} $和红外图像特征$ {\hat F_{\text{i}}} $。最后,将增强后的特征相加得到空间注意力模型增强后的特征Fs,计算表达式为:

    $$ F_{\rm S}= {\hat F_{\text{v}}} + {\hat F_{\text{i}}} $$ (3)

    通道注意力模型是在图像融合任务中利用基于信道信息的融合策略,输入特征FvFi通过全局池化算子计算获得初始加权向量,这里,全局池化算子选用核范数算子,它是一个通道的奇异值之和,通道所包含重要信息越多奇异值之和越大;最后通过soft-max算子计算得到加权向量βvβi,计算表达式为:

    $$ {\beta _n}\left( m \right) = \frac{{G\left( {{F_n}\left( m \right)} \right)}}{{G\left( {{F_{\rm i}}\left( m \right)} \right) + G\left( {{F_{\rm v}}\left( m \right)} \right)}} $$ (4)

    式中:n∈{v, i},m表示输入特征中通道的对应索引;G表示全局池化算子。

    然后,将输入特征FvFi与加权向量βvβi做相乘操作得到增强后的可见光图像特征$ {\tilde F_{\text{v}}} $和红外图像特征$ {\tilde F_{\text{i}}} $。最后,将增强后的特征相加得到通道注意力模型增强后的特征FC,计算表达式为:

    $$ F_{\rm C}= {\tilde F_{\text{v}}} + {\tilde F_{\text{i}}} $$ (5)

    解码器网络结构由三层卷积核大小为3×3卷积块组成,步长均为1,输出通道分别为32、16、1,将融合层的输出作为解码器网络的输入,经最后一层卷积重构出灰度融合图像。网络卷积块均舍弃批量归一化层(Batch Normalization),以减少融合图像伪影,提高计算网络计算速率。激活函数均为R-Relu。

    设计了一种训练阶段的损失函数L,由均方误差LMSE、多尺度结构相似性度量误差LMS-ssim和色彩感知误差LC共同约束,保证网络进行合理的优化迭代,其表达式为:

    $$ L=L_{\rm {MSE}}+μL_{\rm C}+λL_{\rm {Ms-ssim}} $$ (6)

    式中:λμ为权重系数。

    均方误差是利用融合图像与源图像之间像素差的均方值衡量两幅图像间的差异,计算表达式为:

    $$ {L_{{\text{MSE}}}} = \frac{1}{{W \times H}}\Sigma {\left( {{F_{{\text{to}}}} - {I_{{\text{ti}}}}} \right)^2} $$ (7)

    式中:Fto表示重构图像;Iti表示输入图像;W表示图像的宽;H表示图像的高。

    色彩感知误差是通过计算图像的颜色直方图误差来增强融合图像的亮度对比度,从而保证融合图像能够突出可见光图像的纹理以及红外图像的热辐射信息,其计算表达式为:

    $$ {L_{\text{C}}} = \frac{1}{{255}}\parallel {\text{Histogram}}\left( O \right) - {\text{Histogram}}\left( I \right){\parallel _2} $$ (8)

    式中:Histogram(⋅)表示颜色直方图;||⋅||2表示二范数。

    多尺度结构相似性度量误差通过亮度因子L(x, y)对比度因子C(x, y)和结构因子S(x, y)衡量输入图像与重构图像的相似程度,其计算表达式为:

    $$ L_{\mathrm{Ms}-\text {ssim }}=1-\mathrm{MS} \_\operatorname{SSIM}(O, I) $$ (9)
    $$ \left\{\begin{array}{c} L(x, y)=\frac{2 \mu_x \mu_y+c_1}{\mu_x^2+\mu_y^2+c_1} \\ C(x, y)=\frac{2 \sigma_x \sigma_y+c_2}{\sigma_x^2+\sigma_y^2+c_2} \\ S(x, y)=\frac{\sigma_{x y}+c_3}{\sigma_x \sigma_y+c_3} \\ \operatorname{MS}_{-} \operatorname{SSIM}(x, y)=\left[L_M(x, y)\right]^{\alpha_M} \\ \prod\limits_{j=1}^M\left[C_j(x, y)\right]^{\beta_j} \cdot\left[S_j(x, y)\right]^{\gamma_j} \end{array}\right. $$ (10)

    式中:MS_SSIM(x, y)表示两个图像间的多尺度结构相似度;(x, y)表示像素坐标;μxμy分别表示xy的均值;σxσy分别表示xy的标准差,σxy表示xy的协方差,αj=βj=γjj={1, …, M},c1, c2, c3是常数,用于保证函数稳定性。

    训练阶段时舍弃融合层,只训练编码器网络和解码器网络,使模型能更精确地重建输入图像,减少重建图像的损失,训练网络结构如图 5所示。

    图  5  训练网络结构
    Figure  5.  The structure of the training network

    训练数据集选用MS-COCO数据集[25],选择80000张图像转换为灰度图像,并调整为256 pixel×256 pixel作为输入图像,网络优化器选用Adam, epoch=2, batch size=4,学习率为1×10-4,填充方式为反射填充,填充数p的计算表达式如式(11)所示:

    $$ p = {\text{ron(}}\frac{{{\text{kernel}}}}{2}) $$ (11)

    式中:ron()为取整函数,kernel为卷积核大小。损失函数参数λ=700,μ=0.01,硬件配置环境为NVIDIA GeForce RTX 3090 24GB、12th Gen Intel(R) Core(TM) i7-12700。

    为验证所提方法的有效性,选择7种近几年提出的经典融合算法进行比较,包括统一无监督网络(U2Fusion)[26]、压缩分解网络(SDNet)[27]、密集连接网络(DenseFuse)[19]、生成对抗网络(FusionGAN)[16]、多分类约束(GANMcC)[17]、通用的有监督图像融合网络(IFCNN)[20]、嵌套连接网络(NestFuse)[28],并通过主客观评价指标进行评价分析。

    在TNO [29]和RoadScene数据集[30]中分别选取两组(Scene 1~2)和4组(Scene 3~6)图像进行实验分析,实验结果如图 6所示,采用实线框标记背景纹理、虚线标记红外显著目标。

    图  6  部分结果视觉效果对比
    Figure  6.  Visual comparison of partial results

    可以看出,SDNet算法采用压缩分解网络实现红外与可见光图像融合,一定程度上保留了红外显著目标,但存在伪影,树叶、天空等背景纹理方面表现较差;NestFuse算法采用嵌套连接网络实现图像融合,对树叶等背景纹理信息处理表现较好,但云层等背景信息对比度差;DenseFuse算法采用密集连接网络保留红外图像与可见光图像特征,融合图像在保留背景纹理方面表现较好,但未能突出红外目标且树叶等背景纹理信息处理欠佳;FusionGAN算法采用了生成对抗网络实现红外与可见光图像融合,保留了红外显著目标,但树叶等背景纹理信息严重丢失;GANMcC算法在突出红外辐射信息方面较好,但融合图像存在少量伪影,细节纹理清晰度较低;IFCNN算法生成的融合图像未能很好区分红外显著目标与背景纹理,对比度较低;如图 6中Scene1所示,U2Fusion算法未能突出红外显著目标,对比度较差;所提算法生成的融合图像更能凸显红外显著目标,同时保留背景纹理细节,更符合人类视觉系统特征。

    主观评价存在人为主观因素,具有一定的随机性和片面性。为了更好地分析融合图像的质量,选取4种基于融合图像质量的客观评价指标均方误差(mean squared error,MSE)、信息熵(entropy,EN)、标准差(standard deviation,STD)、空间频率(spatial frequency,SF)和3种基于融合图像与源图像的客观评价指标互信息(mutual information,MI)、边缘保持度(QAB/F)、结构相似度(structural similarity,SSIM)对融合图像质量进行对比实验分析。

    从TNO和VOT数据集[31]中共选取40对红外与可见光图像,并以5对图像为一组,分为8组作为对比测试集。表 2中示出了通过现有融合算法和所提算法获得的所有融合图像的7个评价指标得分的平均值。将得出的指标得分按分组取均值后以折线图的形式进行可视化,图 7为不同算法的客观评价指标折线图。

    表  2  TNO数据集与VOT数据集对比实验客观评价指标均值
    Table  2.  Mean values of objective evaluation indicators in comparative experiments between TNO dataset and VOT dataset
    Algorithms MSE MI SF SSIM QAB/F STD EN
    U2Fusion 2704 10.45 11.54 0.68 0.45 36.33 6.95
    SDNet 2936 10.49 11.82 0.70 0.45 33.14 6.69
    DenseFuse 2696 10.61 8.77 0.72 0.45 34.83 6.78
    NestFuse 2999 11.33 10.02 0.71 0.53 41.67 6.98
    IFCNN 2701 10.68 12.42 0.71 0.53 35.43 6.74
    FusionGAN 3645 10.48 6.08 0.66 0.22 29.61 6.52
    GANMcC 3290 10.55 6.14 0.69 0.28 33.33 6.72
    Ours 2657 11.67 10.91 0.71 0.56 42.71 7.01
    Note: Bold font is the optimal value for each column
    下载: 导出CSV 
    | 显示表格
    图  7  不同算法的客观指标对比折线图
    Figure  7.  Comparison of objective indicators of different algorithms line chart

    可以看出,所提算法在实验中,7项指标中有5项指标为最优值。SSIM指标得分与DenseFuse得分仅有较小差距;尤其较GANMcC算法,QAB/F指标提高了约100%,SF指标提高了约77.69%,说明用所提图像融合算法融合的图像中纹理与边缘信息更加清晰丰富。同时,MSE、SF、QAB/F、STD4项指标较其他7种对比算法的平均值提高了10.3%、23.6%、48.5%、23.5%。说明所提图像融合算法相较于其它对比算法具有较好的边缘保持性、源图像信息保留度、视觉效果及较高的融合图像质量。

    为进一步验证所提算法的性能,选择含有221对红外与可见光图像对的RoadScene数据集与其它7种融合算法进行比较,现有融合算法和所提出的融合算法获得的所有融合图像的7个评价指标得分的平均值如表 3所示,其中加粗字体为最优值。从实验各项评价指标得分的均值可以看出,所提算法在7项指标中的5项指标均为最优值。其中MSE、SF、QAB/F、STD指标分别平均提高了21%、16.6%、28.6%、16.6%;从而进一步表明所提算法相较于其它7种对比算法具有更好的图像融合效果。

    表  3  RoadScene数据集对比实验客观评价指标均值
    Table  3.  Mean of objective evaluation indicators for comparative experiments on the RoadScene dataset
    Algorithms MSE MI SF SSIM QAB/F STD EN
    U2Fusion 2273 11.77 15.01 0.68 0.51 42.87 7.26
    SDNet 2866 12.10 15.03 0.70 0.51 44.97 7.31
    DenseFuse 2919 11.82 12.32 0.69 0.48 42.57 7.22
    NestFuse 2319 12.45 13.28 0.67 0.50 49.97 7.38
    IFCNN 2328 11.77 15.07 0.70 0.51 39.18 7.12
    FusionGAN 4460 11.65 8.32 0.59 0.26 38.98 7.06
    GANMcC 3807 11.80 8.99 0.65 0.35 43.76 7.23
    Ours 2231 12.57 13.90 0.69 0.54 50.03 7.40
    Note: Bold font is the optimal value for each column
    下载: 导出CSV 
    | 显示表格

    以上实验结果说明所提算法在红外与可见光图像融合任务中不仅可以保留丰富信息,还有更好的结构和清晰度,且融合图像视觉效果更加自然。

    为进一步验证所提算法中提出的各模块的有效性,进行以下消融实验:实验1编码器使用3个单一尺度卷积块(Conv);实验2编码器使用3个单一尺度卷积和卷积注意力机制(Conv+D-CBAM);实验3编码器使用3个多尺度卷积注意力模块(MSCB)。

    在TNO数据集中随机选择一组图像结果作为消融实验结果,实验结果如图 8所示。

    图  8  消融实验结果视觉对比
    Figure  8.  Visual comparison of ablation experiment results

    通过观察发现,实验2融合图像亮度信息和细节纹理信息较好,但对比度较差,实验1相较于实验2对比度有较多提升,但细节纹理信息不足。实验3融合结果改善了上述缺点,结合了二者优点,融合图像很好地保留了红外与可见光图像中的特征信息,纹理信息丰富,有较好对比度。融合效果良好。

    另外,表 4是实验融合图像的客观评价指标结果,最优值用加粗标记。所提算法取得了6个最优值,在SF、MI、STD和QAB/F指标上相较于实验2提升较多,这说明融合图像在信息保留度、细节纹理以及视觉方面效果更优。

    表  4  消融实验客观指标
    Table  4.  Objective indicators of ablation experiments
    Experiment MSE MI SF SSIM QAB/F STD EN
    Conv 2002 10.58 8.59 0.70 0.45 35.88 6.77
    Conv + D-CBAM 1832 10.61 8.86 0.69 0.47 36.21 6.80
    MSCB 2122 11.51 10.08 0.71 0.51 39.51 6.95
    Note: Bold font is the optimal value for each column
    下载: 导出CSV 
    | 显示表格

    本文提出了一种多尺度和卷积注意力相结合的红外与可见光图像融合算法。首先,在自编码器网络中采用多尺特征提取模块和卷积注意力机制对源图像特征进行提取,同时提取源图像的浅层细节特征和深层显著特征;其次,采用一种基于两阶段注意力模型的融合策略,融合可见光与红外图像的典型目标特征和纹理细节特征,舍弃无用特征,经编码器网络重构最终的融合图像。在两组对比实验中,相较于其他对比实验,所提算法在7种客观评价指标中均有5种评价指标取得最佳。其中,在TNO与VOT数据集对比实验中,在MSE、SF、QAB/F、STD指标相较于其他7种对比算法均值分别提高了10.3%、23.6%、48.5%、23.5%;在RoadScene数据集对比实验中,MSE、SF、QAB/F、STD指标相较于其他7种对比算法均值分别提高了21%、16.6%、28.6%、16.6%。通过对比实验结果证明,所提算法在红外与可见光图像融合任务中不仅可以保留丰富的信息,还有更好的结构和边缘信息清晰度,在客观方面和主观方面均取得较好的融合效果。

  • 图  1   顶发射白光OLED显示器件结构及其原理型器件发光图

    Figure  1.   Configuration of the top emitting white OLED devices and luminescent pictures of principle devices

    图  2   器件的光电特性

    Figure  2.   Photoelectric characteristics of devices

    图  3   器件色坐标随亮度变化曲线

    Figure  3.   The CIE characteristics as a function of brightness

    图  4   ZnSe的透过率特性

    Figure  4.   Transmittance characteristics of ZnSe

    图  5   ZnSn作为覆盖层制备的OLED器件的光电特性

    Figure  5.   Photoelectric characteristics of devices fabricated by ZnSn as CPL

    表  1   三种OLED器件的性能参数

    Table  1   Performance parameters of the device

    Device Voltage/V Luminance/(cd/m2) CIEX CIEY Current efficiency/(cd/A)
    Without CPL 4.96 1040 0.35 0.40 5.40
    Alq3 4.89 1261 0.29 0.35 6.24
    ZnSe 4.53 1410 0.31 0.33 6.75
    下载: 导出CSV

    表  2   不同CPL厚度的OLED器件性能参数

    Table  2   Performance parameters of the device at various thickness of CPL

    CPL thickness/nm Voltage/V Luminance/(cd/m2) CIEX CIEY Current efficiency/(cd/A)
    0 4.96 1040 0.38 0.41 5.4
    25 4.55 1339 0.34 0.35 6.58
    35 4.53 1410 0.31 0.33 6.75
    45 4.52 1461 0.30 0.33 7.38
    55 4.54 1460 0.31 0.35 6.96
    65 4.52 1447 0.31 0.38 6.9
    下载: 导出CSV
  • [1]

    Adamovich V I, Cordero S R, Djurovich P I, et al. New charge-carrier blocking materials for high efficiency OLEDs[J]. Organic Electronics, 2003, 4(2-3): 77-87. DOI: 10.1016/j.orgel.2003.08.003

    [2]

    DO Y R, KIM Y C, SONG Y W, et al. Enhanced light extraction from organic light‐emitting diodes with 2D SiO2/SiNx photonic crystals[J]. Advanced Materials, 2010, 15(14): 1214-1218.

    [3]

    Sekitani T, Nakajima H, Maeda H, et al. Stretchable active-matrix organic light-emitting diode display using printable elastic conductors[J]. Nature Materials, 2009, 8(6): 494-499. DOI: 10.1038/nmat2459

    [4]

    QIANG H, Walzer K, Pfeiffer M, et al. Highly efficient top emitting organic light-emitting diodes with organic outcoupling enhancement layers[J]. Applied Physics Letters, 2006, 88(11): 113515. DOI: 10.1063/1.2185468

    [5]

    HAN S, HUANG C, LU Z H. Color tunable metal-cavity organic light-emitting diodes with fullerene layer[J]. Journal of Applied Physics, 2005, 97(9): 66.

    [6]

    Riel H, Karg S, Beierlein T, et al. Phosphorescent top-emitting organic light-emitting devices with improved light outcoupling[J]. Applied Physics Letters, 2003, 82(3): 466-468. DOI: 10.1063/1.1537052

    [7]

    CHEN S, LI X, HUANG W. Blue top-emitting organic light-emitting devices using a 2, 9- dimethyl-4, 7 -diphenyl-1, 10-phenanthroline outcoupling layer[J]. Organic Electronics, 2008, 9(6): 1112-1117. DOI: 10.1016/j.orgel.2008.07.002

    [8]

    HAM H K, Oh Y T, Choi S E, et al. Out-coupling efficiency enhancement of organic light emitting diode device by SiO2-UV hardener composite layer[J]. Journal of Nanoscience & Nanotechnology, 2011, 11(2): 1766.

    [9]

    Smith L H, Wasey J, Barnes W L. Light outcoupling efficiency of top-emitting organic light-emitting diodes[J]. Applied Physics Letters, 2004, 84(16): 2986-2988. DOI: 10.1063/1.1712036

    [10]

    CHEN S, JIE Z, ZHAO Z, et al. Improved light outcoupling for top-emitting organic light-emitting devices[J]. Applied Physics Letters, 2006, 89(4): 913.

    [11]

    Koh T W, Choi J M, Lee S, et al. Optical outcoupling enhancement in organic light-emitting diodes: highly conductive polymer as a low-index layer on microstructured ITO electrodes[J]. Advanced Materials, 2010, 22(16): 1849-1853. DOI: 10.1002/adma.200903375

    [12]

    Jongchan K, Yue Q, Caleb C, et al. Efficient outcoupling of organic light emitting devices using a light scattering dielectric layer[J]. ACS Photonics, 2018, 5(8): 3315-3321. DOI: 10.1021/acsphotonics.8b00539

    [13]

    Riedel B, Kaiser I, Hauss J, et al. Improving the outcoupling efficiency of indium-tin-oxide-free organic light-emitting diodes via rough internal interfaces[J]. Optics Express, 2010, 18: A631-A639. DOI: 10.1364/OE.18.00A631

    [14] 陈淑芬, 邵茗, 郭旭, 等. 基于ZnS增透膜的顶发射白光有机发光二极管[J]. 物理学报, 2012, 61(8): 87801. https://www.cnki.com.cn/Article/CJFDTOTAL-WLXB201208059.htm

    CHENG Shufen, SHAO Ming, GUO Xu, et al. Top-emitting white organic light-emitting diodes based on a ZnS light outcoupling layer[J]. Acta Phys. Sin. , 2012, 61(8): 087801. https://www.cnki.com.cn/Article/CJFDTOTAL-WLXB201208059.htm

    [15]

    CUI Y, YANG D K, Mcgraw G, et al. Combined internal and external extraction layers for enhanced light outcoupling for organic light emitting device[J]. Optics Express, 2012, 20: A932-A940. DOI: 10.1364/OE.20.00A932

    [16]

    SHIN S J, Park T H, JIN H C, et al. Improvement of light out-coupling in organic light-emitting diodes by printed nanosized random texture layer[J]. Organic Electronics, 2013, 14(1): 187-192. DOI: 10.1016/j.orgel.2012.10.009

    [17]

    KONG B K, Kim D H, Kim T W. Significant enhancement of out-coupling efficiency for yarn-based organic light-emitting devices with an organic scattering layer[J]. Nano Energy, 2020, 70: 104503. DOI: 10.1016/j.nanoen.2020.104503

    [18]

    WANG Z, CHEN Z, XIAO L, et al. Enhancement of top emission for organic light-emitting diode via scattering surface plasmons by nano-aggregated outcoupling layer[J]. Organic Electronics, 2009, 10(2): 341-345. DOI: 10.1016/j.orgel.2008.12.008

    [19]

    CHANG Y T, LIU S W, YUAN C H, et al. Comparison of light out-coupling enhancements in single-layer blue-phosphorescent organic light emitting diodes using small-molecule or polymer hosts[J]. Journal of Applied Physics, 2013, 114(17): A295.

图(5)  /  表(2)
计量
  • 文章访问数:  303
  • HTML全文浏览量:  95
  • PDF下载量:  32
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-06-06
  • 修回日期:  2022-07-27
  • 刊出日期:  2023-03-19

目录

/

返回文章
返回
x 关闭 永久关闭

尊敬的专家、作者、读者:

端午节期间因系统维护,《红外技术》网站(hwjs.nvir.cn)将于2024年6月7日20:00-6月10日关闭。关闭期间,您将暂时无法访问《红外技术》网站和登录投审稿系统,给您带来不便敬请谅解!

预计6月11日正常恢复《红外技术》网站及投审稿系统的服务。您如有任何问题,可发送邮件至编辑部邮箱(irtek@china.com)与我们联系。

感谢您对本刊的支持!

《红外技术》编辑部

2024年6月6日