Snow Information Recognition based on GF-6 PMS Images
-
摘要: 以黑龙江省哈尔滨市道外区为研究区,系统探讨分析了基于遥感的不同方法在积雪信息识别中的应用。首先,对研究区两个时相的高分六号(GF-6)多光谱相机(PMS)影像进行目视解译,掌握了研究区内地物类型和积雪分布特点。其次,基于目视解译结果,选取了8种典型地物类型,得到了“积雪”和“非雪”两类像元的光谱特征规律。再次,探讨分析了6种方法在积雪识别中的应用,利用精确率、召回率和F指数3个指标进行了精度评价。最后,提出了基于投票结果的最终识别结果判定方法,得到了研究区积雪信息最终识别结果。研究表明:①受下垫面和阴影的影响,研究区“同谱异物”和“同物异谱”现象普遍;②深度学习算法的识别效果最好,决策树法的识别效果相对较差;农田区的识别精度高于池塘区,误识别和漏识别的现象都相对较少;③基于投票结果的最终识别结果判定,可以有效改善单一识别方法存在的误识别和漏识别现象。Abstract: From the perspective of limited research on snow recognition in high spatial resolution optical remote sensing images, considering Daowai District of Harbin City as the research area, this paper systematically discusses and analyzes the application of different methods in snow information recognition. First, ground feature types and snow distribution characteristics were mastered through visual interpretation of GF-6 PMS images of two phases in the study area. Second, based on the results of visual interpretation, eight typical surface feature types were selected, and the spectral characteristics of "snow"and "non-snow"pixels were obtained. Third, the application of the six methods in snow recognition was discussed and analyzed. Accuracy was evaluated using three indexes: positive predictive value, recall rate, and F-score. Finally, a final recognition result judgment method based on voting results was developed, and the final recognition result of snow information in the study area was obtained. The results showed that, owing to the influence of the underlying surface and shadow, the phenomenon of "same spectrum foreign matter"and "same object different spectrum"was common in the study area, which interfered with the snow recognition process to a large extent. The recognition effect of the deep learning algorithm was the best, while that of the decision tree method was relatively poor; the recognition accuracy was higher for the farmland area than that for the pond area, and the phenomenon of false and missing recognitions was relatively less. The final recognition result judgment method based on voting results can effectively improve the phenomenon of false and missing recognitions in a single recognition method. This paper has important guiding significance for snow recognition based on high-spatial-resolution optical remote sensing images.
-
Keywords:
- snow recognition /
- GF-6 PMS /
- visual interpretation /
- snow index /
- deep learning algorithm
-
0. 引言
将红外图像应用在枪械瞄准具时,可以实现夜间观察、辅助作战、远距离侦查等,这样的红外瞄准具安装在枪械上,要求图像质量好、体积小巧、重量轻、功耗低,可以长时间稳定工作,例如文献[1-4],基于FPGA(field programmable gate array)的红外图像处理平台是目前首选的工程实现的硬件方案。
在FPGA的嵌入式系统中完成红外图像的采集,降噪滤波、非均匀性校正、锐化增强、AGC(automatic gain control)动态调光等等红外图像处理,最后将处理好的红外图像输出显示在小型OLED(organic light-emitting diode)显示屏幕上。如果未经过零位校准的瞄具,直接从OLED显示屏上观测目标靶标,并进行射击,是很难命中靶标的。因为我们的瞄具是通过支座卡槽连接、固定在枪械上的,所以相对于枪管的平行中心在垂直方向是有偏移的,在对准目标靶标进行瞄准时,瞄具上的OLED显示屏显示的靶标中心并不是枪管对准目标的真正中心,并且由于重力作用,打出去的子弹会经过抛物线落到目标靶面上,随着目标距离越远,抛物线运动越明显。所以红外瞄准具安装在枪械上时,每经过一段距离就需要进行一次系统的零位标定和校准,以保证枪械瞄准的准确度。目前在红外瞄具初次使用时,传统的零位校准方法有激光定标测距方法和图像冻结计算方法,这两种方法要么需要借助其他设备辅助测量,要么校准过程复杂,繁琐,准确度难以保证。而本文提出的零位校准方法,在校准过程中不需要额外的辅助设备,操作简单,一键触发、自动计算,校准准确度高。
1. 传统的校准算法
1.1 激光定标测距法
激光定标测距法需要专用的校准靶标,以及激光测距仪、标尺,协作测量才能完成红外瞄准具的校准,比较费时费力。在空旷训练靶场,用枪械红外瞄具的十字分化线瞄准目标靶标中心进行实弹射击后,子弹打出去在靶标附近留下弹孔,先用激光测距仪测出靶标与红外瞄具之间的距离,然后利用标尺测出靶标中心与弹孔之间的实际距离,并根据红外瞄具所用镜头的焦距,利用如图 1所示倒三角光路映射关系,文献[5-8]中提出该种三角测距法,将弹孔偏移靶标中心的距离映射至红外图像上像素偏移数值。将该偏移数值作为红外瞄准具进行校准调整十字分化线的依据。
该种方法需要的测量工具较多,测量过程复杂,测量时间长导致校枪的效率低下。
1.2 图像冻结计数法
图像冻结计数法需要用枪瞄的十字分划线瞄准靶标射击后,再一次用十字分化线重新瞄准同一靶标,进行准心校准。文献[9-15]中提出了该种零位偏移计数方法。由于在实弹射击过程中,子弹打出的瞬间产生冲击力,导致枪支晃动或者移动,所以在打出子弹后,需要再一次用十字分化线重新瞄准该靶标中心,进行校准。如图 2(a)所示为实弹射击之前瞄具目标靶标中心的画面,图 2(b)所示为实弹射击之后瞄具目标靶标中心的冻结画面。冻结画面即将图像画面定住,不再因为目标场景的变化而变化。在子弹打出后,由于子弹穿透过靶标,子弹与靶标摩擦发热,产生的弹孔在红外图像中显示为一个高亮的点或者块,红外图像中对应的目标越热越亮。随着时间的延长,弹孔处的热量也会消失,冻结图像的目的就是保持该弹孔处热源高亮的状态。
由图 2(b)可知,弹孔在目标靶标中心的右上方(也有可能在左上方、左下方、右下方等情况),表明实际的准心位于瞄准具的十字分化线的中心偏右上的位置。图 2(b)相对于图 2(a)目标靶标相同,距离相同,只是多了一个子弹弹孔高亮的痕迹。并在该冻结画面中,弹孔处高亮的热度不会消失,在该画面下,进行十字分化线偏移数值的调整,即往右上方偏移,让十字分划线的交叉点与弹孔热源的中心重合,并保存该状态,即完成了热瞄准心的校正过程。在该校准过程中,需要两次瞄准目标靶标中心,而且需要手动一个像素一个像素地调整十字分化线的中心,过程相对繁琐,并且在前后两次瞄准该靶标中心的位置是需要完全一样,不能偏移一个像素,否则调整完的十字分化线的中心即准心也是有偏差。这个由于人眼观察误差、瞄准误差,所以较难做到前后两次瞄准的目标中心是完全一致的。
2. 一键自匹配校准算法
为了实现操作简单、校准精度高、校准效率高的要求,本文在传统校准算法的基础上进行了改进和提升。如图 3所示为视频处理基本流程框图。
在FPGA嵌入式系统中,用逻辑部分来进行ISP(image signal processing)图像处理,用软核构建CPU(central processing unit)来做OSD(on-screen display),比如十字分划线的画线、调整、按键处理都可以在OSD中做。在本文中,ISP部分将图像传感器输出的视频图像按视频流形式一帧一帧地进行ISP处理,同时针对各算法模块的需求进行视频图像数据的缓存,存储器为外挂的DDR(double data rate SDRAM)。同时对OSD部分要显示的字符、图片等信息写入外部DDR的特定地址空间,ISP模块将该信息读出并与图像信息进行叠加输出在OLED屏幕上显示。在一键自匹配校准算法中,用到自匹配算法和热点追踪算法以及偏移量自动校正算法。
2.1 自匹配算法
用来解决上述传统的图像冻结计数法过程中,前后两次较难瞄准靶标中心的一致性问题。本文采用SSD(sum of squared differences)误差平方和算法进行模板匹配,考虑模板匹配消耗的硬件资源巨大,并结合一般枪支瞄准具的准心偏移不是特别大的情况,可适当缩小模板的大小,并可在软核构建的CPU中完成模板的采集和匹配过程,为了减少存储容量和计算带宽,在ISP处理完成后的Y8灰度图像上实现计算过程。如图 4所示为模板采集与匹配过程,即用十字分划线完成目标靶标中心的瞄准后,初始的十字分划线的坐标位置通常处于图像区域的中心位置(x1, y1),启动自匹配算法时,以十字分划线中心的周围区域采集一帧模板,模板的大小为M×N,可在CPU的软核开辟一个M×N大小的二维数组用来存储该模板图像。
并在射击完成后,再一次用十字分划线来瞄准目标靶标中心,这里其实不用完全瞄准靶标中心,只需要将目标靶标的中心移入图 4(b)外框中即可,图 4的外框尺寸大小为2M×2N,在该区域内进行模板匹配计算,其中匹配的相似度计算公式如(1)式:
$$ D\left( {i, j} \right) = \sum\limits_{s = 1}^M {\sum\limits_{t = 1}^N {{{\left[ {S\left( {i + s - 1, j + t - 1} \right) - T\left( {s, t} \right)} \right]}^2}} } $$ (1) 式中:T(s, t)是图 4(a)模板中的Y8灰度值,(s, t)是其坐标。S(i, j)为图 4(b)待侧区域的Y8灰度值,并且将模板从该区域内逐次移动,从上到下,从左到右,移动遍历求解对应的相似度。并对相似度进行排序,得到最小的相似度对应坐标所在区域即为匹配成功,并将该坐标位置(x2, y2)记录下来。
2.2 热点追踪算法
热点追踪算法,对于图像冻结后,在冻结图像画面中寻找弹孔热点,在子弹刚刚射击出去那一瞬间,子弹穿透靶标,留下的弹孔温度高,相对于靶标上其他区域,在灰度图像上显示为更亮的点或者斑块,如图 5所示。
在该冻结画面中找出最热的点或者最热的斑块的中心,可以先将该块最热的区域定位出来,然后进行二值化处理,在二值化后的图像上求质心即可得到最热的斑块的中心坐标。具体步骤为:
第一步:先对整幅图像进行初步搜索,找最大灰度值,从左至右,从上至下,依次遍历每个像素点,如果是最大值,将该最大灰度值GRAY1以及对应坐标(i, j)记录下来。
第二步:再对整幅图像进行搜索,并排除第一步得到的坐标的搜索,同理得到最大灰度值GRAY2以及对应坐标(p, q),并对第一步与第二步得到的最大灰度值以及对应坐标判别,如下公式(2)、(3)、(4)所示:
$$ {\rm{Abs(GRAY_{1}-GRAY_{2})<TH_{1}}}$$ (2) $$ {\rm{Abs}}(i-p)<{\rm{TH}}_{2}$$ (3) $$ {\rm{Abs}}(j-q)<{\rm{TH}}_{3}$$ (4) 式中:TH1、TH2、TH3为设定阈值,依据多场景测试经验所得,本文中设计为20、10、10。如果同时满足上述公式,将坐标(i, j)记录下来。该坐标位置只是初步定位出了弹孔斑块处的大概位置,并不是中心位置,为了精准地得到弹孔斑块处的中心位置。
第三步,以坐标(i, j)处为中心,设定一块矩形区域大小为W×H,本文中设计为64×64,在该块矩形区域内,对区域内的像素点进行二值化处理,二值化的阈值为GRAY1×0.7,判断区域内的像素灰度值若大于阈值GRAY1×0.7,则置为0xff,否则置为0x00。
第四步,对二值化后的图像区域进行质心的求解,如式(5)、(6)所示。
$$ {X_0} = \frac{{\sum\limits_{i = 1}^W {\sum\limits_{j = 1}^H {{X_i}{\text{gra}}{{\text{y}}_{ij}}} } }}{{\sum\limits_{i = 1}^W {\sum\limits_{j = 1}^H {{\text{gra}}{{\text{y}}_{ij}}} } }} $$ (5) $$ {Y_0} = \frac{{\sum\limits_{i = 1}^W {\sum\limits_{j = 1}^H {{Y_j}{\text{gra}}{{\text{y}}_{ij}}} } }}{{\sum\limits_{i = 1}^W {\sum\limits_{j = 1}^H {{\text{gra}}{{\text{y}}_{ij}}} } }} $$ (6) 得到区域内的质心坐标后,将该质心坐标转换映射至全局图像上的坐标(x3, y3)。
2.3 偏移量自动校正算法
上述方法在实弹射击之前,用瞄具十字分化线的中心坐标(x1, y2)瞄准目标靶标中心,射击后,在冻结图像上特定区域进行模板匹配得到匹配坐标(x2, y2),最后经过热点追踪算法,得到热源弹孔高亮斑块的中心坐标为(x3, y3),所以匹配的坐标相对于原十字分化线中心坐标的第一级偏移如下式(7)所示:
$$ {\rm{offset1}}_{x}=x_{2}-x_{1}\qquad {\rm{offset1}}_{y}=y_{2}-y_{1}$$ (7) 热源弹孔处高亮的斑块的中心坐标相对于匹配之后图像的中心坐标的第二级偏移为下式(8)所示:
$$ {\rm{Offset2}}_{x}=x_{3}-x_{2}\qquad{\rm{offset2}}_{y}=y_{3}-y_{2}$$ (8) 所以最后求得弹孔处中心坐标相对原十字分化线中心的偏移量为下式(9)、(10)所示:
$$ {\rm{Δoffset}}_{x}={\rm{offset1}}_{x}+{\rm{offset2}}_{x}$$ (9) $$ {\rm{Δoffset}}_{y}={\rm{offset1}}_{y}+{\rm{offset2}}_{y}$$ (10) 在该算法中经过两级偏移量修正计算后,得到最终的修正偏移量,按最终偏移量去调整十字分划线的位置,可以将瞄具的准心自动地纠正过来。
2.4 一键自匹配校准算法执行流程
红外瞄具安装在枪支上,进行实弹射击校枪,按下触发按键启动一键自匹配校枪流程。因为是一键执行操作,所以在OLED显示屏上会进行人机交互,按照显示屏上出现提示信息进行操作。如图 6所示为执行流程图。
按下按键启动一键开始,OLED显示屏出现检测框和提示信息如图 7所示。第一步:倒计时15 s用十字分化线瞄准目标靶标中心,瞄准完成后保持枪支不动,在15 s结束后,开始冻结图像,并以十字分划线交叉点为中心区域采集模板,模板大小为M×N,可根据实际情况设定,采集模板完成后,解冻图像。第二步:进入下一个倒计时8 s,在该倒计时内,完成单发子弹射击。第三步:进入另一个8 s倒计时,将靶标中心移入检测框内进行检测。第四步:冻结图像,并启动模板匹配算法,找出靶标中心相对射击之前的靶标中心的偏移量。第五步:启动热点追踪算法,在冻结图像上找出弹孔热源处的中心,得到弹孔位置相对于十字分划线中心的偏移量。第六步:启动偏移量自动修正算法,将两级偏移量相加得到最终的偏移量,并以最终偏移量去调整原始的十字分化线的位置,完成准心的校正。
3. 分析讨论
本文针对红外图像应用在枪械的瞄具上,对红外瞄具的零位准心的校准操作进行了说明,针对传统的校准算法、流程和工具进行了介绍,传统的激光定标测距法,需要激光测距仪、校准靶标、标尺、协作测量才能完成,费时费量、成本高、效率低下。而图像冻结计算法,需要前后两次瞄准目标靶标中心,并且在前后两次瞄准该靶标中心的位置是需要完全一致,不能偏移一个像素,否则调整完的十字分化线的中心即准心也是有偏差,在实际操作过程中难以保证,而且十字分划线位置的调整,需要手动一个像素一个像素地调节,操作过程繁琐、效率低。最后基于单键触发的自匹配校准算法,是一键触发,按提示操作,自动计算,计算完成后,自动修正准心偏移量的过程,非常方便、快捷、高效,非常适合于工程应用。并且在模板尺寸大小、检测框尺寸大小以及弹孔斑块矩形区域尺寸大小都可以根据子弹大小、射程距离、以及靶标上留下弹孔的大小来适配修改的。可适应于不同的枪支、不同距离、不同靶标的零位准心校准。
4. 算法验证
基于红外瞄具的一键自动校枪方法与系统算法的验证过程是将红外瞄具固定安装在光轴一致性校准平台底座上如图 8所示,瞄准前方圆形支架上的十字靶标,该圆形支架在平台上可前后移动,模拟距离的变化。
固定安装好红外瞄具后,开机观测目标,发现红外瞄具的十字分化中心与前方圆形支架上的十字靶标中心其实不重合的,如图 9所示,单键按下启动一键校枪匹配算法,经过上述2.4节算法计算后,红外瞄具的十字分化中心自动进行修正了,修正后的十字分化中心几乎与十字靶标中心重合,如图 10所示,经过放大后观测、并测量修正后的十字分化中心与实际十字靶标中心误差在1个像素以内。其次我们移动圆形支架距离红外瞄具安装点位距离3 m、10 m、20 m、50 m等位置,同时将红外瞄具的十字分化中心调整为与十字靶标中心不重合。再启动算法,观测进行算法修正后的十字分化中心与十字靶标中心的重合度,经过多次调整与测量,发现修正后的十字分化中心与实际十字靶标中心误差都在1个像素以内。所以整体来看,该算法校正精度是很高的,完全满足国军标GJB5815-2006射效矫正的精度要求。
5. 结论
本文对红外瞄具安装在枪支上的准心校准方法进行了介绍,对传统的零位校准方法以及本文提出的新的校准方法的原理、算法、计算过程进行了详细的介绍和对比,本文提出的一键自匹配校准算法解决了传统激光测距定标法的校准过程复杂、校准成本高、效率低的问题,同时也解决了传统图像冻结计数法的前后两次瞄准一致性难的问题。在FPGA的红外图像处理平台上添加了自匹配校准算法,既能完成红外图像的夜视、远距离观测目标,同时又能安装在枪支、枪械等精确瞄准的应用场景,一键自动零位校准,辅助精确打击,具有一定的工程实际应用价值。
-
表 1 GF-6 PMS相机参数
Table 1 Parameters of Gf-6 PMS camera
Band Spectral range/μm Spatial resolution/m Swath width/km Revisit cycle/day Blue 0.45-0.52 8 ≥90 4 Green 0.52-0.60 8 Red 0.63-0.69 8 NIR 0.76-0.90 8 Pan 0.45-0.90 2 表 2 积雪识别结果统计
Table 2 Statistics of snow recognition results
Method Number of snow-covered pixels/ten thousand Ratio of snow-covered pixels/% Number of non-snow pixels/ten thousand Ratio of non-snow pixels/% Decision tree 2155.65 75.1 713.56 24.9 Random forest 2200.94 76.7 668.26 23.3 Maximum likelihood 2301.13 80.2 568.08 19.8 SVM 2239.20 78.0 630.01 22.0 Softmax 2524.23 88.0 344.98 12.0 Deep learning algorithm 2475.66 86.3 393.55 13.7 表 3 “争议”像元积雪识别结果统计
Table 3 Statistics of snow recognition results in controversial pixels
Area Recognition result Decision tree Random forest Maximum likelihood SVM Softmax Deep learning algorithm A Snow 0 97 5756 2196 13347 13347 Non-snow 13347 13250 7591 11151 0 0 Proportion of snow/% 0 0.7 43.1 16.5 100 100 B Snow 0 441 1078 18 2162 2162 Non-snow 2162 1721 1084 2144 0 0 Proportion of snow/% 0 20.4 49.9 0.8 100 100 C Snow 108 313 435 0 1898 1898 Non-snow 1790 1595 1463 1898 0 0 Proportion of snow/% 5.7 16.5 22.9 0 100 100 D Snow 129 316 2854 2151 3766 3765 Non-snow 3637 3450 912 1615 0 1 Proportion of snow/% 3.4 8.4 75.8 57.1 100 ≈100 表 4 小“争议”像元积雪识别结果统计
Table 4 Statistics of snow recognition results in little controversial pixels
Area Recognition result Decision tree Random forest Maximum likelihood SVM Softmax Deep learning algorithm E Snow 0 10115 10115 10115 10115 10115 Non-snow 10115 0 0 0 0 0 Proportion of snow/% 0 100 100 100 100 100 F Snow 0 23746 23746 23746 23746 23746 Non-snow 23746 0 0 0 0 0 Proportion of snow/% 0 100 100 100 100 100 G Snow 0 0 0 0 1169 0 Non-snow 1169 1169 1169 1169 0 1169 Proportion of non-snow/% 100 100 100 100 0 100 H Snow 19 3 0 0 1351 0 Non-snow 1354 1370 1373 1373 22 1373 Proportion of non-snow/% 98.6 99.8 100 100 1.6 100 -
[1] HE C, Liou K N, Takano Y, et al. Impact of grain shape and multiple black carbon internal mixing on snow albedo: Parameterization and radiative effect analysis[J]. Journal of Geophysical Research: Atmospheres, 2018, 123(2): 1253-1268. DOI: 10.1002/2017JD027752
[2] Butt M J, Bilal M. Application of snowmelt runoff model for water resource management[J]. Hydrological Processes, 2011, 25(24): 3735-3747. DOI: 10.1002/hyp.8099
[3] LIU M, XIONG C, PAN J, et al. High-resolution reconstruction of the maximum snow water equivalent based on remote sensing data in a mountainous area[J]. Remote Sensing, 2020, 12(3): 460-479. DOI: 10.3390/rs12030460
[4] XU L, Dirmeyer P. Snow–atmosphere coupling strength. Part Ⅱ: Albedo effect versus hydrological effect[J]. Journal of Hydrometeorology, 2013, 14(2): 404-418. DOI: 10.1175/JHM-D-11-0103.1
[5] 汪左. 新疆玛纳斯河流域典型区雪水当量的SAR反演研究[D]. 南京: 南京大学, 2014. WANG Zuo. Retrieval of Snow Water Equivalence Using SAR Data for Typical Area of Manas River Basin in Xinjiang, China[D]. Nanjing: Nanjing University, 2014.
[6] 贺广均. 联合SAR与光学遥感数据的山区积雪识别研究[D]. 南京: 南京大学, 2015. HE Guangjun. Snow Recognition in Mountainous Areas Based on SAR and Optical Remote Sensing Data[D]. Nanjing: Nanjing University, 2015.
[7] Barnes J C, Bowley C J. Snow cover distribution as mapped from satellite photography[J]. Water Resources Research, 1968, 4(2): 257-272. DOI: 10.1029/WR004i002p00257
[8] 冯学智. 卫星雪盖制图及其应用研究概况[J]. 遥感技术动态, 1989(1): 25-29. https://www.cnki.com.cn/Article/CJFDTOTAL-YGJS198901004.htm FENG Xuezhi. Satellite snow cover mapping and its application[J]. Development of Remote Sensing Technology, 1989(1): 25-29. https://www.cnki.com.cn/Article/CJFDTOTAL-YGJS198901004.htm
[9] 冯学智. 卫星雪盖制图中的一些技术问题[J]. 遥感技术与应用, 1991(4): 10-15. https://www.cnki.com.cn/Article/CJFDTOTAL-YGJS199104001.htm FENG Xuezhi. Some technical problems in satellite snowcover mapping[J]. Remote Sensing Technology and Application, 1991(4): 10-15. https://www.cnki.com.cn/Article/CJFDTOTAL-YGJS199104001.htm
[10] 白磊, 郭玲鹏, 马杰, 等. 基于数字相机拍摄影像的山区积雪消融动态观测研究——以天山积雪站为例[J]. 资源科学, 2012, 34(4): 620-628. https://www.cnki.com.cn/Article/CJFDTOTAL-ZRZY201204006.htm BAI Lei, GUO Lingpeng, MA Jie, et al. Observation and analysis of the process of snow melting at Tianshan station using the images by digital camera[J]. Resouces Science, 2012, 34(4): 620-628. https://www.cnki.com.cn/Article/CJFDTOTAL-ZRZY201204006.htm
[11] Kim S-H, Hong C-H. Antarctic land-cover classification using IKONOS and Hyperion data at Terra Nova Bay[J]. International Journal of Remote Sensing, 2012, 33(22): 7151-7164. DOI: 10.1080/01431161.2012.700136
[12] ZHU L, XIAO P, FENG X, et al. Support vector machine-based decision tree for snow cover extraction in mountain areas using high spatial resolution remote sensing image[J]. Journal of Applied Remote Sensing, 2014, 8(1): 084698. DOI: 10.1117/1.JRS.8.084698
[13] Dozier J. Spectral signature of alpine snow cover from the Landsat Thematic Mapper[J]. Remote Sensing of Environment, 1989, 28(1): 9-22. http://static1.1.sqspcdn.com/static/f/891472/15152129/1321451632750/Dozier_J._1989.pdf?token=sMvVhVmXaLvHsiAGq%2FlmCvgkjlA%3D
[14] Cea C, Cristóbal J, Pons X. An improved methodology to map snow cover by means of Landsat and MODIS imagery[C]//2007 IEEE International Geoscience and Remote Sensing Symposium, 2007: 4217-4220.
[15] Khosla D, Sharma J, Mishra V. Snow cover monitoring using different algorithm on AWiFS sensor data[J]. International Journal of Advanced Engineering Sciences and Technologies, 2011, 7(1): 42-47.
[16] 延昊. 利用MODIS和AMSR-E进行积雪制图的比较分析[J]. 冰川冻土, 2005(4): 515-519. DOI: 10.3969/j.issn.1000-0240.2005.04.008 YAN Hao. A comparison of MODIS and passive microwave snow mapping[J]. Journal of Glaciology and Geocryology, 2005(4): 515-519. DOI: 10.3969/j.issn.1000-0240.2005.04.008
[17] 郝晓华, 王建, 李弘毅. MODIS雪盖制图中NDSI阈值的检验——以祁连山中部山区为例[J]. 冰川冻土, 2008(1): 132-138. https://www.cnki.com.cn/Article/CJFDTOTAL-BCDT200801020.htm HAO Xiaohua, WANG Jian, LI Hongyi. Evaluation of the NDSI threshold value in mapping snow cover of MODIS[J]. Journal of Glaciology and Geocryology, 2008(1): 132-138. https://www.cnki.com.cn/Article/CJFDTOTAL-BCDT200801020.htm
[18] 汪凌霄. 玛纳斯河流域山区积雪遥感识别研究[D]. 南京: 南京大学, 2012. WANG Lingxiao. Retrieval of Snow Water Equivalence Using SAR Data for Typical Area of Manas River Basin in Xinjiang, China[D]. Nanjing: Nanjing University, 2012.
[19] Baghdadi N, Gauthier Y, Bernier M. Capability of multitemporal ERS-1 SAR data for wet-snow mapping[J]. Remote Sensing of Environment, 1997, 60(2): 174-186. DOI: 10.1016/S0034-4257(96)00180-0
[20] Rott H, Nagler T. Capabilities of ERS-1 SAR for snow and glacier monitoring in alpine areas[J]. European Space Agency-Publications-ESA SP, 1994, 361: 965-965. http://www.researchgate.net/publication/245605630_Capabilities_of_ERS-1SAR_for_snow_and_glacier_monitoring_in_Alpine_areas
[21] Koskinen J T, Pulliainen J T, Hallikainen M T. The use of ERS-1 SAR data in snow melt monitoring[J]. IEEE Transactions on Geoscience Remote Sensing, 1997, 35(3): 601-610. DOI: 10.1109/36.581975
[22] Luojus K P, Pulliainen J T, Cutrona A B, et al. Comparison of SAR-based snow-covered area estimation methods for the boreal forest zone[J]. IEEE Geoscience Remote Sensing Letters, 2009, 6(3): 403-407. DOI: 10.1109/LGRS.2009.2014786
[23] Caves R, Hodson A, Turpin O, et al. Field verification of SAR wet snow mapping in a non-Alpine environment[J]. European Space Agency- Publications- ESA SP, 1998, 441: 519-526. http://www.researchgate.net/publication/228650728_Field_verification_of_SAR_wet_snow_mapping_in_a_non-Alpine_environment/download
[24] Malnes E, Guneriussen T. Mapping of snow covered area with Radarsat in Norway[C]//IEEE International Geoscience and Remote Sensing Symposium, 2002: 683-685.
[25] Kelly R. The AMSR-E snow depth algorithm: description and initial results[J]. Journal of the Remote Sensing Society of Japan, 2009, 29(1): 307-317. https://www.jstage.jst.go.jp/article/rssj/29/1/29_1_307/_pdf/-char/en
[26] PAN J, JIANG L, ZHANG L. Wet snow detection in the south of China by passive microwave remote sensing[C]//IEEE International Geoscience and Remote Sensing Symposium, 2012: 4863-4866.
[27] Singh P R, Gan T Y. Retrieval of snow water equivalent using passive microwave brightness temperature data[J]. Remote Sensing of Environment, 2000, 74(2): 275-286. DOI: 10.1016/S0034-4257(00)00121-8
[28] LIU X, JIANG L, WU S, et al. Assessment of methods for passive microwave snow cover mapping using FY-3C/MWRI data in China[J]. Remote Sensing, 2018, 10(4): 524-545. DOI: 10.3390/rs10040524
[29] Hinkler J, Pedersen S B, Rasch M, et al. Automatic snow cover monitoring at high temporal and spatial resolution, using images taken by a standard digital camera[J]. International Journal of Remote Sensing, 2002, 23(21): 4669-4682. DOI: 10.1080/01431160110113881
[30] Keshri A, Shukla A, Gupta R. ASTER ratio indices for supraglacial terrain mapping[J]. International Journal of Remote Sensing, 2009, 30(2): 519-524. DOI: 10.1080/01431160802385459
[31] Hinkler J, Ørbæk J B, Hansen B. Detection of spatial, temporal, and spectral surface changes in the Ny-Ålesund area 79 N, Svalbard, using a low cost multispectral camera in combination with spectroradiometer measurements[J]. Physics Chemistry of the Earth, Parts A/B/C, 2003, 28(28-32): 1229-1239. DOI: 10.1016/j.pce.2003.08.059
[32] XIAO X M, SHEN Z X, QIN X G. Assessing the potential of VEGETATION sensor data for mapping snow and ice cover: a normalized difference snow and ice index[J]. International Journal of Remote Sensing, 2001, 22(13): 2479-2487. DOI: 10.1080/01431160119766
[33] XIAO X, Moore B, QIN X, et al. Large-scale observations of alpine snow and ice cover in Asia: using multi-temporal vgetation sensor data[J]. International Journal of Remote Sensing, 2002, 23(11): 2213-2228. DOI: 10.1080/01431160110076180
[34] Long J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015: 3431-3440.