APP下载

基于视觉注意机制的洪涝淹没区遥感识别方法

2019-02-21汪权方汪倩倩陈龙跃杨宇琪

农业工程学报 2019年22期
关键词:被淹洪涝洪灾

汪权方,张 雨,汪倩倩,2,孙 佩,3,陈龙跃,杨宇琪

基于视觉注意机制的洪涝淹没区遥感识别方法

汪权方1,张 雨1,汪倩倩1,2※,孙 佩1,3,陈龙跃1,杨宇琪1

(1. 湖北大学资源环境学院,武汉 430062;2. 安徽省交通规划设计研究总院股份有限公司,合肥 230000;3. 水利部长江勘测技术研究所,武汉 430011)

依据视觉注意机制,结合洪涝淹没区以色彩可视化表达的时空过程变化特性,构建凸显淹没区视觉显著性的专题信息增强图像,对此应用NBS色差距离系数,使得同质像元在空间上集聚形成显著区域,然后采用基于视觉色差检测的图像聚类技术,开展大范围洪涝淹没区的遥感识别及信息提取,并利用能够同时兼顾遥感错分和漏分信息的复合分类精度系数(composite classification accuracy,CCA)进行识别精度评价。应用上述方法对长江中游2016年夏季洪灾进行了遥感监测试验,并采用误差混淆矩阵法对同一识别对象(洪水淹没区)不同遥感分类方法的可信度进行了评价,结果显示该次试验的Kappa系数和CCA系数各为93.4%和88.5%,较传统的洪水淹没区遥感识别技术都高出5%左右。在2016年长江中游夏季洪灾中,渍水农田面积约19 143.35 hm2,淹没区面积则高达142 157.5 hm2,其中被淹水稻占16.6%(约23 579 hm2),并且绝大部分位于长江沿岸以及府河和汉江等长江支流沿线地势低洼的滨河滨湖地带;武汉市受灾最为严重,该市以34 492 hm2的洪涝淹没区面积居于各受灾县市之首,占研究区域全部受灾面积的24.26%。基于选择性视觉注意机制的洪涝淹没区遥感识别方法,能够有效提高大范围洪涝淹没区的遥感信息提取精度,较好地解决了淹没区与水域之间的错分现象;基于洪灾前后遥感信息融合的洪涝过程可视化表达,不仅能够实现淹没区不同于水体的时空变化特性的数据化,从而便于开展淹没区的计算机视觉检测,而且还在凸显淹没区视觉显著性的同时,较好地抑制背景冗余信息,尤其能降低将淹没区视同水域进行遥感分类检测时的不确定性。

遥感;检测;视觉注意机制;洪涝淹没区;NBS色差距离系数;长江中游

0 引 言

洪涝灾害是当今世界上影响最为广泛的自然灾害之一,快速获取准确的洪涝淹没区信息对于大范围精准应急救灾和防洪抗涝决策等具有重要意义。遥感(remote sensing,RS)技术具有覆盖范围广、时效性强、定位较精准,以及与地理信息系统(geographic information system,GIS)技术结合后的强大空间数据管理和分析功能等特点,因此,大范围洪涝灾害发生后,人们总是希望能够应用卫星遥感技术来进行淹没区识别与信息提取[1-7]。

从已有研究来看,目前对于洪涝淹没区的识别,普遍从淹没区视同水域的角度,采用洪灾前后的水体遥测结果差异来提取淹没区范围[2-9]。在此过程中,通常采用以下方式来进行水体遥感识别:一是利用水敏感波段或基于比值型水体指数进行阈值分割,二是利用谱间关系法构建水体识别的判别条件,三是基于光谱特征或光谱特征与空间形状、纹理等特征相结合的图像分类[6-10]。很显然,上述这些基于洪灾前后水域遥测结果差异的淹没区遥感识别方法具有突出的易理解性和较好的易实现性,因而得到了广泛应用。但是,面对信息量巨大的遥感图像数据以及洪涝淹没区分散式广域分布的复杂状况,将上述方法应用于大范围洪涝监测时,容易出现淹没区的漏分及其与水体等易混淆地物之间的错分现象,从而导致最终的淹没区遥感识别结果存在较高的不确定性[10-11]。然而,遥感数据分类结果的不确定性不仅反映该数据本身的适用性,还会在以该数据为输入信息的各种模型中传播,进而使得模型的运算结果乃至最终的决策具有很大的不确定性[12-14],因此,Bogaert[13]、Löw[15]和Gonçalves[16]等就如何解决和度量遥感图像专题分类中的不确定性开展了大量研究,但是对于“通常将洪涝淹没区视同水域来进行遥感分类”所引发的洪水淹没区遥感识别不确定性问题,目前并没有给予足够的重视[2-9]。事实上,洪涝淹没区与真实的水域(文中将以“原有水体”来代称,以区别于构成淹没区的水,下同)有着显著的内在差异。洪涝灾害的发生的确大多起因于降水过多或过于集中,从而使得无法及时排出过量雨水的区域内出现淹没现象[17],但是洪涝淹没区实际上是一种由水和被淹地物组成的复合区域,其像元灰度值不仅与原有水体有所区别,而且还会因被淹地物的不同而复杂多变,从而使得不同地方的洪涝淹没区在遥感影像上的表现并不一致[10,18]。因此,基于洪涝淹没区等同于水域的理念来进行大范围淹没区遥感检测,必然容易导致识别不确定性现象的产生[2,10-12,18]。

另外,要解决洪涝淹没区遥感识别不确定性问题,显然不仅需要改变遥感分类中将淹没区等同于水域的观念,同时还要克服仅仅依据目标物与背景地物在敏感波段上的数值差异进行遥感识别,从而导致大范围淹没区信息提取的工作效率低下、精度受限问题[2-9,18-19]。基于视觉注意机制的感兴趣区机器检测技术尤其强调图像的色彩信息及其在显著性区域定位中的应用[20-23]。已有研究表明,人类所获取的外界信息大约80%来自视觉系统所产生的图像,而在大量的图像信息中,颜色的视觉一致性和易聚类性突出,其直观性和易理解性也是其他信息所无法比拟的,因而具有更高的视觉注意优先级[22-25]。再加上图像颜色不仅可以简化目标物的区分及从场景中提取目标的过程,而且与形状或纹理等几何特征相比,颜色具有一定的稳定性,其对缩放、平移、旋转等具有相当强的鲁棒性,因此,图像颜色已成为基于视觉注意机制的感兴趣区域机器检测的重要依据[19,20,22-23,25-29]。不过,与其他图像相比,卫星遥感影像具有空间覆盖范围广、内容复杂丰富、所含波段通常超过3个波段并且每个波段都具有特定的物理含义等特点,因此,如何利用基于视觉注意机制的机器视觉检测技术,从卫星影像数据集中高效准确地识别出洪涝淹没区等感兴趣目标仍然具有较大的挑战性,其中,能否利用被检测目标的本质特征,建立新的遥感特征空间来强化感兴趣区的影像表现,则是解决上述挑战的关键所在[19-21,27-30]。

针对上述问题,本文依据洪涝淹没区不同于水域的内在属性,结合选择性视觉注意机制,提出一种适于机器视觉聚类的洪涝淹没区遥感识别方法,以达到有效降低淹没区遥感识别的不确定性,实现大范围洪涝淹没区高精度遥感识别的目的。为此,以时序遥感影像数据作为信息源,利用能够反映淹没区动态特性的遥感多特征指数数据集,实现基于选择性视觉注意机制的洪涝过程可视化,并增强淹没区在图像上的视觉显著性;然后,在Munsell HLC颜色空间中,采用NBS颜色距离系数[31]使得具有相同或相近颜色特征的水体像元在空间上集聚,从而便于应用计算机视觉颜色聚类技术进行洪涝淹没区的遥感识别。最后,基于能够同时兼顾遥感错分和漏分信息的复合分类精度系数(composite classification accuracy,CCA),采用对比试验对本研究基于视觉注意机制的洪涝淹没区遥感识别效果及方法实用性进行综合评价。

1 主要研究方法

1.1 基于视觉注意机制的洪涝过程可视化

与原有水体相比,洪水淹没区具有时空对比性更为突出的过程变化特性[32],这可以通过被淹地物在洪灾前后的波谱变化通常较为明显并且显著区别于原有水体来得以体现[10,32]。例如作物,它在被淹前的波谱特性与植被相符、被淹后则表现出类似于水的特征,而原有水体在洪灾前后的波谱变化一般相对较小或无明显变化。由此可见,洪水淹没区的这一过程变化特性可以作为遥感识别洪涝淹没区的重要依据[10,18,32]。不过,要依据这一过程变化特性进行洪水淹没区的遥感视觉精确检测,有必要基于选择性视觉注意机制,以可见、独特的颜色特征对该特性进行表达,从而使得淹没区像元在图像上形成能够被计算机视觉检测系统快速准确识别出来的显著区域[20-21]。

已有研究显示,人类视觉系统在感知外界环境的过程中存在着极强的动态选择性[21,24,33],这使得人类视觉系统在面对一个复杂的场景时会迅速被少数显著对象,尤其是在亮度、颜色和方向等方面具有快速变化的局部区域所吸引并优先进行处理,对全局中频繁、大量、反复出现的图像特征进行抑制,从而能够快速、准确地找到图像中这些显著区域[21,33-37]。因此,为了便于后续的淹没区计算机视觉检测,本研究首先依据人类视觉系统的这一选择性视觉注意机制,以成像于不同洪灾阶段的遥感影像为信息源,通过分析水体、被淹地物(主要是水稻等作物)以及建筑物和裸地等易混淆地物在不同波段上的表现特征,构建了3种遥感特征指数(图1a、图1b):归一化差异植被指数(normalized difference vegetation index,NDVI)、归一化差异水体指数(normalized difference water index,NDWI)和增强型水体指数(modified normalized difference water index,MNDWI)[38-39];然后,通过不同配色方案的对比试验,最终采用将洪水淹没时(2016年7月23日)的NDWI指数赋予红色、洪灾初期(2016年6月5日)的NDVI和MNDWI指数分别赋予绿色和蓝色的波段组合及赋色方案,生成了淹没区遥感专题信息增强图像,从而能够同时凸显遥感影像上洪水淹没区的颜色特征及其与水体等易混淆地物之间的视觉差异(图 2a)。究其原因,主要在于上述3波段RGB彩色图像(图2a)不仅包含了洪水淹没区在特定时刻具有类似于水但与建筑物和裸地等易混淆地物之间存在明显差异的波谱特征,而且还融合了被淹地物以作物为主时所导致的洪水淹没区具有不同于原有水体的波谱时间变化特性。

1.2 从RGB到HLC的颜色空间转换

由图2a可以看出,将洪灾前后的NDWI、MNDWI和NDVI指数影像,按照适宜的配色方案进行组合显示以后,不仅洪水淹没区的影像表现得以凸显,同时也使得淹没区与易于混淆的原有水体之间产生了较明显的颜色差异。但是,这种色彩差异是建立在RGB颜色空间的基础之上。已有研究[22,25,31]表明,RGB颜色空间是一种混合型颜色空间,它的红、绿、蓝3个分量之间高度相关,从而导致RGB显色系统具有较大的不稳定性,同时人眼对于常见的红绿蓝3色的敏感程度不同,这使得RGB颜色空间的色彩均匀性极差。

图1 洪灾前后水体及被淹地物的影像表现特征

与RGB颜色空间相比,蒙赛尔(Munsell)颜色系统是一种具有较好视觉一致性的颜色立体模型表示方法,它以颜色的视觉特性来制定颜色分类和标定系统,能成功地模拟人类的颜色视觉特征[22,31]。在本研究中,按照如下过程[25,31,40]对上述淹没区信息增强影像(图2a)进行RGB向Munsell HLC颜色空间的转换,所得结果如图2b所示。

1)从RGB空间变换到空间

2)从空间变换为空间

3)将空间变换为空间

4)从空间变换为HLC空间

式中、、分别代表Munsell颜色系统中的色相(hue)、明度(lightness)和饱和度(chroma)3个分量。

1.3 复合分类精度评价系数

精度评价是对遥感分类结果是否可信的一种度量,通常采用误差混淆矩阵法,由此可计算Kappa 系数、总体分类精度(overall classification accuracy,OCA)以及各类别的使用者准确率(users accuracy,UA)和生产者准确率(producers accuracy,PA)等评价指标[41-43]。其中,UA主要反映遥感分类中的错分现象,PA则主要反映漏分现象,两者都只从特定角度来度量目标类别的遥感分类准确性,从而导致仅用UA或PA来比较不同分类方法对于目标类别的解译精度时往往会出现“顾此失彼”的现象。

针对上述状况,本文设计了一种能够集成目标类别遥感分类的使用者准确率(UA)和生产者准确率(PA)所包含信息的综合性评价指标,也即复合分类精度(composite classification accuracy,CCA),该指标不仅能够综合反映目标类别的分类准确性,而且据此还可以进行不同分类方法对于相同目标类别的遥感分类可信度检测和比较。

a. Composited RGB imagery of July 23rd NDWI indice and June 5th indice of NDVI and MNDWI b. Munsell HLC imagery transformed from composited RGB image

2 研究区域与数据源

2.1 研究区概况

长江中游地区横跨雨水比较充沛的中亚热带和北亚热带,又地处中国地势由第二阶梯向第三阶梯过渡的内陆腹地,自然条件复杂、水热资源时空分布变化大,再加上易受东亚季风进退异常的影响等,使得该地区成为中国气象灾害的高发区,洪涝灾害尤其频繁[44-46]。长江中游地区也是中国重要的农业生产基地和水稻等粮食作物的主产区,但由于该地特殊的地理位置和气候条件以及承灾系统的脆弱性等,洪水灾害给当地粮食生产和社会经济等造成了很大影响[45-46]。2016年受超强厄尔尼诺事件以及西太平洋副热带高压偏强偏西等海洋、大气环流、气候因子的共同影响,长江流域在当年的6月中旬-7月下旬期间连续发生多次强降雨过程,从而导致长江干流监利以下的江段以及洞庭湖、鄱阳湖湖区的水位都超过警戒水位,长江中下游地区发生了区域性大洪水,部分支流发生了特大洪水[10,47-48]。

在本研究中,以2景Landsa8/OLI影像(Path/Row编号分别为122/039和123/039)在长江中游地区的覆盖范围(图3)为研究区域。水稻是该区域内普遍种植的一种主要粮食作物,在2016年夏季洪灾期间研究区内有大量的水稻田被淹,同时由于淹水历时较长,受淹稻田大量减产或绝收的现象比较普遍,尤其是在湖北、安徽、江西等长江中游的省份,水稻生产受灾最为严重[48]。从被淹水稻的类型来看,既有拔节抽穗期的中稻(图4a),也有正处于黄熟期的早稻(图4b)。

图3 研究区地理位置、精度评价点及实地调查路线

图4 研究区内被淹的典型水稻样点及其位置信息

2.2 主要数据源

本文采用的遥感数据主要是Landsat8/OLI影像,从USGS(美国地质勘探局)网站下载获得。2016年6月中旬长江中游地区开始了第一轮暴雨,6月底-7月初出现了大范围的强降雨天气,一直到7月中旬才停止,7月下旬后则进入持续退水期[46],因此,本研究选择该年6月中上旬的两景Landsat8/OLI影像(path/row分别是122/039和123/039)作为反映受灾初期研究区内原有水体信息的基础数据,成像于7月23日与8月1日的另两景Landsat8/OLI影像(path/row分别是122/039和123/039)则主要用来反映被淹的区域情况。上述影像质量整体较好,对于其中部分有云覆盖的地方则采用同时期16 m分辨率的高分一号卫星影像来进行替换。

此外,还获取了研究区域亚米级的Google earth影像以及在洪水期间赴研究区域所采集的GPS实地调查数据(图3、图4)等,以作为本次研究的参考数据。

3 研究结果及分析

3.1 基于NBS色差距离的淹没区遥感视觉识别

NBS(National Bureau of Standards Unit,美国国家标准局)颜色距离系数[31]常被用来量化彩色图像中目标对象与背景地物之间的色差。

假设=(1,1,1),=(2,2,2)是Munsell颜色空间中的任一颜色对,则它们之间的NBS距离系数[31]可定义为

式中NBS表示Munsell HLC颜色空间中、颜色对的相似性,其值越小,则、颜色对的相似性越高,反正相似性越低。

在本研究中,主要采用该系数来测定淹没区与非淹没区在Munsell HLC空间中的颜色差异,并生成色差图像(图5)。由该图像可以看出,通过NBS系数的计算,不仅使得具有相同或相近颜色特征的淹没区像元在空间上集聚,形成了能被视觉注意系统快速准确识别的显著区域,而且与原有水体、建筑用地和渍水农田等易混分地物之间也存在明显的色差。因此,对于试验区在Munsell HLC空间中的NBS色差图像,采用-means聚类法进行了分割和淹没区信息提取(图6),其中,色差图像的-means分割通过Matlab代码实现,主要参数设置如下:初始聚类中心点的确定使用-means++算法;每个像元到聚类中心的距离计算使用“sqEuclidean”函数;最大迭代次数('MaxIter' )为100。

为构建本次分类精度评价所需的误差混淆矩阵,利用456个随机样点(图3),并依据试验所用的两景OLI源影像,结合Google earth影像以及在洪水期内采集的GPS实地调查数据等,对各样点的分类准确性进行了目视判读(表1),结果显示,本次试验的Kappa系数为93.4%,淹没区和原有水体的CCA系数则各为88.5%和91.6%。这表明本研究对于洪涝淹没区的遥感识别结果具有较好的可靠性,可以用于后续的洪涝灾情精确分析。

图5 Munsell HLC颜色空间中淹没区与水和其他地物样本点之间的NBS距离系数

图6 基于NBS色差距离系数和K-means算法的淹没区遥感信息增强影像分类结果

表1 基于NBS影像视觉色彩聚类的洪水淹没区遥感识别精度

3.2 不同方法的淹没区遥感识别效果对比

如前所述,在传统的洪涝灾情遥感监测中,通常将淹没区视作水域,然后通过对比洪灾前后的水体监测结果差异来提取淹没区范围。为量化比较这一常规的洪涝淹没区遥感识别模式与本文基于洪水过程特性的淹没区机器视觉颜色分类模式之间的差异,也采用上述456个随机样点(图3)进行了精度评价,结果(表2)显示,不管是Kappa系数和OCA指标值,还是淹没区和原有水体的CCA系数,传统的洪涝淹没区遥感识别方法都明显较低;同时,传统方法将原有水体误分为淹没区的机率也更高。不过,2种模式对于水体的遥感识别精度都略高于洪涝淹没区,其原因主要在于淹没区相对于水体来说具有较高的异质性。

表2 基于洪灾前后水体监测结果差异的淹没区遥感识别精度

3.3 研究区域受灾情况分析

依据近2a(当年和上一年度)同时期的遥感影像,对淹没区内主要被淹地物进行了解译,结果(图7)显示,2016年研究区内被淹面积共计142 157.5 hm2,其中,武汉市被淹面积约34 492 hm2,占全部受灾面积的24.26%,居于各受灾县市之首;紧随其后的是天门市、宿松县、鄂州市和孝感市,它们的被淹面积各为14 105、10 408.5、9 851.5和8 816.5 hm2,分别占总受灾面积的9.92%、8.41%、7.32%和6.93%。除此之外,洪湖市、汉川市和嘉鱼县在此次洪灾中的被淹面积也都超过了5 000 hm2,它们与上述5个县市的洪水淹没区面积共占研究区域全部受灾面积的68.43%。从淹没区的空间分布来看,绝大部分受灾区位于长江沿岸及其支流(主要是府河和汉江)沿线的滨河滨湖地带(图6),其原因主要在于这些地方的地势低洼,在进入梅雨季节(6—7月)以后,暴雨强度大、降雨极值多,而同时期的长江中游干流水位高、高水持续时间长,从而导致沿江湖泊和多数支流几乎无法自流外排,再加上近些年来,研究区内的城镇建设等大量侵占原有湿地和湖泊,进一步削弱了长江中游蓄洪调洪能力,结果导致超量洪水难以下泄而壅堵成灾。

长江中游地区不仅是中国重要的粮食主产区,水产养殖业也非常发达。在本次洪灾中,该地区的农业生产与经济遭受了严重的影响。截止2016年7月下旬,研究区内被淹没的稻田、旱地、鱼塘和藕塘面积共计42 773.8 hm2,占总受灾面积的30.09%。其中又以水稻的淹没面积最大,约23 579.1 hm2,主要分布于宿松、天门、武汉、孝感和汉川,这些县市被洪水淹没的水稻面积分别为4 685.1、4 642.6、4 336.6、2 775.6、1 913.8 hm2;鱼塘和藕塘的受灾面积共约12 376.8 hm2,其中受灾最严重的4个县市武汉、天门、鄂州和孝感各占28.61%、16.03%、10.76%和6.98%;被洪水淹没的旱地受灾面积约6 817.9 hm2,主要受灾县市为天门市、武汉市和宿松县,其被淹旱地面积分别为4 432.2、737.9、479.9 hm2。另外,研究区内还有受灾但作物(主要是水稻)未被洪水没顶淹没的渍水农田约19 143.35 hm2。

注:图中一个点代表100 hm2,若在某县市境内只有一个数值点,则该点所对应的被淹地物面积小于100 hm2。

4 结论

遥感监测洪涝灾害时,不应将淹没区视同水域来进行识别,否则会人为增加淹没区遥感信息提取的不确定性。基于视觉注意机制进行洪涝过程的可视化表达,不仅可以实现淹没区不同于水体的时空变化特性的数据化,使得这一重要信息可方便应用于计算机视觉检测,而且还能在凸显淹没区视觉显著性的同时,较好地抑制背景冗余信息,尤其是原有水体等易混淆背景地物的影响,从而降低淹没区遥感识别中的不确定性。

利用基于选择性视觉注意机制所构建的淹没区专题信息增强图像,结合基于NBS颜色聚类特性的感兴趣区检测技术,能够实现更高精度的大范围洪涝淹没区遥感视觉识别,其精度系数(CCA)比基于洪灾前后水体遥测结果差异的淹没区遥感识别模式大约高出5%。

在2016年夏季洪灾中,长江中游地区共有19 143.35 hm2的渍水农田,完全被淹的洪涝灾区则高达142 157.5 hm2,其中30.09%属于稻田、旱地、鱼塘和藕塘;受灾区域主要分布于长江中游沿岸及其支流(主要是府河和汉江)沿线地势低洼的滨河滨湖地带,其原因主要在于超量洪水难以下泄而壅堵成灾;武汉市受灾较为严重,该市以34 492.0 hm2的洪涝淹没区面积居于各县市之首,占研究区内全部受灾面积的24.26%。

本研究充分展示了基于视觉注意机制的遥感检测技术在大范围洪涝灾害精确监测领域的潜力,但是该方法目前仅针对淹没区内被淹地物以作物(水稻)为主时开展了方法试验,当非作物被淹时,需对本研究所提出的淹没区遥感视觉识别方法的有效性作进一步的试验分析。另外,洪涝灾害发生时云雨天气较多,这会导致以光学遥感数据为信息源而建立的淹没区机器视觉识别方法难以满足洪涝灾害实时监测的需求。因此,今后需要结合雷达数据等,进一步完善本研究所提出的洪涝灾区遥感视觉识别方法。

[1]Millán V E G, Faude U, Bicsan A, et al. Monitoring flooding damages in vegetation caused by mining activities using optical remote sensing[J]. Journal of Photogrammetry, Remote Sensing and Geoinformation Science, 2018, 86(1): 1-13.

[2]Refice A, D'addabbo A, Capolongo D. Methods, Techniques and Sensors for Precision Flood Monitoring Through Remote Sensing[M]// Refice A, D'addabbo A, Capolongo D(eds). Flood Monitoring Through Remote Sensing. Springer, Cham, 2018: 1-25. https: //doi. org/10. 1007/978-3-319-63959-8_1.

[3]Panteras G, Cervone G. Enhancing the temporal resolution of satellite-based flood extent generation using crowdsourced data for disaster monitoring[J]. International Journal of Remote Sensing, 2018, 39(5): 1459-1474.

[4]Wang Y. Advances in remote sensing of flooding[J]. Water, 2015, 7(11): 6404-6410.

[5]Klemas V. Remote sensing of floods and flood-prone areas: An overview[J]. Journal of Coastal Research, 2015, 31(4): 1005-1013. 7.

[6]李加林,曹罗丹,浦瑞良. 洪涝灾害遥感监测评估研究综述[J]. 水利学报,2014,45(3):253-260. Li Jialin, Cao Luodan, Pu Ruiang. Progresses on monitoring and assessment of flood disaster in remote sensing[J]. Journal of Hydraulic Engineering, 2014, 45(3): 253-260. (in Chinese with English abstract)

[7]Alfieri L, Salamon P, Bianchi A, et al. Advances in pan-European flood hazard mapping[J]. Hydrological Processes, 2014, 28(13): 4067-4077.

[8]Henry Z, Banda K, Anthony C, et al. Assessment of trends in inundation extent in the Barotse Floodplain, upper Zambezi River Basin: A remote sensing-based approach[J]. Journal of Hydrology: Regional Studies, 2018, 15: 149-170.

[9]李海亮,汪秀华,戴声佩,等. 基于环境减灾卫星CCD数据的海南岛洪涝灾害监测[J]. 农业工程学报,2015,31(17):191-198. Li Hailiang, Wang Xiuhua, Dai Shengpei, et al. Flood monitoring in Hainan Island based on HJ-CCD data[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(17): 191-198. (in Chinese with English abstract)

[10]汪权方,孙佩,王新生,等,基于洪水过程的农业洪灾变化遥感快速评估模型及其应用[J]. 长江流域资源与环境,2017,26(11):1831-1842. Wang Quanfang, Sun Pei, Wang Xinsheng, et al. Fast assessment model of flood hazards based on flooding process and remote sensing data: A case study in Poyang Lake Region[J]. Resources and Environment in the Yangtze Basin, 2017, 26(11): 1831-1842. (in Chinese with English abstract)

[11]Jiao Y, Wang S, Zhou Y, et al. Uncertainty analysis of flood disaster assessment using radar imagery[C]// 2007 IEEE International Geoscience and Remote Sensing Symposium, Barcelona, 2007: 4729-4732. doi: 10. 1109/IGARSS. 2007. 4423916.

[12]Alasalmi T, Koskimäki H, Suutala J, et al. Classification uncertainty of multiple imputed data[C]// IEEE Symposium on Computational Intelligence and Data Mining, 2015.

[13]Bogaert P, Waldner F. An information-based criterion to measure pixel-level thematic uncertainty in land cover classifications[J]. Stochastic Environmental Research and Risk Assessment, 2016, 31(9): 2297-2312.

[14]柏延臣,王劲峰. 遥感数据专题分类不确定性评价研究:进展、问题与展望[J]. 地球科学进展,2005,20(11):1218-1225. Bo Yancheng, Wang Jingfeng. Assessment on uncertainty in remotely sensed data classification: Progress, problems and prospects[J]. Advances in Earth Sciences, 2005, 20(11): 1218-1225. (in Chinese with English abstract)

[15]Löw F, Michel U, Dech S, et al. Impact of feature selection on the accuracy and spatial uncertainty of per-field crop classification using support vector machines[J]. Isprs Journal of Photogrammetry & Remote Sensing, 2013, 85(6): 102-119.

[16]Gonçalves L M S, Fonte C C, Júlio E N B S, et al. The application of uncertainty measures in the training and evaluation of supervised classifiers[J]. International Journal of Remote Sensing, 2012, 33(9): 17.

[17]万金红,张葆蔚,刘建刚,等. 1950—2013年我国洪涝灾情时空特征分析[J]. 灾害学,2016,31(2):63-68. Wan Jinhong, Zhang Baowei, Liu Jiangang, et al. The distribution of flood disaster loss during 1950-2013[J]. Journal of Catastrophology, 2016, 31(2): 63-68. (in Chinese with English abstract)

[18]王嘉芃,刘婷,俞志强,等. 基于COSMO-SkyMed和SPOT-5的城镇洪水淹没信息快速提取研究[J]. 遥感技术与应用,2016,31(3):564-571. Wang Jiafan, Liu Ting, Yu Zhiqiang, et al. A research on town flood information rapid extraction based on COSMO-SkyMed and SPOT-5[J]. Remote Sensing Technology and Application, 2016, 31(3): 564-571. (in Chinese with English abstract)

[19]Milan S, Vaclav H, Roger B. Image Processing, Analysis and Machine Vision[M]. 4th ed. Beijing: Tsinghua University Press, 2016.

[20]乔荣华,周明全. 基于主颜色和分块颜色矩的遥感影像检索[J]. 微计算机信息,2010,26(8-2):189-192. Qiao Ronghua, Zhou Mingquan. Remote sensing image retrieval based on dominant color and segment color moments[J]. Control & Automation, 2010, 26(8-2): 189-192. (in Chinese with English abstract)

[21]Guo M, Zhao Y, Zhang C, et al. Fast object detection based on selective visual attention[J]. Neurocomputing, 2014, 144: 184-197.

[22]Gowda S N, Yuan C. ColorNet: Investigating the importance of color spaces for image classification[C] // Asian Conference on Computer Vision Springer, Cham, 2018: 581-596.

[23]黄凯奇,任伟强,谭铁牛. 图像物体分类与检测算法综述[J]. 计算机学报,2014,36(6):1-18. Huang Kaiqi, Ren Weiqiang, Tan Tieniu. A review on image object classification and detection[J]. Chinese Journal of Computers, 2014, 36(6): 1-18. (in Chinese with English abstract)

[24]黄传波,金忠. 应用视觉注意多分辨率分析的图像检索[J]. 中国图象图形学报,2011,16(9):1656-1663. Huang Chuanbo, Jin Zhong. Image retrieval using multi-resolution analysis of visual attention[J]. Journal of Image and Graphics, 2011, 16(9): 1656-1663. (in Chinese with English abstract)

[25]王圆圆,丁志杰,万华林. 基于视觉颜色聚类的彩色图像分割[J]. 北京理工大学学报,2003,23(6):772-775. Wang Yuanyuan, Ding Zhijie, Wan Hualin. Perceptual color clustering for image segmentation[J]. Transactions of Beijing Institute of Technology, 2003, 23(6): 772-775. (in Chinese with English abstract)

[26]莫玲. 基于RGB彩色空间的图像分割研究[J]. 计算机科学,2016,43(Z6):168-170. Mo Ling. Study on image segmentation based on RGB color image[J]. Computer Science, 2016, 43(Z6): 168-170. (in Chinese with English abstract)

[27]肖秦琨,刘米娜,高嵩. 基于颜色和纹理特征的遥感图像检索[J]. 计算机技术与发展,2013,23(4):107-110. Xiao Qinkun, Liu Mina, Gao Song. Remote sensing image retrieval based on color and texture[J]. Computer Technology and Development, 2013, 23(4): 107-110. (in Chinese with English abstract)

[28]肖志涛,王红,张芳,等. 复杂自然环境下感兴趣区域检测[J]. 中国图象图形学报,2018,20(5):625-632. Xiao Zhitao, Wang Hong, Zhang Fang, et al. ROI detection under the complicated natural environment[J]. Journal of Image and Graphics, 2018, 20(5): 625-632. (in Chinese with English abstract)

[29]Liu G H, Yang J Y. Content-based image retrieval using color difference histogram[J]. Pattern Recognition, 2013, 46(1): 188-198.

[30]张兵. 遥感大数据时代与智能信息提取[J]. 武汉大学学报:信息科学版,2018,43(12):1861-1871. Zhang Bing. Remotely sensed big data era and intelligent information extraction[J]. Geomatics and Information Science of Wuhan University, 2018, 43(12): 1861-1871. (in Chinese with English abstract)

[31]Gong Y H, Proietti G, Faloutsos C. Image indexing and retrieval based on human perceptual color clustering[C]//The International Conference on Computer Vision and Pattern Recognition, IEEE, 1998: 578-585.

[32]周成虎. 洪涝灾害遥感监测研究[J]. 地理研究,1993,12(2):63-68. Zhou Chenghu. Flood disaster surveillance and evaluation remote sensing[J]. Geographical Research, 1993, 12(2): 63-68. (in Chinese with English abstract)

[33]孙晓帅,姚鸿勋. 视觉注意与显著性计算综述[J]. 智能计算机与应用,2014,4(5):14-18. Sun Xiaoshuai, Yao Hongxun. A survey of visual attention and saliency computation[J]. Intelligent Computer and Applications, 2014, 4(5): 14-18. (in Chinese with English abstract)

[34]Wang C, Bai X, Wang S, et al. Multiscale visual attention networks for object detection in VHR remote sensing images[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 16(2): 310-314.

[35]刘小丹,岳爽. 基于视觉注意的遥感图像森林植被纹理分割[J]. 计算机工程,2018,44(4):274-280. Liu Xiaodan, Yue Shuang. Forest vegetation texture segmentation in remote sensing image based on visual attention[J]. Computer Engineering, 2018, 44(4): 274-280. (in Chinese with English abstract)

[36]孟琭. 基于视觉注意机制的彩色图像显著性区域提取[J]. 计算机应用研究,2013,30(10):3159-3161. Meng Lu. Saliency detection for color image based on visual attention mechanism[J]. Application Research of Computers, 2013, 30(10): 3159-3161. (in Chinese with English abstract)

[37]刘尚旺,李名,胡剑兰,等. 基于视觉显著性检测的图像分类方法[J]. 计算机应用,2015,35(9):2629-2635. Liu Shangwang, Li Ming, Hu Jianlan, et al. Image classification method based on visual saliency detection[J]. Journal of Computer Applications, 2015, 35(9): 2629-2635. (in Chinese with English abstract)

[38]Mcfeeters S K. The use of the Normalized Difference Water Index (NDWI) in the delineation of open water features[J]. International Journal of Remote Sensing, 1996, 17(7): 1425-1432.

[39]Xu H Q. Modification of Normalised Difference Water Index (NDWI) to enhance open water features in remotely sensed imagery[J]. International Journal of Remote Sensing, 2006, 27(14): 3025-3033.

[40]Miyahara M. Mathematical transform of (R G B) color data to Munsell (H V C) color data[C]// SPIE Visual Communications and Image Processing, IEEE, 1988, 1001(3): 650-657.

[41]Congalton R G. A review of assessing the accuracy of classifications of remotely sensed data[J]. Remote Sensing Environment, 1991, 37: 35-46.

[42]Richards J A. Classifier performance and map accuracy[J]. Remote Sensing Environment, 1996, 57: 161-166.

[43]Stehman S V. Selecting and interpreting measures of thematic classification accuracy[J]. Remote Sensing Environment, 1997, 62: 77-89.

[44]周寅康. 中国近五百年流域性洪涝统计特征研究[J]. 自然灾害学报,1995,4(3):23-28. Zhou Yinkang. Statistical characteristics of basin-wide flood disaster in China[J]. Journal of Natural Disasters, 1995, 4(3): 23-28. (in Chinese with English abstract)

[45]李斌,燕琴,张丽,等. 长江中游洪涝灾害特征的MODIS时序监测与分析[J]. 武汉大学学报:信息科学版,2013,38(7):789-793. Li Bin, Yan Qin, Zhang Li, et al. Flood monitoring and analysis over the Middle Reaches of Yangtze River Basin with MODIS time-series imagery[J]. Geomatics and Information Science of Wuhan University, 2013, 38(7): 789-793. (in Chinese with English abstract)

[46]蔡述明,杜耘,黄进良,等. 长江中游洪涝灾害的成因与监测决策支持系统的建立[J]. 地球科学-中国地质大学学报,2001,26(6):643-647. Cai Shuming, Du Yun, Huang Jinliang, et al. Causes of flooding and water logging in middle reaches of the Yangtze River and construction of decision-making support system for monitoring and evaluation of flooding and water logging hazards[J]. Earth Science—Journal of China University of Geosciences, 2001, 26(6): 643-647. (in Chinese with English abstract)

[47]李晟铭,刘吉平,王铭,等. 基于Sentinel-1A 的2016年长江中下游重灾区洪水遥感监测及灾情评估[J]. 安徽农业科学,2018,46(10):68-74. Li Shengming, Liu Jiping, Wang Ming, et al. Flood remote sensing monitoring and disaster assessment in heavy disaster area of the middle and lower reaches of Yangtze River in 2016 based on Sentinel-1A imagery[J]. Journal of Anhui Agriculture Science, 2018, 46(10): 68-74. (in Chinese with English abstract)

[48]王俊. 2016年长江洪水特点与启示[J]. 人民长江, 2017, 48(4):54-57. Wang Jun. Characteristics and enlightenment of 2016 Changjiang River flood[J]. Yangtze River, 2017, 48(4): 54-57. (in Chinese with English abstract)

Remote sensing identification method of flood-inundated area based on perceptual visual attention

Wang Quanfang1, Zhang Yu1, Wang Qianqian1,2※, Sun Pei1,3, Chen Longyue1, Yang Yuqi1

(1.,,430062,; 2.,,230000,;3.,430011,)

Emergency flood relief needs fast and precise spatial information of flood-inundated area. Because of spectral similarity to some extent, inundated area was often viewed as water body and then derived from remote sensing classification result of the water areas before flood disaster minus that after flood disaster, which often caused difficulties in separating inundated area from true water body (e.g. river, lake or reservoir) and waterlogged cropland. This paper proposed an optimized method for identifying inundated area based on human perceptual visual attention and spatio-temporal variation characteristics of flood. Flood-inundated area is a temporary compound of water and other flooded objects (e.g., crops). It has specific spatio-temporal dynamic property, which differs from that of water body and could be used as a stable basis for remote sense identification of the inundated area. After the specific property was digitalized into numerical and visual data by generating a composite RGB color imagery of NDVI, MNDWI before the flood event and NDWI after the inundation, apparent coloring difference between water body and the inundated area in the imagery was reached. To gain reliable machine-vision detection based results of the flood-inundated area, an imagery of Munsell HLC color was transformed from the RGB imagery and then adopted in unsupervised classification based on coefficient of NBS color distance and K-means clustering algorithm. A case was studied on applying the proposed method to derive information of the inundated area in 2016 flood disaster in middle reaches of Yangtze River Basin and using Landsat OLI images. And an error confusion matrix method was adopted in the accuracy assessment on recognition results of the inundated area. The results showed that the proposed method gained excellent detection of the area with coefficients of Kappa and composite classification accuracy (CCA) equal to 93.4% and 88.5%, respectively. A controlled experiment on the credibility of different remote sensing classification methods for the same identification object (i.e. flooded-inundated area) was also made. It proved the proposed method for detection of flood-inundated area based on the selective visual attention mechanism could effectively improve the accuracy of remote sensing identification on the area with its CCA coefficient of 5% larger than that of the traditional method. The proposed method also had good performance on easily separating the flooded-inundated areas from water and waterlogged cropland, especially helped solving the misclassification between the flooded-inundated area and the water body. These benefited from three keys: 1) The inundated area was viewed as that not equal to water coverage in remote sensing classification, which could be proven by the former’s higher heterogeneity and its different spatio-temporal dynamic property. As a result, the identification uncertainty of the area was reduced. 2) Digital visualization of spatio-temporal variation features of the inundated area was completed through data fusion of NDWI after the inundation and NDVI and MNDWI before the flood event, which enhanced the area’s visual saliency on the remote sensing image and made it possible to identify them using machine-vision color clustering. 3)Difference of the flooded-inundated areas from the water and waterlogged cropland was precisely captured in the NBS imagein HLC space that was transformed from thefusion image at an optimized RGB color matching scheme (i.e. red given to NDWI after the inundation, green and blue to NDVI and MNDWI before the inundation, respectively). During summer flooding of the study area in 2016, the waterlogged farmland with crops uncovered by water was about 19 143.35 hm2while the inundated acreage was up to 142 157.5 hm2, among which 16.6% (i.e. 23 579 hm2) was being planted with rice paddy. Additionally, most of the inundated areas located in low-lying land along mainstream of the middle Yangtze River and its two branches, namely Hanjiang River and Fuhe River. The most severe flood disaster occurred in Wuhan City with 34 492 hm2of the inundated acreage.

remote sensing; detection; human perceptual visual attention; flood-inundated area; coefficient of NBS Color Distance; Middle Reaches of Yangtze River Basin, China

汪权方,张 雨,汪倩倩,孙 佩,陈龙跃,杨宇琪. 基于视觉注意机制的洪涝淹没区遥感识别方法[J]. 农业工程学报,2019,35(22):296-304. doi:10.11975/j.issn.1002-6819.2019.22.035 http://www.tcsae.org

Wang Quanfang, Zhang Yu, Wang Qianqian, Sun Pei, Chen Longyue, Yang Yuqi. Remote sensing identification method of flood-inundated area based on perceptual visual attention[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2019, 35(22): 296-304. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2019.22.035 http://www.tcsae.org

2019-04-20

2019-10-09

国家自然科学基金(41471375,40601003),湖北省技术创新重大项目(2018ABA078)

汪权方,副教授,博士,主要从事土地遥感和农情监测研究。Email:wangqf@hubu.edu.cn

汪倩倩,助理工程师,主要从事遥感与GIS技术应用研究。Email:1294293999@qq.com

10.11975/j.issn.1002-6819.2019.22.035

P407.8

A

1002-6819(2019)-22-0296-09

猜你喜欢

被淹洪涝洪灾
洪涝造成孟加拉损失25.4万吨大米
近54 年贵州省洪涝灾害时空特征及成因分析
浅论执法中队如何在洪灾中发挥能效
洪涝适应性滨河景观设计——以湖南省永州一中河段为例
How to survive a flood 如何从洪灾中活下来
How to survive a flood如何从洪灾中活下来
田地被淹蔬菜减产 排水不当赔款六千
近76年我国洪涝灾损度变化特征分析
醒醒吧,人类!