王生生,張宇婷
(吉林大學計算機科學與技術(shù)學院,吉林 長春 130012)
隨著各種衛(wèi)星和機載傳感器的高速發(fā)展,產(chǎn)生了大量高分辨率遙感圖像,這些圖像被應用在許多領(lǐng)域并創(chuàng)造出巨大的價值.因此遙感圖像處理和分析已成為近幾年來一個熱點課題.遙感圖像檢索是高分辨率遙感圖像應用的重要部分.而在實際研究過程中,由于遙感衛(wèi)星發(fā)射數(shù)目劇增、圖像采集設備的更新?lián)Q代以及光遙感圖像的分辨率顯著增強等變化,出現(xiàn)了圖像數(shù)據(jù)量過大、數(shù)據(jù)尺度不統(tǒng)一、數(shù)據(jù)格式不規(guī)范等諸多問題,因此如何實現(xiàn)高效準確的遙感圖像檢索是非常重要的研究課題.
這些高分辨率的遙感圖像清晰地展現(xiàn)了一個空間場景的真實情況,一個空間場景由若干實體以某種結(jié)構(gòu)分布構(gòu)成,因此有效的遙感圖像檢索算法必須在提取圖像特征的時候綜合以下2個方面:(1)實體自身特征;(2)實體間空間關(guān)系特征.其中空間關(guān)系包括距離、方向、拓撲等.而這2個方面特征也會因為數(shù)據(jù)源不同、數(shù)據(jù)格式不統(tǒng)一等產(chǎn)生視覺差異,比如光照情況影響實體自身顏色變化,拍攝角度影響實體自身形狀的變化,數(shù)據(jù)源尺度不同導致同一場景中部分目標或目標的一部分消失、拓撲關(guān)系的變化等問題.3種尺度下的同一區(qū)域的遙感圖像見圖1,從圖1可明顯看出,由于尺度不同,同一區(qū)域的遙感圖像顏色差異巨大,尺度變化導致部分實體變形或消失,因此顏色紋理等特征在此情況下并不適用.
圖像檢索在現(xiàn)實生活中的應用已經(jīng)取得了十分優(yōu)異的成績,近年來基于內(nèi)容的圖像檢索(CBIR)已經(jīng)趨近成熟,所提出的一系列算法包含各類底層特征也具有很強的魯棒性.例如基于顏色直方圖的圖像檢索算法[1],使用HSV模型利用色調(diào)、明亮度和飽和度對圖像進行特征提??;尺度不變特征變換(SIFT)算法[2],它在空間尺度中尋找極值點,并提取特征不變量;基于紋理特征的灰度共生矩陣(GLCM)算法[3],提取圖像關(guān)于灰度級空間的特征,基于單個像素點進行,根據(jù)關(guān)聯(lián)建立矩陣;基于形狀的形狀上下文(SC)算法[4],以點為基礎提取特征,在底層特征的基礎上,提出了一些新的算法.
BOW算法[5]將圖像中的特征向量進行聚類,將生成的碼本最終以多維向量形式表示,但這些對于遙感圖像并不適用,因為遙感圖像包含復雜的視覺內(nèi)容與場景結(jié)構(gòu),且容易受到不相干噪聲所干擾,因此出現(xiàn)了一些針對遙感圖像的算法.Y.Yang等人[6]于2013年利用局部不變特征對圖像的顯著性進行評估,并調(diào)整參數(shù)設計了針對遙感圖像的視覺詞包(BOVW);E.Aptoula[7-8]于2014年提出AL算法改進了傳統(tǒng)的CBIR,算法用主動學習方法來推進相關(guān)反饋在支持向量機分類器中的工作,有效地提高了檢索精度;E.Aptoula[7]同時也提出一種結(jié)合形態(tài)紋理的描述符,提取特征形成“視覺形態(tài)”詞袋,最終用直方圖表達特征;B.Begum[9]于2015年提出了基于散列的近似最近鄰搜索算法,將高維圖像特征向量映射成緊湊的二進制散列碼;B.Begum[10]同時還提出一種改進的全局形態(tài)紋理描述符應用于遙感圖像檢索的方法,使用圓形協(xié)方差直方圖和旋轉(zhuǎn)不變點三元組來描述特征;L.Zhang等人[11]于2016年提出針對遙感圖像的三層檢索方法,算法獲取圖像特征排序取得圖像錨點,進行擴展查詢;同年Z.Du[12]提出一種局部結(jié)構(gòu)學習的方法,首次將拓撲結(jié)構(gòu)融入遙感圖像檢索中.但對于空間場景的檢索來說,上面的算法對空間關(guān)系特征的提取不夠完整,對于尺度變化魯棒性不強.本文提出基于深度學習和復雜空間關(guān)系特征的多尺度遙感圖像檢索,算法融合圖像底層特征與空間結(jié)構(gòu)特征.利用深度學習算法Faster R-CNN對遙感圖像進行目標檢測;利用Delaunay三角網(wǎng)提取遙感圖像的全局空間關(guān)系結(jié)構(gòu)特征;使用模糊形狀模型[13]提取局部空間關(guān)系特征,模糊形狀模型對于剛性形變的魯棒性極強且提取的特征不受尺度光照等影響,有效地規(guī)避了由于數(shù)據(jù)源不同所帶來的視覺差異.本文所提出的算法流程如圖2所示.
圖2多尺度遙感圖檢索流程
在對空間場景進行特征提取前需要先進行目標檢測,將空間場景分解為單個子目標,以便于后續(xù)對目標特征和目標之間特征的提取與相似性計算.本文使用Faster R-CNN算法(Faster Regions with Convolutional Neural Network features)實現(xiàn),該算法可分為2個部分:(1)RPN網(wǎng)絡提取候選區(qū)域;(2)Fast R-CNN網(wǎng)絡對候選區(qū)域進行分類.
1.1.1候選區(qū)域生成
圖3 RPN網(wǎng)絡結(jié)構(gòu)圖
圖像包含的信息十分復雜,其中的實體有不同的形狀、尺寸、顏色、紋理以及實體在圖像上的位置信息,因此提取時間復雜度較高.Faster R-CNN區(qū)別于其他使用SS(Selective Search)方法提取候選框的算法,將單張圖片的特征提取時間降低了一個數(shù)量級.核心思想是利用卷積神經(jīng)網(wǎng)絡直接產(chǎn)生目標區(qū)域,設計了提取候選區(qū)域的網(wǎng)格Region Proposal Network(RPN),RPN是一個全卷積網(wǎng)絡,其結(jié)構(gòu)如圖3所示.
1.1.2候選區(qū)域的分類
在多類別對象檢測的場景中,F(xiàn)aster R-CNN中的RPN無法得知精確類別.但對于單一類別檢測,在RPN中設置不同寬高比及尺度的候選框,不同尺度的候選框之間可以互相覆蓋,送入網(wǎng)絡中進行目標檢測.網(wǎng)絡最終輸出2個向量:第1個是分類的標簽及得分;第2個是位置.得到的標簽依賴于程序在前期訓練集的學習,對于本文數(shù)據(jù)集的特征,訓練時只需要指定正負標簽,即目標與非目標,網(wǎng)絡將自主學習目標區(qū)域中的目標,即使尺度變換導致實體大小方向發(fā)生變化,實體所在幾何中心相對位置也是固定的,因此Faster R-CNN對于遙感圖像的目標識別不受尺度影響.
1.2.1全局空間關(guān)系特征
考慮尺度因素對遙感圖像空間關(guān)系的影響,一些小的目標在大比例尺圖像上會消失,因此在多尺度遙感圖像檢索中會面對實體個數(shù)的增減等一系列問題,我們選擇對差錯點容錯程度較強的方法,即使用本征參考系對空間關(guān)系進行描述.同時,考慮到實體的形狀在不同尺度下差異較大,用實體幾何中心之間的距離表示他們的距離關(guān)系,用相鄰兩條中心之間的連線夾角表示實體間的方向關(guān)系.考慮到不同尺度下絕對距離不同,將進行標準化處理.
空間場景圖片經(jīng)過Faster R-CNN處理以標注出所有單個目標,并返回目標的位置坐標.按照位置坐標提取每一個空間實體,用空間實體的幾何中心代替這一實體在空間場景中的位置,實體間空間關(guān)系特征主要是距離和方向,這2種特征的表達都依賴于一個參照標準,為了滿足局部匹配,需要提取具有局部拓撲不變性的特征.本文研究的對象為遙感圖像,即多目標復雜空間場景,因此匹配成功的實體數(shù)目至少為3,因此我們選擇穩(wěn)定性最佳的三角形進行全局空間關(guān)系的匹配,將提取到的空間場景位置構(gòu)造成對應的Delaunay三角網(wǎng),將空間實體分組匹配,再選擇全局空間關(guān)系特征相似的部分進行部分空間關(guān)系特征匹配.
遙感圖像處理后返回的實體坐標及將坐標抽象成點集所構(gòu)造的Delaunay三角網(wǎng)見圖4.
因為點集構(gòu)成的Delaunay三角網(wǎng)是唯一確定的,且三角網(wǎng)受單一元素影響較小,因此在尺度發(fā)生變化時出現(xiàn)實體增加或減少的情況,對算法的影響也很小,可以實現(xiàn)部分匹配.因此使用Delaunay三角網(wǎng)表示全局空間關(guān)系特征.
每一個三角形都表示空間實體之間的相對位置,由于三角形的穩(wěn)定性,夾角固定的三角形三邊比例一定相等,因此對任意兩幅空間場景圖片轉(zhuǎn)化得到Delaunay三角網(wǎng)中的三角形進行了匹配.
圖4 實體坐標(a)與Delaunay三角網(wǎng)的構(gòu)造(b)
三角形特征相似定義:首先構(gòu)造點集S的Delaunay三角網(wǎng),其中由Si,Sj,Sk三點構(gòu)成的一個△SiSjSk,這個三角形就對應這3個實體在圖像上的空間關(guān)系特征,表示為
TRs(i,j,k)={∠SiSjSk,∠SjSiSk,∠SiSkSj}.
(1)
點集T由Ti,Tj,Tk三點構(gòu)成的三角形△TiTjTk的特征可表示為
TRT(i,j,k)={∠TiTjTk,∠TjTiTk,∠TiTkTj}.
(2)
S由Si,Sj,Sk三點所確定的相對拓撲特征與T中由Ti,Tj,Tk三點所確定的相對拓撲特征之間的相似程度的表達式為
(3)
2個三角形的拓撲相似度度量為
SIMtopo=LA.
(4)
其中A和L分別代表兩點集中的三點之間角度與距離的相似性度量,A表示角度偏差值.由于圖像預處理誤差,三角形的相似性在這里要重新定義,2個三角形角度之間允許有一定偏差,L為距離偏差,SIMtopo越小,S中由Si,Sj,Sk三點所確定的相對拓撲特征與T中由Ti,Tj,Tk三點所確定的相對拓撲特征越相似.遍歷整個Delaunay三角網(wǎng),對于S中的每個小三角形有一組T中的三角形序列作為候選待匹配,按照SIMtopo即拓撲相似度由低到高排序,選擇前n個準備進行實體本身匹配,由實驗可知n取5時效果最佳.
1.2.2局部空間關(guān)系特征
在完成全局空間關(guān)系匹配后,對于三角網(wǎng)中的每個小三角形進行局部特征關(guān)系的匹配,三角形的每一個頂點代表一個空間實體,三維實體的特征屬性包括顏色、紋理、形狀等,但在遙感圖像中的空間場景由于來源不同,后期處理方式不同,圖像中對于顏色、紋理的特征魯棒性不強,因此采用模糊形狀模型計算實體特征.
模糊形狀模型是對其形狀的一組關(guān)鍵點進行處理,使用網(wǎng)格裝置對于不同梯度幅值的點進行分類描述,對相鄰的區(qū)域關(guān)鍵點之間的空間關(guān)系進行運算,從而描述圖像特征.
給定一組形成形狀S的點S={X1,X2,…,Xm},對于每個點Xi∈S,叫做形狀點.被視為一個特征用來計算模糊形狀模型描述符.整個圖像的區(qū)域被分割為N×N個形狀大小相等的網(wǎng)格,每個網(wǎng)格上存在一些形狀點,也可以從相鄰區(qū)域的形狀點上找到區(qū)域關(guān)系,因此,每個形狀點都有助于本身的區(qū)域與相鄰區(qū)域之間的模糊程度,并且網(wǎng)格的尺寸也標志了所允許的形狀模糊水平,經(jīng)過測試本實驗選取16×16的網(wǎng)格已達到最佳效果.
首先將圖片分成n×n個相等的子區(qū)域,用R表示,即R={r1,r2,…,rn×n},設Ci為每個區(qū)域ri的中心點,i∈{1,2,…,n}.N(ri)為ri的鄰域,表示為
N(ri)={rk|rk∈R,|Ck-Cr|<2|g|}.
(5)
其中g(shù)為網(wǎng)格尺寸,對于每一個形狀點更新特征向量表示為
(6)
再使用公式
(7)
將向量v進行標準化.
模糊形狀模型的算法過程見圖5,圖5(a)為預處理后的目標,圖5(b)為算法選取的特征點,圖5(c)為最終得到的特征直方圖.
圖5 模糊形狀模型算法過程
1.2.3特征匹配
按照SIMtopo順序?qū)ふ襎中三角形對應的空間實體,對局部空間關(guān)系特征進行匹配.在進行局部空間關(guān)系匹配時只需要匹配代表局部圖像的直方圖,算法使用卡方系數(shù)方法進行匹配.
卡方系數(shù)是用于進行卡方檢驗的系數(shù),是樣本理論數(shù)據(jù)與真實數(shù)據(jù)的偏離程度,結(jié)果得到卡方值越小,證明樣本理論數(shù)據(jù)越合理.卡方系數(shù)計算公式為
(8)
若代價值超過某一閾值則認為匹配成功,再進行下一組局部空間關(guān)系的匹配.假設匹配成功的空間實體數(shù)為K,待檢索圖像中空間實體數(shù)為E,然后最終兩幅遙感圖像的局部空間匹配率SIMlocal定義為
(9)
最終兩幅遙感圖像的匹配程度SIM值可表示為
SIM=(1-SIMtopo)*SIMlocal.
(10)
本文算法具體流程如下:
(2) 計算得出空間實體幾何中心,構(gòu)造Delaunay三角網(wǎng);
(3) 對Delaunay三角網(wǎng)中的每一個小三角形描述并進行SIMtopo的排序;
(4) 構(gòu)造每一個小三角形的局部空間關(guān)系特征,生成特征直方圖;
(5) 按照SIMtopo順序匹配直方圖;
(6) 超過某一閾值視為成功匹配,繼續(xù)匹配下一個,最終得到SIMlocal;
(7) 融合兩種特征得到相似性,從大到小排序即為最終結(jié)果.
為了準確地評估本文方法的準確度,實驗選擇了具有不同視覺屬性的光學遙感數(shù)據(jù)集.為了證明本文算法可部分匹配以及平移、旋轉(zhuǎn)、縮放的不變性,手動對原始圖片進行切割、旋轉(zhuǎn)等操作.本文數(shù)據(jù)來自遙感圖像的UC Merced Land-Use數(shù)據(jù)集[14]和RS19數(shù)據(jù)集[15-16].UC Merced Land-Use數(shù)據(jù)集來自美國國家地圖局,它包含可見光譜中的空間高分辨率場景.手動標記過的數(shù)據(jù)集由2 100個遙感圖像組成,每幅圖像大小為256像素×256像素,分辨率為30.48 cm.包含農(nóng)業(yè)、飛機、海灘、港口等21個分類,本文數(shù)據(jù)取自UC Merced Land-Use數(shù)據(jù)集中的buildings,dense residential,medium residential和sparse residential 4類.RS19數(shù)據(jù)集來自谷歌地圖,包含從不同地區(qū)收集的高分辨率衛(wèi)星圖像.共1 005幅遙感圖像,每幅圖像的大小為600像素×600像素.包含19個分類,每類圖像50張左右.本文數(shù)據(jù)取自RS19數(shù)據(jù)集中的commercial,industrial和residential 3類.這7類圖像各有特點,residential圖像分辨率高,包含豐富的特征在進行尺度變化時能夠保留原有的精度,sparse residential圖像分辨率適中,稀疏住宅圖像特征單一,空間結(jié)構(gòu)較為簡單,處理時要注意有效特征的保留.為證明本文方法對于多尺度遙感圖像檢索的準確性,對于每類圖像,經(jīng)過處理、增加旋轉(zhuǎn)、尺度放縮等變換.最終進行實驗所用的數(shù)據(jù)集包含350張遙感圖像,分為7類,每類50張.數(shù)據(jù)庫部分示例如圖6所示.
根據(jù)大量的實驗可知,隨著節(jié)點數(shù)目的增加,跳數(shù)在逐漸減少.由于隨著節(jié)點數(shù)目的增加,可靠的下一跳節(jié)點數(shù)目也在增加,使得3種路由都選擇距離目的節(jié)點最近的節(jié)點成為轉(zhuǎn)發(fā)節(jié)點,減少了跳數(shù).從圖中可以明顯的看出,RAR路由在節(jié)點數(shù)小于57時,其跳數(shù)遠大于其他2個路由算法,而當節(jié)點數(shù)大于60時,其跳數(shù)逐漸接近于GPSR,而小于SLFB路由算法.這是由于當節(jié)點數(shù)少時,RAR路由算法尋找到的可靠下一跳節(jié)點并不是距離目的節(jié)點最近的節(jié)點,這就使得為了保證可靠性而去縮短了一跳的范圍.但是隨著節(jié)點數(shù)目的增加,同時節(jié)點的移動速度也比較慢,這就使得選取的下一跳節(jié)點更加容易是距離目的節(jié)點最近的節(jié)點,從而減少了跳數(shù).
圖6 數(shù)據(jù)集部分示例
數(shù)據(jù)庫中圖像經(jīng)過目標檢測之后能夠準確找出空間實體的位置,實驗中設置不同寬高比(a=h/w)和尺度(sc)的候選框,以及多種尺度的經(jīng)過實驗得到a的范圍在[0.41,1.3]之間效果最佳,設置3種sc的大小分別為原尺寸的50%,100%和200%,在此期間的候選框可以最大程度的減少噪聲影響.采取效果較好的VGG-16網(wǎng)作為骨干網(wǎng),中間設置3個卷積層和2個同級一對一卷積層來實現(xiàn)分類與候選框的位置回歸.候選框以8像素的步幅向原始候選區(qū)域回歸,最終的檢測誤差小于15%,圖7為密集住宅區(qū)目標識別后的結(jié)果.
圖7 目標檢測結(jié)果
使用Delaunay三角網(wǎng)表達實體間空間關(guān)系,所提取的空間關(guān)系不受尺度變化影響,整體空間關(guān)系受局部影響較小,本質(zhì)上是利用Delaunay三角網(wǎng)的唯一性和穩(wěn)定性,為了測試上述匹配的效果,使用檢索中常用的Top-N方法,給出99個形狀不同的三角形進行測試.對于每個三角形進行相似度檢索,取前10名的形狀(Top-10),判斷這10個三角形與原三角形的匹配程度.因為數(shù)據(jù)庫中共有99個三角形,所以對于本次Top-10,最佳的結(jié)果便是99.實驗結(jié)果見表1.從表1中可看出,算法在Top-1到Top-5效果顯著,因此在特征融合時選擇SIMtopo順序前5的進行下一步匹配.
表1 Delaunay三角網(wǎng)檢索結(jié)果
圖8 底層視覺特征檢索結(jié)果示例
模糊形狀模型在單一形狀檢索領(lǐng)域已經(jīng)表現(xiàn)出很大的優(yōu)勢,算法在處理剛性物體時表現(xiàn)出很強的穩(wěn)定性,因此本文首次將模糊形狀模型應用在遙感圖像中,算法提取特征生成二維特征直方圖幾乎能夠完整地表示實體全部特征.經(jīng)過實驗證明,模糊形狀模型描述符中網(wǎng)格的大小設置為16像素×16像素時為最佳.考慮到尺度不同圖像精度的差異,對于空間實體匹配時選取100個點作為特征點,每個特征點將被描述為其鄰域的6或9個權(quán)值,同一網(wǎng)格上所有特征點產(chǎn)生的權(quán)值相累加.最終將所有網(wǎng)格的特征值標準化后進行統(tǒng)計,生成整個形狀的特征直方圖.使用卡方系數(shù)進行匹配,按照代價值降序排列,檢索結(jié)果實例見圖8.通過圖8可以看出,模糊形狀模型對于空間實體的特征提取與表達正確率較高,說明算法對于空間實體的檢索是有效的,作為空間場景匹配中的重要環(huán)節(jié),精確度達到要求.
圖9 3種方法的檢索性能對比
按照空間關(guān)系排序后進行空間實體的匹配,最終按匹配程度給出序列.為了全面證明本文提出的算法對遙感圖像空間場景檢索的有效性,選擇了2個在遙感檢索中表現(xiàn)優(yōu)秀的算法與我們提出的算法做比較.
第1種是利用局部不變性特征[6](Local Invariant Features)進行特征提取,簡稱為LIF,該算法設計了基于網(wǎng)格的局部特征提取并聚類生成視覺詞包;第2種是結(jié)合數(shù)學形態(tài)學與全局紋理描述符的特征表達方法,叫形態(tài)紋理描述符[8](Morphological Texture Descriptors),簡稱為MTD.實驗采用二分類問題常用的評價指標,查準率表示檢索到的目標圖像數(shù)與被檢索的圖像數(shù)的比值,查全率表示檢索到的目標圖像數(shù)與數(shù)據(jù)庫中所有的圖像數(shù)的比值.本文實驗與其他2種算法的對比結(jié)果如圖9所示.
考慮到檢索結(jié)果的排名準確性,利用平均查準率(mean average precision,MAP)表示檢索結(jié)果的準確性,理想檢索結(jié)果集為A={A1,A2,…,An},共n個結(jié)果,實際檢索結(jié)果集為B={B1,B2,…,Bm}共m個結(jié)果,檢索序列實際排序值為R1(i),檢索序列理論排序值為R2(i),MAP的計算公式為
(11)
當m 3種算法的MAP在7個類別中的結(jié)果如圖10所示. 圖10 3種方法的平均查準率對比 從實驗結(jié)果可以看出,本文提出的算法在檢索的整體性能上優(yōu)于其他2種算法,LIF和MTD算法在處理多尺度且?guī)в袕碗s結(jié)構(gòu)信息的遙感圖像時并未顯出優(yōu)勢,在圖10中也可以明顯看出本文算法在稀疏住宅區(qū)上的檢索效果不理想,因為稀疏居民區(qū)提供的空間關(guān)系特征不足,而在其他空間關(guān)系復雜類別上取得了預期的結(jié)果,證明了算法的有效性. 本文提出了一種基于深度學習和復雜空間關(guān)系的多尺度遙感圖像檢索算法.給出了匹配方案實現(xiàn)空間場景的檢索.實驗結(jié)果表明,本文提出的多尺度遙感圖像檢索算法優(yōu)于其他在遙感圖像檢索領(lǐng)域表現(xiàn)較好的算法.區(qū)別于其他相關(guān)算法,本文算法融合了全局空間關(guān)系特征與局部空間關(guān)系特征,減少了尺度因素對特征表達的影響,增強了圖像特征的表達能力,捕捉到了其他算法忽略的空間關(guān)系,實現(xiàn)了其他算法無法完成的部分匹配與多尺度匹配,提升了多尺度遙感圖像檢索的性能. [參考文獻] [1]SURAL S,QIAN G,PRAMANIK S.Segmentation and histogram generation using the HSV color space for image retrieval[C]// 2002 IEEE International Conference on Image Processing.Newyork:IEEE,2002:589-592. [2]LOWE D G.Object recognition from local scale-invariant features[C]// 1999 IEEE the proceedings of the seventh IEEE international conference on.Kérkira:IEEE,1999:1150-1157. [3]HARALICK R M,SHANMUGAM K.Texture features for image classification[J].IEEE Transactions on systems,man,and cybernetics (SMC),1973,3(6):610-621. [4]BELONGIE S,MALIK J,PUZICHA J.Shape matching and object recognition using shape contexts[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2002,24(4):509-522. [5]JéGOU H,DOUZE M,SCHMID C.Improving bag-of-features for large scale image search[J].International Journal of Computer Vision,2010,87(3):316-336. [6]YANG Y,NEWSAM S.Geographic image retrieval using local invariant features[J].IEEE Transactions on Geoscience & Remote Sensing,2013,51(2):818-832. [7]APTOULAE.Bag of morphological words for content-based geographical retrieval[C]// 12th International Workshop on Content-Based Multimedia Indexing.Klagenfurt:CBMI,2014:1-5. [8]APTOULAE.Remote sensing image retrieval with global morphological texture descriptors[J].IEEE Transactions on Geoscience & Remote Sensing,2014,52(5):3023-3034. [9]DEMIR B,BRUZZONE L.Hashing-based scalable remote sensing image search and retrieval in large archives[J].IEEE Transactions on Geoscience & Remote Sensing,2016,54(2):892-904. [10]DEMIR B,BRUZZONE L.A novel active learning method in relevance feedback for content-based remote sensing image retrieval[J].IEEE Transactions on Geoscience & Remote Sensing,2015,53(5):2323-2334. [11]WANG Y,ZHANG L,TONG X,et al.A three-layered graph-based learning approach for remote sensing image retrieval[J].IEEE Transactions on Geoscience & Remote Sensing,2016,54(10):6020-6034. [12]DU Z,LI X,LU X.Local structure learning in high resolution remote sensing imageretrieval[J].Neurocomputing,2016,207:813-822. [13]ESCALERA S,F(xiàn)ORNéS A,PUJOL O.Blurred shape model for binary and grey-level symbolrecognition[J].Pattern Recognition Letters,2009,30(15):1424-1433. [14]YANG Y,NEWSAM S.Bag-of-visual-words and spatial extensions for land-use classification[C]// Sigspatial International Conference on Advances in Geographic Information Systems.San Jose:ACM,2010:270-279. [15]DAI D,YANG W.Satellite image classification via two-layer sparse coding with biased image representation[J].IEEE Geoscience & Remote Sensing Letters,2011,8(1):173-176. [16]XIA G S,YANG W,DELON J,et al.Structural high-resolution satellite image indexing[J].ISPRS TC VII Symposium-100 Years ISPRS,2010,38:298-303.3 結(jié)論