国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于邊緣敏感遞歸濾波的彩色航拍圖像云檢測

2015-06-05 15:33:40付忠旺
關(guān)鍵詞:云區(qū)航拍算子

廖 斌,付忠旺

(湖北大學(xué)計算機(jī)與信息工程學(xué)院,湖北武漢430062)

基于邊緣敏感遞歸濾波的彩色航拍圖像云檢測

廖 斌,付忠旺

(湖北大學(xué)計算機(jī)與信息工程學(xué)院,湖北武漢430062)

為了有效檢測出彩色航拍圖像中的云區(qū),提出一種基于邊緣敏感遞歸濾波的彩色航拍圖像云檢測方法。通過基于自適應(yīng)引導(dǎo)權(quán)的邊緣敏感遞歸濾波算子構(gòu)造航拍圖像的差異映射,并結(jié)合基于類內(nèi)方差的遞歸閾值選擇方法,將輸入的航拍圖像區(qū)分為待定云區(qū)和非云區(qū)。利用邊緣敏感遞歸濾波算子對原始航拍圖像累進(jìn)濾波,有效抽取分層的圖像細(xì)節(jié),構(gòu)造航拍圖像的細(xì)節(jié)映射以精化待定云區(qū)。利用客觀性能指標(biāo)對檢測結(jié)果進(jìn)行評價。實驗結(jié)果表明,相較于其他相關(guān)研究工作,提出的方法有效易行,計算復(fù)雜度低。

圖像處理;圖像分類;云檢測;彩色航拍圖像;邊緣敏感遞歸濾波

0 引 言

作為一類典型的空間信息數(shù)據(jù)源,航拍圖像以其成像清晰度高,信息客觀豐富以及時效性強(qiáng)等優(yōu)點而在天氣分析、災(zāi)害與環(huán)境監(jiān)測、資源勘探等諸多領(lǐng)域有著廣泛應(yīng)用。但是,由于云覆蓋了大約一半的地球表面,航拍圖像中通常含有云區(qū),極大影響了圖像識別、圖像分類等處理的精度,使得數(shù)據(jù)的利用率大幅度降低。航拍圖像的云檢測對于緩解海量航拍圖像數(shù)據(jù)的傳輸、存儲、分類與檢索的壓力,提高數(shù)據(jù)利用率具有非常重要的意義。如果僅僅通過人工交互完成云檢測,會非常耗時且檢測精度也難以保證。因此,有效自動的云檢測成為航拍圖像處理與應(yīng)用的首要任務(wù)及關(guān)鍵技術(shù)之一。______

已有的云檢測方法大多利用多光譜衛(wèi)星圖像融合技術(shù),根據(jù)云在不同譜段下的反照率,選取合適的閾值進(jìn)行云檢測[1]。隨著MODIS等高分辨率探測器的出現(xiàn)[2],國內(nèi)外學(xué)者運(yùn)用多光譜高分辨率圖像提高了云區(qū)與非云區(qū)的判別精確度。不同于多光譜衛(wèi)星圖像,彩色航拍圖像只含有紅色-綠色-藍(lán)色(red-green-blue,RGB)三通道的光學(xué)數(shù)據(jù),沒有其他任何輔助通道信息。由于基于多光譜數(shù)據(jù)的云檢測方法大都高度依賴RGB波段之外的可用頻譜波段,因此不能直接應(yīng)用于彩色航拍圖像的云檢測。文獻(xiàn)[3]基于雙邊濾波算子提出一種彩色航拍圖像的云檢測框架。但是,雙邊濾波算子不適用于對任意尺度的細(xì)節(jié)提取,當(dāng)增大平滑參數(shù)多次迭代時,其不能很好地保持邊緣,會導(dǎo)致梯度反轉(zhuǎn)問題[4]。同時,雙邊濾波算子對于邊界模糊的情況也不能較好地處理。因此,該框架會導(dǎo)致檢測出來的非云區(qū)含有誤認(rèn)為云區(qū)的細(xì)微聚類,且檢測出來的云區(qū)邊界不理想,云區(qū)內(nèi)部還會出現(xiàn)洞隙。這些問題都需要借助于后續(xù)處理來解決。此外,該框架還要進(jìn)行多尺度雙邊濾波計算,非常耗時。盡管已有一些加速雙邊濾波計算的方法[56],但是這些方法通常采用量化或者下采樣的策略,不可避免的對計算結(jié)果產(chǎn)生影響。

彩色航拍圖像的云檢測本質(zhì)上是一個圖像分割的問題。雖然,圖像分割領(lǐng)域已經(jīng)有了大量的研究工作,但并沒有形成通用的分割理論?,F(xiàn)有的分割算法多是解決某類具體問題。自動圖像分割方法[79]通常無法有效處理復(fù)雜的彩色航拍圖像。而交互式圖像分割方法[1011]都需要大量的人工交互,無法直接處理大數(shù)據(jù)量的彩色航拍圖像。

邊緣敏感的圖像處理方法在圖像與視頻編輯、顏色表征感知等領(lǐng)域都有廣泛的應(yīng)用。最流行的邊緣敏感濾波方法是雙邊濾波,但是其執(zhí)行效率較低,對于模糊邊緣無法有效感知。與之相比,引導(dǎo)濾波在處理圖像邊緣時表現(xiàn)的更好[12]。然而,其用到了局部線性模型,當(dāng)濾波的核半徑過大時,濾波結(jié)果仍然會出現(xiàn)邊緣模糊的問題。同時,引導(dǎo)濾波對整幅圖像都采用統(tǒng)一的濾波半徑,對于邊緣、細(xì)節(jié)等特征難以有效的感知。文獻(xiàn)[13]提出基于域變換的線性遞歸濾波算法,大大降低了濾波的復(fù)雜度,可以實時地對圖像和視頻進(jìn)行保邊緣濾波。但是,該算子僅利用像素間顏色特征的差值來定義顏色特征權(quán),在處理邊界模糊的復(fù)雜邊緣時,仍然難以有效地保邊緣,同樣也會出現(xiàn)梯度反轉(zhuǎn)的問題。

基于以上分析,本文提出一種有效的彩色航拍圖像邊緣敏感云檢測方法。研制一種基于自適應(yīng)引導(dǎo)權(quán)的邊緣敏感遞歸濾波算子。該算子不僅考慮了航拍圖像的空間特征信息,同時也考慮了顏色特征信息。利用邊緣敏感遞歸濾波算子構(gòu)造航拍圖像的差異映射,有效地拉伸云區(qū)和非云區(qū)的差異。通過基于類內(nèi)方差的遞歸閾值選擇方法,結(jié)合差異映射,將輸入的航拍圖像區(qū)分為待定云區(qū)和非云區(qū)。利用邊緣敏感遞歸濾波算子對原始航拍圖像進(jìn)行累進(jìn)濾波,有效獲取分層的圖像細(xì)節(jié),并構(gòu)造細(xì)節(jié)映射,用以精化待定云區(qū),去除其中的非云區(qū),從而得到最終的云檢測結(jié)果。由于邊緣敏感遞歸濾波算子天然適于進(jìn)行圖形處理器(graphics processing unit,GPU)加速計算[14],本文方法從根本上相比其他方法具有更好的GPU并行執(zhí)行效果,能夠在獲取滿意的云檢測結(jié)果的同時保有更高的性能。

1 邊緣敏感云檢測

1.1 基于自適應(yīng)引導(dǎo)權(quán)的邊緣敏感遞歸濾波

設(shè)Xn為輸入的離散信號,Jn為輸出的離散信號,n是離散信號的索引,傳統(tǒng)的一維遞歸濾波算子可定義如下:

式中,a∈[0,1]是反饋系數(shù)[13],可定義如下:式中,σH為空間濾波參數(shù),本文采用文獻(xiàn)[13]中的推薦取值σH=15。

由于該算子是一維線性的,只能沿著輸入信號的每一維度執(zhí)行。并且,該算子的輸出依賴于輸入和先前的輸出信號,所以其是非對稱的。因此,其必須沿著輸入信號的每一維度雙向執(zhí)行,才能完成一次濾波處理。圖像可以視為二維離散信號。利用該算子對圖像濾波時,應(yīng)該沿著圖像的水平方向從左向右執(zhí)行,再從右向左執(zhí)行。然后,再沿著豎直方向雙向執(zhí)行。

同時,由于a只是在信號的空間域上定義,即該算子沒有考慮信號的范圍信息,導(dǎo)致其會產(chǎn)生無限脈沖響應(yīng)。如果直接采用該算子對彩色航拍圖像進(jìn)行濾波處理,將無法保持圖像的邊緣信息,會引起邊緣的模糊。受文獻(xiàn)[12- 13]的啟發(fā),本文擬將引導(dǎo)權(quán)引入到該算子。但是,傳統(tǒng)的引導(dǎo)權(quán)采用統(tǒng)一的濾波半徑,難以精確地感知彩色航拍圖像邊緣和細(xì)節(jié)特征。基于此,提出一種基于自適應(yīng)引導(dǎo)權(quán)的邊緣敏感遞歸濾波算子,定義如下:

式中,Wn,n-1為自適應(yīng)引導(dǎo)權(quán),定義如下:

在式(3)中,Y表示引導(dǎo)圖像,其可以與原始圖像一致,也可以是不同的圖像。本文設(shè)定Y與X一致。式(4)中,ωn、ωk表示在Y內(nèi)中心像素位于索引n、k且半徑為rn、rk的濾波窗口。其中,如果rn、rk取值過大,濾波結(jié)果會出現(xiàn)邊緣模糊的問題。如果rn、rk取值過小,則會導(dǎo)致濾波窗口中的鄰域信息不夠充分。本文以文獻(xiàn)[12]中的窗口半徑推薦取值60為基準(zhǔn),經(jīng)過實驗測算且不失一般性,取rn=80,rk=60。|ωn|、|ωk|分別為ωn、ωk中所包含像素點的個數(shù)。μk和分別為ωk中所包含像素點均值和方差。ε是規(guī)則化參數(shù),其主要為了增強(qiáng)計算魯棒性,避免可能為0導(dǎo)致除式無意義的問題。根據(jù)ε?的原則,本文取ε=10-6。εn是自適應(yīng)補(bǔ)償量參數(shù),受文獻(xiàn)[15]的啟發(fā),εn定義如下:

式中

由于邊緣敏感遞歸濾波自身具有可并行處理的特性,因此,本文采用了基于統(tǒng)一計算設(shè)備架構(gòu)(compute unified device architecture,CUDA)的GPU計算環(huán)境來實現(xiàn)程序的高性能運(yùn)行。

1.2 待定云區(qū)檢測

由于色相-飽和度-亮度(hue-saturation-intensity,HSI)模型可以在最大程度上符合人類的視覺感知,因此,首先將輸入的彩色航拍圖像的RGB模型轉(zhuǎn)換成HSI模型。傳統(tǒng)RGB模型轉(zhuǎn)換成HSI模型的變換公式見文獻(xiàn)[16]。本文根據(jù)大量的觀察和統(tǒng)計結(jié)果[3],改進(jìn)變換公式如下。設(shè)

則H、S、I的計算式為

式中,R、G、B、H、S和I分別表示紅色、綠色、藍(lán)色、色相、飽和度和亮度。

由于彩色航拍圖像中的云區(qū)通常具有較高的I和較低的H,受文獻(xiàn)[3]的啟發(fā),約束I和H的范圍為[0,255],構(gòu)造差異映射來凸顯云區(qū)和非云區(qū)的差異。定義輸入信號為+255)/(+255),根據(jù)式(3)進(jìn)行濾波,則輸出信號即為差異映射。其中和分別表示X中像素點n的I和H。

將差異映射同樣約束到范圍[0,255],則由圖1給出其可視化效果,且與文獻(xiàn)[3]方法的顯著映射進(jìn)行了對比。可以看到,在圖1(c)中,本文的差異映射成功地拉伸了云區(qū)和非云區(qū)之間的差別,同時很好地保持了邊緣。而在圖1(b)中,文獻(xiàn)[3]方法的顯著映射雖然也可以拉伸云區(qū)和非云區(qū)之間的差別,但是在很多稀薄的云區(qū)處未能保邊緣,甚至還會丟失云區(qū)信息。

基于差異映射,通過選擇合適的閾值即可區(qū)分出輸入圖像中的初步待定云區(qū)和非云區(qū)。通常可以采用Otsu方法[17]來實現(xiàn)這一過程。該方法假設(shè)輸入圖像含有兩類像素,計算最優(yōu)的閥值來區(qū)分這兩類像素,并且要求兩類像素的類間方差取最大值。但是,該方法并沒有考慮兩類像素的類內(nèi)方差因素的影響,對于閾值的選擇會產(chǎn)生一定的偏差。本文將類內(nèi)方差作為閾值計算的約束條件,使得到的閾值更合理。同時,鑒于航拍圖像往往較為復(fù)雜,不宜采用全局閾值選擇方案?;谏鲜龇治?,提出一種基于類內(nèi)方差的遞歸閾值選擇方法。選擇的閾值T計算如下:

式中

pi為灰度級i的出現(xiàn)概率;λ0ω0σ0+λ1ω1σ1為類內(nèi)方差,λ0、λ1為平衡因子。

圖1 差異映射與顯著映射對比

利用T可將差異映射區(qū)分為初步待定云區(qū)和非云區(qū)。將得到初步待定云區(qū)作為一幅新的圖像再次通過式(11)計算新的T,再次將差異映射區(qū)分為初步待定云區(qū)和非云區(qū)。如此,遞歸執(zhí)行下去,直至滿足結(jié)束條件時停止,從而獲取最終的初步待定云區(qū)。

本文將初步待定云區(qū)與非云區(qū)的類間方差和面積差作為遞歸運(yùn)算的結(jié)束條件。設(shè)第i次閾值選擇后,非云區(qū)和初步待定云區(qū)的面積分別為Ai0、Ai1,則歸一化的非云區(qū)與初步待定云區(qū)的面積差的絕對值為

式中,Ai0+Ai1是當(dāng)前整幅圖像的面積。此時非云區(qū)與初步待定云區(qū)的類間方差為

可以看出,經(jīng)過多次遞歸迭代,ΔAi將逐漸增大,而σi則將逐漸減小。由此,結(jié)束條件參數(shù)Gi可定義為

設(shè)結(jié)束條件閾值為G,如果滿足Gi≥G,則結(jié)束遞歸運(yùn)算。由于G控制遞歸運(yùn)算的迭代次數(shù),如果G設(shè)置過大,則會將部分云區(qū)誤認(rèn)為非云區(qū),導(dǎo)致檢測結(jié)果的質(zhì)量下降。如果G設(shè)置過小,則部分非云區(qū)還未從云區(qū)中去除,同樣影響檢測結(jié)果。本文對文獻(xiàn)[18]數(shù)據(jù)庫中的數(shù)據(jù)進(jìn)行大量測算,選取G=0.52。

在具體實現(xiàn)中,根據(jù)上述過程計算得到的T,結(jié)合大量的統(tǒng)計結(jié)果[3],可定義初步待定云區(qū)如下:如果差異映射中的像素點n滿足當(dāng)T<95時,J≥95,或當(dāng)100≤T≤145時,J≥T,或當(dāng)T>145時,J≥145,則滿足條件的像素點集合就構(gòu)成了初步待定云區(qū)。

通過上述方法將差異映射區(qū)分為初步待定云區(qū)和非云區(qū)。同時,由于航拍圖像中云的H取值范圍為[50,80][3],需將初步待定云區(qū)中不滿足條件50≤X≤80的像素點去除,從而得到最終的待定云區(qū)U。為了更加直觀地呈現(xiàn)U和非云區(qū),可視化定義如下

圖2比較了本文方法得到的待定云區(qū)和文獻(xiàn)[3]方法得到的待定云區(qū)的結(jié)果對比。首先,從圖2(b)和(c)中,可以看到,本文的差異映射相較于文獻(xiàn)[3]方法得到的顯著映射,獲取的云區(qū)邊緣更加準(zhǔn)確,也沒有丟失云信息。而在圖2(e)中,利用本文方法獲得的待定云區(qū),更加符合航拍圖像的真實狀況。在圖2(d),文獻(xiàn)[3]方法得到的待定云區(qū)則有一些錯誤檢測。

雖然本文方法得到的待定云區(qū)非常接近真實的云區(qū),但是,如果輸入的航拍圖像中含有高亮度的地面對象,本文的遞歸閾值選擇方法也無法從差異映射中將其區(qū)分出來,其會被檢測為云區(qū)。在圖2(e)中,可以看到有一些地面對象被誤選為云區(qū)。因此,需要進(jìn)一步去除這些非云區(qū),以獲取更加理想的檢測結(jié)果。

圖2 待定云區(qū)檢測結(jié)果對比

1.3 待定云區(qū)精化

根據(jù)上述分析,待定云區(qū)中可能會含有一些非云區(qū)。這些非云區(qū)主要是航拍圖像中高亮的地面細(xì)節(jié)。而真實的云區(qū)往往是以相似的像素成團(tuán)出現(xiàn),幾乎不含圖像細(xì)節(jié)?;诖耍眠吘壝舾羞f歸濾波算子抽取這些地面細(xì)節(jié),構(gòu)造細(xì)節(jié)映射,用以精化待定云區(qū)。

首先,利用邊緣敏感遞歸濾波算子對輸入的彩色航拍圖像Xn進(jìn)行濾波處理,可以將其分解為基層和細(xì)節(jié)層。其中,濾波結(jié)果Jn即為基層。細(xì)節(jié)層Dn可定義如下:

如果利用邊緣敏感遞歸濾波算子對Xn進(jìn)行累進(jìn)濾波可以得到M個濾波結(jié)果{。根據(jù)式(3),迭代得到的過程如下:

式中

為了有效防止噪聲以及云的模糊邊緣的影響,本文并不基于某一細(xì)節(jié)層來構(gòu)造細(xì)節(jié)映射,而是抽取M個連續(xù)的細(xì)節(jié)層{,其中

參數(shù)M決定著累進(jìn)濾波的迭代次數(shù)。M取值越大,則獲取的細(xì)節(jié)信息越豐富,但同時會導(dǎo)致計算量過大。本文采用文獻(xiàn)[4]的推薦取值M=5,構(gòu)建5個細(xì)節(jié)層。由于輸入的航拍圖像可能會含有較大的噪聲,通常不考慮第一個細(xì)節(jié)層D。然后,對抽取的細(xì)節(jié)層進(jìn)行加權(quán)平均,從而構(gòu)造出高質(zhì)量的細(xì)節(jié)映射XDetailn:

式中

在圖3中,將本文的細(xì)節(jié)映射與文獻(xiàn)[3]方法得到的細(xì)節(jié)映射進(jìn)行比較??梢钥闯?,本文的細(xì)節(jié)映射在保持云區(qū)的模糊邊緣以及抗噪聲影響方面有更好的表現(xiàn)。

圖3 細(xì)節(jié)映射對比

為了更加直觀地呈現(xiàn)出細(xì)節(jié)映射中細(xì)節(jié)區(qū)和非細(xì)節(jié)區(qū)的差異,利用本文的遞歸閾值選擇方法在細(xì)節(jié)映射上計算閾值TDetail,并定義可視化結(jié)果如下:

根據(jù)前文分析,非細(xì)節(jié)區(qū)高度相似于真實的云區(qū)?;诖耍Y(jié)合待定云區(qū)ZInitialn,待定云區(qū)精化結(jié)果ZFinaln可視化結(jié)果如下:

在圖4中,給出了結(jié)合本文的差異映射、細(xì)節(jié)映射的整個云檢測過程。相比于圖4(b)中文獻(xiàn)[3]方法得到的待定云區(qū),圖4(f)給出的本文方法的結(jié)果對于云區(qū)的模糊邊緣保持得更好。在圖4(g)和圖4(c)中,本文的細(xì)節(jié)映射比文獻(xiàn)[3]方法得到的細(xì)節(jié)映射結(jié)果,更加精確地抽取了圖像的細(xì)節(jié)。而文獻(xiàn)[3]方法得到的細(xì)節(jié)映射中會含有不應(yīng)出現(xiàn)的云區(qū)信息。圖4(d)中,在沒有補(bǔ)洞和去除微小聚類前提下,文獻(xiàn)[3]方法得到待定云區(qū)精化結(jié)果顯然不能令人滿意。即使通過補(bǔ)洞和去除微小聚類等再精化處理后,如圖4(e)中所示,相較于真實的云區(qū),文獻(xiàn)[3]方法得到云檢測結(jié)果仍然會出現(xiàn)失真的現(xiàn)象,無法有效保邊緣,同時也丟失了一些云區(qū)的信息。而在圖4(h)中,本文方法的結(jié)果很好地反映了真實的云區(qū)。

圖4 待定云區(qū)精化結(jié)果對比

2 實驗結(jié)果與討論

本文采用2.66 GHz四核CPU、GeForce GTX 480 GPU和4 GB內(nèi)存的硬件環(huán)境,基于CUDA編程實現(xiàn)提出的方法。為了表明提出方法的有效性,將本文方法與文獻(xiàn)[3]的彩色航拍圖像云檢測方法、一些主流的自動圖像分割方法[7-9]和交互式圖像分割方法[10-11]進(jìn)行了視覺效果、定量分析等方面的比較,如圖5所示。實驗測試數(shù)據(jù)來自于文獻(xiàn)[18]中的數(shù)據(jù)庫。

從圖5可以看到,文獻(xiàn)[3]方法對于復(fù)雜的航拍圖像不能獲得令人滿意的結(jié)果,而本文方法可以達(dá)到很好的效果。

圖5 本文方法與文獻(xiàn)[3]方法的結(jié)果對比

為了客觀地評價本文方法的有效性,使用誤差率來評估本文方法的精確度。誤差率定義為誤檢測為非云區(qū)的云像素的個數(shù)以及誤檢測為云區(qū)的非云像素的個數(shù)之和與輸入的彩色航拍圖像像素數(shù)量N的比值。在表1中,給出了圖5中所涉及結(jié)果的誤差率??梢钥闯觯疚姆椒ň哂懈偷恼`差率。邊緣敏感遞歸濾波是本文方法的核心部件,其時間復(fù)雜度是O(N)。借助于GPU的加速計算,本文方法提供毫秒量級的處理反饋。而文獻(xiàn)[3]方法含有大量額外的后處理操作,因此,本文方法比文獻(xiàn)[3]方法效率更高。同樣在表1中,給出圖5中所涉及結(jié)果的運(yùn)行時間對比。

表1 圖5中結(jié)果的誤差率和運(yùn)行時間

圖6給出本文方法與自動圖像分割方法[7-9]的比較。文獻(xiàn)[7]和文獻(xiàn)[8]分別具體采用均值漂移和基于圖的分割對圖像進(jìn)行分割,然后根據(jù)分割區(qū)域的平均強(qiáng)度來檢測云區(qū)。文獻(xiàn)[9]方法的結(jié)果是基于圖像的強(qiáng)度設(shè)置兩個聚類中心獲得。與這些方法相比,本文方法的結(jié)果更好。

圖6 本文方法與自動圖像分割方法的結(jié)果對比

在表2中,給出圖6中所涉及結(jié)果誤差率的比較和本文方法的運(yùn)行時間??梢钥闯觯疚姆椒ň哂懈偷恼`差率。這是由于這些自動分割方法可能將大量的有較高強(qiáng)度非云像素誤認(rèn)為云像素,尤其是對半透明云像素檢測能力偏弱,因此比本文方法有更高的誤差率。

在圖7中,進(jìn)一步將本文方法與文獻(xiàn)[10]、文獻(xiàn)[11]等交互式圖像分割方法比較。由于圖7中的航拍圖像有大量孤立的小云地區(qū),文獻(xiàn)[10]方法、文獻(xiàn)[11]方法必須采取大量的人工交互。圖7(b)給出了文獻(xiàn)[10]方法的人工交互,紅色筆畫表示云區(qū),藍(lán)色筆畫表示非云區(qū)。圖7(d)給出了文獻(xiàn)[11]方法的人工交互,白色筆畫表示云區(qū),黑色筆畫表示非云區(qū)。圖7(c)給出了按照圖7(b)所示的交互,文獻(xiàn)[10]方法的結(jié)果。圖7(e)給出了按照圖7(d)所示的交互,文獻(xiàn)[11]方法的結(jié)果。本文方法不需要進(jìn)行交互,仍然獲得了滿意的結(jié)果。

表2 圖6中結(jié)果的誤差率和運(yùn)行時間

圖7 本文方法與交互式圖像分割方法的結(jié)果對比

表3給出了圖7所涉及結(jié)果的誤差率與交互率的比較和運(yùn)行時間。其中,交互率為人工交互的筆畫所覆蓋的像素數(shù)量與輸入的彩色航拍圖像像素數(shù)量的比值??梢钥闯觯m然本文方法不需要交互,仍優(yōu)于文獻(xiàn)[10]方法和文獻(xiàn)[11]方法的結(jié)果。

表3 圖7中結(jié)果的交互率、誤差率和運(yùn)行時間

3 結(jié) 論

本文提出一種新的邊緣敏感的彩色航拍圖像云檢測框架。首先,計算出差異映射以凸顯云區(qū)和非云區(qū)之間的差異。然后,提出一個新的閾值選擇方法,并結(jié)合差異映射,獲得待定云區(qū)。為了有效地從待定云區(qū)去除誤認(rèn)為云區(qū)的非云像素,將細(xì)節(jié)映射集成到云檢測框架,從而得到最終的云檢測結(jié)果。為了表明本文方法的有效性,從視覺感受、定量分析等方面比較本文方法和相關(guān)工作。實驗結(jié)果表明,本文方法可以獲得令人滿意的結(jié)果。未來將把學(xué)習(xí)分類技術(shù)應(yīng)用到云檢測中,進(jìn)一步提高本文方法的準(zhǔn)確性。此外,還會將研究工作擴(kuò)展到多光譜衛(wèi)星圖像的領(lǐng)域上來。

[1]Kang X,Li S,Benediktsson J A.Spectral-spatial hyperspectral image classification with edge-preserving filtering[J].IEEE Trans.on Geoscience and Remote Sensing,2014,52(5):2666- 2677.

[2]Frey R A,Ackerman S A,Liu Y,et al.Cloud detection with MODIS.Part I:Improvements in the MODIS cloud mask for collection 5[J].Journal of Atmospheric and Oceanic Technology,2008,25(7):1057- 1072.

[3]Zhang Q,Xiao C X.Cloud detection of RGB color aerial photographs by progressive refinement scheme[J].IEEE Trans.on Geoscience and Remote Sensing,2014,52(11):7264- 7275.

[4]Farbman Z,F(xiàn)attal R,Lischinski D,et al.Edge-preserving decompositions for multi-scale tone and detail manipulation[J].ACM Trans.on Graphics,2008,27(3):67- 76.

[5]Paris S,Durand F.A fast approximation of the bilateral filter using a signal processing approach[C]∥Proc.of the European Conference on Computer Vision,2006:568- 580.

[6]Yang Q,Tan K H,Ahuja N.Real-time O(1)bilateral filtering[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition,2009:557- 564.

[7]Comaniciu D,Meer P.Mean shift:a robust approach toward feature space analysis[J].IEEE Trans.on Pattern Analysis and Machine Intelligence,2002,24(5):603- 619.

[8]Felzenszwalb P F,Huttenlocher D P.Efficient graph-based image segmentation[J].International Journal of Computer Vision,2004,59(2):167- 181.

[9]Lin W T,Lin C H,Wu T H,et al.Image segmentation using the kmeans algorithm for texture features[J].World Academy of Science,Engineering and Technology,2010,65(4):612- 615.

[10]Boykov Y Y,Jolly M P.Interactive graph cuts for optimal boundary&region segmentation of objects in ND images[C]∥Proc.of the International Conference on Computer Vision,2001:105- 112.

[11]Levin A,Lischinski D,Weiss Y.A closed-form solution to natural image matting[J].IEEE Trans.on Pattern Analysis and Machine Intelligence,2008,30(2):228- 242.

[12]He K M,Sun J,Tang X O.Guided image filtering[J].IEEETrans.on Pattern Analysis and Machine Intelligence,2013,35(6):1397- 1409.

[13]Gastal E S L,Oliveira M M.Domain transform for edge-aware image and video processing[J].ACM Trans.on Graphics,2011,30(4):69- 79.

[14]Nehab D,Maximo A,Lima R S,et al.GPU-efficient recursive filtering and summed-area tables[J].ACM Trans.on Graphics,2011,30(6):176- 186.

[15]Zhang B,Allebach J P.Adaptive bilateral filter for sharpness enhancement and noise removal[J].IEEE Trans.On Image Processing,2008,17(5):664- 678.

[16]Oh J,Kim J,Yuan Z,et al.Adjustment of brightness contrast for fatigue decrease in stereo image production[C]∥Proc.of the IEEE International Symposium on Consumer Electronics,2014:1- 3.

[17]Lai Y K,Rosin P.Efficient circular thresholding[J].IEEE Trans.on Image Processing,2014,23(3):992- 1001.

[18]Yao B,Yang X,Zhu SC.Introduction to a large-scale general purpose ground truth database:methodology,annotation tool and benchmarks[C]∥Proc.of the Energy Minimization Methods in Computer Vision and Pattern Recognition,2007:169- 183.

[19]Yang Y R.High dynamic range imaging via tone mapping and multiexposure fusion[D].Xian:Xidian University,2013.(楊顏如.基于色調(diào)映射和多曝光率融合的高動態(tài)范圍圖像成像技術(shù)[D].西安:西安電子科技大學(xué),2013.)

Cloud detection of color aerial images by edge-aware recursive filtering

LIAO Bin,F(xiàn)U Zhong-wang
(School of Computer Science and Information Engineering,Hubei University,Wuhan 430062,China)

In order to detect cloud areas of color aerial images effectively,a cloud detection method of color aerial images by edge-aware recursive filtering is proposed.The variation mapping is constructed using adaptive guided weight based edge-aware recursive filtering.Based on the variation mapping,the input aerial image is divided into pending cloud areas and non-cloud areas by intra-class variance based recursive threshold selection.The original aerial image is progressively filtered using the edge-aware recursive filtering and the hierarchical details are effectively extracted.The detail mapping of the aerial image is constructed and used to refine the pending cloud areas.The performance of the detection results is evaluated by the objective indicator.The experimental results show that the proposed method is effective,easy,and of lower computational complexity compared with other similar methods.

image process;image classification;cloud detection;color aerial images;edge-aware recursive filtering

TP 391.41

A

10.3969/j.issn.1001-506X.2015.12.33

廖 斌(197-9- ),男,副教授,博士,主要研究方向為數(shù)字圖像處理、計算機(jī)圖形學(xué)。

E-mail:goldgoat@126.com

付忠旺(199-3- ),男,碩士研究生,主要研究方向為數(shù)字圖像處理。

E-mail:myexperience@126.com

1001-506X(2015)12-2879-08

2014- 11- 06;

2015- 05- 24;網(wǎng)絡(luò)優(yōu)先出版日期:2015- 07- 06。

網(wǎng)絡(luò)優(yōu)先出版地址:http://www.cnki.net/kcms/detail/11.2422.TN.20150706.1705.011.html

國家自然科學(xué)基金(61300125)資助課題

猜你喜歡
云區(qū)航拍算子
擬微分算子在Hp(ω)上的有界性
航拍下的苗圃與農(nóng)場
中外文摘(2021年10期)2021-05-31 12:10:40
各向異性次Laplace算子和擬p-次Laplace算子的Picone恒等式及其應(yīng)用
一類Markov模算子半群與相應(yīng)的算子值Dirichlet型刻畫
難忘的航拍
《航拍中國》美得讓人想哭
陜西畫報航拍
陜西畫報(2017年1期)2017-02-11 05:49:48
Roper-Suffridge延拓算子與Loewner鏈
呈贡县| 高要市| 台湾省| 塔河县| 本溪市| 睢宁县| 建昌县| 双鸭山市| 区。| 酒泉市| 汤阴县| 永济市| 潜江市| 城固县| 扎赉特旗| 永城市| 泾川县| 林芝县| 昆明市| 梓潼县| 离岛区| 阿尔山市| 镶黄旗| 尚义县| 密云县| 温泉县| 麻江县| 新邵县| 双江| 于田县| 封丘县| 贵德县| 金山区| 拉孜县| 清涧县| 扎鲁特旗| 高青县| 彝良县| 棋牌| 塔河县| 嫩江县|