国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

結合多特征賦權的譜聚類水下多目標分割技術

2022-11-03 06:10:38劉光宇曹禹曾志勇趙恩銘邢傳璽
湖南大學學報(自然科學版) 2022年10期
關鍵詞:聲吶灰度聚類

劉光宇,曹禹?,曾志勇,趙恩銘,邢傳璽

(1.大理大學工程學院,云南大理 671003;2.哈爾濱工程大學物理與光電工程學院,黑龍江哈爾濱 150001;3.云南民族大學電氣信息工程學院,云南昆明 650031)

水下聲吶圖像目標分割的目的是從復雜背景區(qū)域中提取出顯著性的目標,如提取水雷、礦產以及魚群等顯著性的目標并保留目標區(qū)域的原始邊緣信息[1].受復雜水下環(huán)境和聲吶設備性能的影響,聲吶圖像普遍存在分辨率低及噪聲污染嚴重的問題[2],給水下多目標物體的分割帶來了巨大的挑戰(zhàn)[3].因此,研究有效可行的水下聲吶圖像多目標分割技術具有十分重要的意義.

基于機器學習的聚類方法是近年來聲吶圖像目標分割領域中的研究熱點.本文作者在2012 年將數字摳圖與歸一化割相結合,構建了譜摳圖理論模型[4],并通過形態(tài)學開閉運算進行了圖像的預處理,然后應用到了聲吶圖像的分割中,得到了更為精確的聲吶圖像目標分割效果.2018年,盛蘊霞等人[5]提出了一種以超像素聚類方式實現側掃聲吶圖像分割的方法,有效地解決了傳統(tǒng)超像素分割對聲吶圖像的噪聲敏感和分割后的多區(qū)域難以準確合并的問題,得到了準確率較高的分割效果.2019 年,王濤等人[6]提出了一種K-means 聚類與數學形態(tài)學相結合的聲吶圖像分割方法,實現了目標輪廓自動提取的效果.但以上基于機器學習的聚類分割方法應用在聲吶圖像的目標分割中,存在控制參數自適應性不足的問題,如:聚類數的確定、形態(tài)學預處理階段的膨脹和腐蝕參數的設置等.為有效解決基于機器學習分割方法的自適應性不足等問題,本文提出了一種自調整譜聚類[7]結合熵權法進行多特征賦權的聲吶圖像多目標分割技術(STSC-EWM).通過仿真實驗將本文方法與其他方法進行了對比,結果表明本文方法在含有嚴重噪聲干擾的多目標聲吶圖像中,也能夠得到精確度更高的分割效果,從而驗證了所提方法的可行性和有效性.

1 理論方法

1.1 自調整譜聚類理論(STSC)

自調整譜聚類(STSC)能夠利用局部尺度參數σi進行自適應來選擇最佳σ值,得到較理想的數據聚類[8].局部尺度參數即分別對每個頂點v定義相應的局部尺度σi=d(vi,vj),其中d表示距離函數,vi到vj的距離度量為d(vi,vj)/σi,vj到vi的距離度量為d(vj,vi)/σj,相似度函數為:

自調整譜聚類算法對最佳分類數估計時,能夠自適應地對每種可能出現的分類數尋找合適的旋轉矩陣R,使得特征向量矩陣X的列能夠達到最佳排列模式.若旋轉后的矩陣為Z=XR,Mi=maxjZij,那么相應的最佳排列就是要使下面的代價函數值達到最?。?/p>

對于不同的分類數,如果它們的代價都一樣小,那么最終的分類數可以選擇其中較大的那個.

假設給定R中的n點集合為V={v1,v2,…,vn},自調整譜聚類算法的步驟如下.

第一步:對于每一點vi∈V,計算其相應的局部尺度參數σi=d(vi,vK),根據式(1),計算相似度矩陣A∈Rn×n.

第二步:定義對角陣D,并有

由此可以構造標準化的相似度矩陣

第三步:計算AN的特征向量,將前k個特征向量組成矩陣

式中最大的分類數是k.

第四步:通過梯度下降法獲取旋轉矩陣R,將X的列達到最佳排列模式,并計算出在不同分類數下排列代價的值,最終分類數是代價為最小時對應的分類數,記為c;記旋轉后的矩陣為Z,其中Z∈Rn×c.

第六步:若數據為高噪聲數據,可將上一步的結果進行期望最大化算法或通過K-means 算法,進一步對Z的行進行聚類處理.

1.2 多特征的提取

本文利用聲吶圖像中的亮度、對比度、灰度分布直方圖、信息熵、形狀以及紋理等多特征互補性和冗余性的優(yōu)點對多目標分割的準確性進行提升.

由于巴氏距離(Bhattacharyya distance)能夠根據兩個概率分布的重疊量得出二者的相似性[9],所以本文通過計算灰度分布直方圖概率分布之間的巴氏距離來判斷目標區(qū)域與每個區(qū)域的相似度,公式為:

式(6)為離散分布函數,其中DX(i)和DY(i)分別是目標區(qū)域與匹配區(qū)域的灰度直方圖進行歸一化的數據,該歸一化是直方圖中每個灰度值的采樣點個數占總采樣點個數的比值,i的取值范圍是1 到255,式(6)得出的值越大越相似.

聲吶圖像目標區(qū)域具有相對規(guī)則性的特點,所以對形狀特征選取了狹長度、周徑比以及7 個Hu 不變矩等特征進行分析.

狹長度(N)的計算公式為:

式中:l是目標區(qū)域的長軸,s是目標區(qū)域的短軸.

周徑比(M)的計算公式為:

式中:P是目標區(qū)域的周長.

7 個Hu 不變矩特征具有平移、旋轉和尺度不變性等特點,所以本文利用該特征計算最優(yōu)目標區(qū)域匹配其他區(qū)域的相似度.

灰度共生矩陣(Grey Level Co-occurrence Matrix,GLCM)的紋理特征具有旋轉不變性及對噪聲有較強的抵抗能力[10],所以本文提取該特征用于最優(yōu)目標區(qū)域匹配所有區(qū)域的相似度.GLCM 紋理特征的二次統(tǒng)計量[11]計算如下.

慣性矩Gα:

式中(i-j)表示像素對的灰度差,n是灰度壓縮級.由于灰度壓縮級為16 時的實驗效果較好,所以本文設置的灰度壓縮級n為16.p(i,j)表示特定位置關系下的像素對的頻數.

角二階矩陣Gβ(能量):

局部均勻性Gχ(逆差矩):

相關性Gγ:

歐氏距離(Euclidean Distance)能夠體現個體數值特征的絕對差異,所以本文利用兩個區(qū)域的周徑比、7 個Hu 不變矩和GLCM 紋理等數值特征的歐式距離進行相似度的衡量,計算公式為:

通常對公式(13)的計算結果進行歸一化到0 和1之間,結果越大越相似,公式如下:

1.3 熵權法理論(EWM)

熵權法(EWM)的基本思路是根據指標變異性的大小來確定準則指標的權重[12],步驟如下.

第一步:將各個指標的數據進行標準化處理.設給定k個指標X1,X2,X3,…,Xk,其 中Xi={x1,x2,…,xn},i∈[1,n],則對各指標數據標準化后的值為Y1,Y2,Y3,…,Yk,其中:

第二步:求各指標的熵值.根據信息熵的公式,一組數據的熵值為:

第三步:確定各指標權重.根據公式(16)計算出各個指標的熵值為E1,E2,E3,…,Ek,最后通過熵值計算各指標的權重:

2 本文STSC-EWM 技術

2.1 STSC-EWM 技術的基本結構

STSC-EWM 技術流程如圖1 所示.該技術首先對輸入的原始圖像使用自調整譜聚類(STSC)劃分為多個獨立的區(qū)域,并分別提取各區(qū)域的灰度、信息熵、形狀和紋理等特征.然后根據每個區(qū)域在特征值上的差異性,利用熵權法(EWM)對多特征進行賦權并篩選出一個最優(yōu)的目標區(qū)域.再將該最優(yōu)目標區(qū)域和所有區(qū)域進行多特征的相似度匹配,最后根據各區(qū)域相似度匹配的結果使用自適應閾值迭代法自動分割出所有的目標區(qū)域.

圖1 STSC-EWM 技術流程圖Fig.1 Flow chart of STSC-EWM technology

2.2 STSC掩膜區(qū)域的特征提取

假定STSC 對原圖像聚類后的最大分類數為c,設STSC 聚類后的掩膜圖像為L(i,j),劃分多個獨立區(qū)域的區(qū)域標識可表示為am,其中am={a1,a2,…,ac},m∈[1,c],即am=m,掩膜圖像如圖2所示.

圖2 STSC聚類后的掩膜圖像Fig.2 Mask image after STSC clustering

根據掩膜圖像中的各區(qū)域像素點的位置坐標,可對應原灰度圖像中的各區(qū)域進行特征提取,具體計算過程如下.

設am區(qū)域的像素點坐標為(I,J),原灰度圖像各點的像素值為g(i,j),若掩膜圖像中的像素值滿足L(i,j)=am,則原灰度圖像am區(qū)域的亮度為:

原灰度圖像am區(qū)域的信息熵為:

式中:p(kI,J)是原灰度圖像am區(qū)域的像素值為kI,J的像素點數占am區(qū)域中總像素點數的概率.

公式(7)和公式(8)可直接用于原灰度圖像am區(qū)域的狹長度和周徑比的特征提取.

由7 個Hu 不變矩的原理,設二值圖像函數為f(x,y),可得到原灰度圖像am區(qū)域的(p+q)階幾何矩mpq為:

式中:p,q=0,1,2,….

原灰度圖像am區(qū)域的中心矩為:

式中:(x0,y0)表示am區(qū)域的質心坐標.

為解決中心矩的平移和縮放不變性,計算歸一化的中心矩:

利用二階和三階歸一化的中心矩就可以組成7個Hu 不變矩I1~I7.本文根據這7 個Hu 不變矩構造原灰度圖像am區(qū)域的矩陣為:

由公式(9)、(10)、(11)和(12)分別計算原灰度圖像am區(qū)域的紋理二次統(tǒng)計量即可得到不同區(qū)域的GLCM紋理特征.

2.3 EWM的多特征賦權

根據圖4 的技術流程圖,利用EWM 理論分別對原灰度圖像am區(qū)域提取的信息熵、狹長度、亮度和對比度等特征進行賦權,計算過程如下.

根據公式(20)、(19)、(18)和(7)可對原灰度圖像中的所有區(qū)域構造多特征數據矩陣:

利用公式(15)對公式(25)的數據矩陣進行標準化處理,最后使用熵權法的公式(16)和公式(17)分別對數據矩陣中的信息熵、狹長度、亮度和對比度等特征計算權重wf、wn、wb和wo,其中wf+wn+wb+wo=1.

由各特征的權重可構造每個區(qū)域的綜合分數加權公式,如下:

所以最優(yōu)目標區(qū)域ap可定義為:

2.4 匹配相似度和自適應性分割的實現

本文設計的最優(yōu)目標區(qū)域ap與每個區(qū)域匹配的多特征平均相似度公式如下:

式中:λm是原灰度圖像am區(qū)域的GLCM 紋理特征,λm=(GαGβGχGγ);同理,λp是最優(yōu)目標區(qū)域ap的GLCM紋理特征.

由于自適應閾值迭代法是一種借助逐次逼近思想的分割方法,該方法往往經歷1~2 次迭代分割后即可滿足終止條件[13].所以本文將公式(28)各區(qū)域匹配的相似度結果使用自適應閾值迭代法,實現快速自動分割的目的.該算法的步驟和具體參數設計如下.

第一步:定義每次迭代的估計閾值與下一次估計的新閾值之間的差別最小精度δ的取值為0.001;然后從匹配的相似度結果中選取一個初始估計值T,在未給數據先驗知識的前提下,通常對該估計值T取數據全局中的最大值與最小值之和的平均值,即

第二步:用初始T值分成兩組相似度的集合,即第一組由匹配的相似度S(ap,am)中所有大于T值的相似度組成;第二組由匹配的相似度S(ap,am)中所有小于或等于T值的相似度組成.

第三步:分別對兩組中所有相似度計算各自的平均值u1和u2.

第四步:定義一個新的閾值T1:

第五步:計算|T1-T|的值,若結果大于精度δ,則將T1賦值給T,然后重復步驟二到步驟四,直到|T1-T|的值小于事先定義的精度δ或計算到最小值為止,此時最佳閾值即為當前的T1值.

第六步:判斷S(ap,am)中的值是否大于等于第五步計算的最佳閾值T1,如果大于等于T1則視為目標區(qū)域,否則視為非目標區(qū)域.

3 仿真實驗與驗證

3.1 仿真實驗與結果分析

實驗選取了大小為128×128 的具有兩個目標物體的Fish聲吶圖像,如圖3所示.

圖3 Fish聲吶圖像Fig.3 Fish sonar image

使用STSC 理論對該圖像進行聚類,可以得到該圖像的掩膜圖像.這里用每個掩膜區(qū)域中的分類標簽數字來標識每個區(qū)域,如圖4 所示.然后利用公式(20)、(19)、(18)和(7)對該圖像中的不同掩膜區(qū)域進行多特征的提取,即統(tǒng)計各區(qū)域的信息熵、狹長度、亮度和對比度的特征值,然后用公式(25)構造多特征的數據矩陣,結果如表1所示.

圖4 Fish圖像的掩膜區(qū)域示意圖Fig.4 Schematic diagram of the mask area of Fish image

表1 Fish圖像多特征的數據矩陣結果Tab.1 Multi-feature data matrix results of Fish images

對表1 中的數據使用公式(15)標準化后,再將該處理的數據利用熵權法公式(16)和(17)計算4 個特征指標的權重,結果見表2.

表2 4個特征指標的權重結果Tab.2 Weight results of four characteristic indicators

由表2 的權重計算結果和熵權法的基本思路可知,若某個特征指標在所有區(qū)域中的數值變化差異越大,則該指標在影響最終決策結果中的重要性也越大.因此,權重較大的特征與其他特征相比,權重大的特征可以更好地描述目標物體的特點,且在區(qū)分目標物體和背景區(qū)域方面也具有更顯著的作用.

由表2 的結果利用公式(26)計算各區(qū)域的綜合分數.為了更直觀地觀察各區(qū)域綜合得分情況,統(tǒng)計了每個區(qū)域綜合分數在全部區(qū)域中的比例,如圖5所示.

圖5 Fish圖像中各區(qū)域綜合分數在全部區(qū)域中的比例Fig.5 Proportion of comprehensive scores of each region in all regions in Fish image

由圖5 和公式(27)都可以得出最優(yōu)目標區(qū)域是區(qū)域5.因Fish 圖像具有兩個目標物體,所以可用最優(yōu)目標區(qū)域5 進行匹配各區(qū)域的多特征平均相似度的做法,準確地找到相似度較高的其他目標區(qū)域.最優(yōu)目標區(qū)域5 匹配各區(qū)域灰度分布的巴氏距離相似度結果如圖6所示.

從圖6 可以看出,圖像中的每個區(qū)域都有各自的灰度分布特點,且都存在不同程度的灰度相互重疊的部分.因此,若只用最佳閾值估計的方法來分離目標區(qū)域和背景區(qū)域[14],會造成將某些灰度重疊部分的區(qū)域歸類出錯.針對該問題,可利用公式(6)計算目標區(qū)域與各區(qū)域的灰度分布巴氏距離相似度,再根據相似度結果分析哪些區(qū)域可以劃分為一類.同理,利用最優(yōu)目標區(qū)域5 與所有區(qū)域匹配7 個Hu不變矩、周徑比和GLCM 紋理的歐式距離相似度,由公式(28)得出多特征的平均相似度,結果見表3.

圖6 Fish圖像最優(yōu)目標區(qū)域5與各區(qū)域的巴氏距離灰度分布Fig.6 The grayscale distribution of the Bhattacharya distance between target region 5 and each region in Fish image

表3 最優(yōu)目標區(qū)域5與各區(qū)域的多特征相似度結果Tab.3 Results of multi-feature similarity between optimal target region 5 and each region

由表3 中的數據可以看出,目標區(qū)域5 與區(qū)域6在灰度分布和GLCM 紋理特征上具有明顯的相似性.而在統(tǒng)計的7 個Hu 不變矩和周徑比相似度中雖然不如灰度分布和GLCM 紋理特征的區(qū)分度明顯,但依然可以利用多特征的互補性和冗余性提升對多目標分割的準確性.

最后對表3 中的平均相似度使用自適應閾值迭代法,僅迭代了1 次就得到了最佳的分割閾值為66.99%.因表3中只有區(qū)域5和區(qū)域6的平均相似度大于該閾值,所以Fish 聲吶圖像最終的目標分割結果即為區(qū)域5和區(qū)域6.整個分割過程的總運算時間為9.423 s,最終分割的結果如圖7所示.

圖7 Fish聲吶圖像的分割結果Fig.7 Segmentation results of Fish sonar images

為驗證本文方法的魯棒性,選用了其他6 幅具有多目標物體的聲吶圖像進行測試,結果如圖8 所示.其中原圖的前3 幅圖像為前視聲吶圖像,后3 幅圖像為側掃聲吶圖像.

統(tǒng)計了圖8 中的各圖像平均相似度的迭代次數,按從左到右的順序分別為:1次、1次、1次、1次、1次和2次,均達到了文獻[13]所描述的迭代1~2 次就可滿足終止條件的預期效果.分別對圖8 各圖像分割的總運算時間進行統(tǒng)計,結果為:12.503 s、20.912 s、20.674 s、16.676 s、18.327 s 和20.467 s.可以看出,本文方法的運算時間較慢,這是由于本文方法在利用自調整譜聚類時,要根據圖像中的各像素頂點之間的局部距離和位置關系建立鄰接關系矩陣,需要的計算量較大,所以花費的時間較長.

圖8 實驗原圖和分割后的結果Fig.8 The original image of the experiment and the result of segmentation

由以上各圖像分割的結果可以看出,本文的方法對多目標聲吶圖像的背景干擾區(qū)域沒有誤分割,取得了準確和完整的目標分割效果.

3.2 對比分析與驗證

為比較和驗證本文方法的分割性能,分別與最大類間方差法[15]、馬爾科夫隨機場法[16]、結合形態(tài)學運算的譜摳圖方法進行比較,分割結果見圖9.

圖9 對比了不同分割方法的分割結果,其中按列排序依次為:(a)原始圖像、(b)最大類間方差法、(c)馬爾科夫隨機場法、(d)結合形態(tài)學運算的譜摳圖方法、(e)本文的STSC-EWM 方法.對這四種方法的平均運算時間進行統(tǒng)計,分別為:1.388 s、4.356 s、7.098 s 和29.363 s.其中最大類間方差法的平均運算時間最快,這是因為它是一種直接對圖像數據尋找類間差達到最大時的閾值分割方法,算法的復雜度較低且易于實現,所以運算時間最快.而聲吶圖像的灰度分布非常集中,且目標區(qū)域與背景區(qū)域存在相互混疊的灰度值,如圖9(b)列所示的結果,即該方法很難尋找到聲吶圖像中的準確分類閾值,所以分割效果不夠理想.對于馬爾科夫隨機場法,它是一種根據無向圖節(jié)點之間的隨機變量關系劃分類別的分割方法,分割結果如圖9(c)列所示.該方法在使用時需要人工干預它的迭代次數和分類數的設置,且對噪聲比較敏感.結合形態(tài)學運算的譜摳圖方法在抑制背景噪聲的干擾方面,優(yōu)于圖9(b)和(c)的方法,但該方法對目標物體的整體輪廓有一定程度的削弱、掩埋,并會存留少量的噪聲干擾,如圖9(d)列結果所示.

本文方法的分割結果如圖9(e)列所示,其中對四幅實驗圖像的相似度閾值迭代次數分別為:1次、1次、2 次和3 次,且都實現了準確分割目標的效果.而在運算時間方面,本文方法的平均運算時間較長,這是因為本文方法在利用自調整譜聚類進行聚類時,不僅要建立像素頂點之間的鄰接關系矩陣,而且還要通過梯度下降法獲取合適的旋轉矩陣來確定最佳的分類數,所以花費的時間較長.與其他3 種方法相比,在多目標分割的準確性方面,本文方法對噪聲干擾區(qū)域均沒有誤分割,且在提取目標輪廓的完整性和多目標區(qū)域的分割精度方面也是最好的,驗證了所提方法的可行性和有效性.

圖9 不同分割方法對具有多目標的聲吶圖像分割結果Fig.9 Segmentation results of sonar images with multiple objects by different segmentation methods

4 結論

本文對聲吶圖像多目標物體的分割進行了研究,提出了一種自調整譜聚類結合熵權法進行多特征賦權的水下多目標分割技術(STSC-EWM),該研究可總結為:

1)將自調整譜聚類(STSC)與熵權法(EWM)相結合,并應用在聲吶圖像的目標分割中,有效地實現了最優(yōu)目標區(qū)域的選擇.

2)設計了一種最優(yōu)目標區(qū)域匹配所有區(qū)域多特征相似度的方法,然后利用自適應閾值迭代法判斷相似度匹配的結果是否為目標區(qū)域,能夠有效避免對噪聲干擾區(qū)域的誤分割,達到自動分割多目標區(qū)域的效果.

3)通過與其他分割方法對比,本文所提方法分割的精度更高,且在含有嚴重噪聲干擾的多目標聲吶圖像中,也能夠得到更準確和更完整的目標分割結果,證明了本文方法的優(yōu)越性.

另外,本文方法對多目標分割的準確性和完整性的優(yōu)勢進行了論述,但從測試的結果中能夠發(fā)現,本文方法在實時處理方面效果欠佳,所以今后的研究工作可以從優(yōu)化算法的時間效率方面進行探索,以便得出實時性更快的目標分割方法.

猜你喜歡
聲吶灰度聚類
探索大洋的“千里眼”——聲吶
采用改進導重法的拓撲結構灰度單元過濾技術
基于灰度拉伸的圖像水位識別方法研究
高技術通訊(2021年3期)2021-06-09 06:57:48
一種便攜式側掃聲吶舷側支架的設計及實現
聲吶
基于DBSACN聚類算法的XML文檔聚類
電子測試(2017年15期)2017-12-18 07:19:27
基于最大加權投影求解的彩色圖像灰度化對比度保留算法
自動化學報(2017年5期)2017-05-14 06:20:56
基于灰度線性建模的亞像素圖像抖動量計算
基于改進的遺傳算法的模糊聚類算法
一種層次初始的聚類個數自適應的聚類方法研究
珠海市| 六安市| 绿春县| 连州市| 通榆县| 久治县| 九龙城区| 黄冈市| 奎屯市| 扎兰屯市| 内江市| 呼玛县| 商河县| 沂源县| 团风县| 湟源县| 扎赉特旗| 新邵县| 湘潭县| 南昌县| 阳山县| 舞阳县| 舞钢市| 东台市| 土默特右旗| 海林市| 基隆市| 隆回县| 万荣县| 易门县| 奉新县| 吉木乃县| 龙陵县| 寻乌县| 古蔺县| 神木县| 维西| 乌海市| 阿鲁科尔沁旗| 巴楚县| 桐梓县|