劉靜 莊梅玲 石歷麗 高婷
摘要: 為客觀有效地識別局部圖案輪廓,實現(xiàn)可選擇性目標的提取,文章以皮影圖案為研究對象,針對皮影圖像局部細節(jié)豐富、色彩飽和度高而背景信息干擾較大的特點,設計了皮影圖案輪廓的智能提取算法。首先,采用相對總變差模型進行噪聲與主結構的分離,實現(xiàn)圖像的平滑處理;然后,設計GrabCut算法,通過分析圖案輪廓的邊界緊密度指標,確定最優(yōu)的超像素分割數(shù)量,實現(xiàn)局部圖案的優(yōu)化分割;最后,運用Canny算子對分割后的皮影圖案進行了輪廓提取。通過6幅皮影圖像的輪廓提取實驗結果表明,提出的方法準確完整地實現(xiàn)了目標圖案的輪廓提取,且圖案分割結果的像素準確度(PA)均大于95%。
關鍵詞: 皮影;智能輪廓提取;相對總變差模型;超像素分割;GrabCut;Canny
中圖分類號: TS941.2
文獻標志碼: A
文章編號: 1001-7003(2020)11-0020-08
引用頁碼: 111104
Abstract: In order to identify the local pattern contour and extract the optional target, this paper takes the shadow pattern as the research object. According to the characteristics of rich local details, high color saturation and strong interference of background information in the shadow image, an intelligent contour extraction algorithm for shadow patterns was designed. First of all, in order to achieve image smoothing, the relative total variation model was used to separate the noise from the main structure. Then, the GrabCut algorithm was designed. By analyzing the boundary compactness index of the pattern contour, the optimal super-pixel segmentation quantity was determined to realize the optimal segmentation of the local pattern. Finally, the contour of the segmented shadow pattern was extracted by Canny operator. The contour extraction experiment results of 6 shadow images showed that the method proposed in this paper could extract the contour of target pattern accurately and completely, and the pixel accuracy(PA) of the pattern segmentation was greater than 95%.
Key words: shadow play; intelligent contour extraction; relative total variation model; super-pixel segmentation; GrabCut; Canny
皮影是一門“動則成戲,靜則成畫”的古老藝術,蘊含著獨特的美學特征和傳統(tǒng)的文化內(nèi)涵,至今已有兩千多年歷史[1]。皮影圖案多采用仿生手法呈現(xiàn),大體可以分為花草植物、魚鳥動物及云紋水波三種圖案類型。這些圖案造型精美、內(nèi)涵豐富,極具裝飾性,在包裝、服飾及家居用品[2-4]上已有大量應用。皮影藝術也極具地域性,不同的皮影圖案可有效反映出所在時代和地域的文化特點及變遷。隨著時代的發(fā)展,娛樂形式愈加多樣化,皮影戲及皮影藝術正面臨著退出歷史舞臺的危機。目前,對于皮影圖案的研究主要集中于從藝術分析、應用及傳承保護的角度進行[5-7],對于圖案提取技術的研究較少涉及。將計算機圖像處理技術應用于皮影圖案研究,有助于更深入探析其內(nèi)在文化及更加客觀的再設計應用,為信息時代皮影藝術的傳承拓展新方向。區(qū)別于通用服飾圖案,皮影中的服飾圖案具有以下特點:1)色彩分明,飽和度高,互補色運用比例高,色塊間對比反差大;2)以雕刻刀口留白的形式作為圖案裝飾和邊緣劃分;3)局部紋樣細節(jié)豐富、背景復雜、刻工精細且圖案飽滿。
為消除噪聲的干擾,進行輪廓提取前,一般采用平滑算法進行圖像濾波。目前為止,在常見的服飾圖案處理中,大多以均值、高斯及中值濾波等[8-9]傳統(tǒng)的濾波算法進行圖像處理。這些算法雖能達到較好的平滑效果,但經(jīng)常會出現(xiàn)邊緣模糊,導致部分細節(jié)失真。對于皮影中以刀口留白來區(qū)分圖案邊緣的圖像而言,采用這些算法會造成小尺寸的圖像留白部分邊緣模糊,丟失細節(jié)部分,不利于后續(xù)的圖像分割及輪廓提取。而相對總變差模型[10](relative total variation,RTV)采用獨特的變差算法,能夠清晰地分辨出無規(guī)則的噪聲部分及相對穩(wěn)定的主結構部分,在平滑噪聲的同時有效保留圖案邊緣。
近年來,在服飾圖案輪廓和造型提取的研究中,基于聚類的圖案分割方法較為流行。比如,李俞霏等[11]采用K-means聚類算法對明代賜服圖像中的色彩進行聚類,實現(xiàn)了不同色彩紋樣的分割;傅藝揚等[12]利用密度峰聚類算法在色彩空間內(nèi)對織物進行分割聚類,最終分割并提取出提花織物紋樣;邢樂等[13]采用Mean-Shift聚類算法,獲取了云肩實物圖像的主要色彩及圖案的分割結果。上述研究方法對單目標圖像進行整體的色彩聚類而實現(xiàn)圖案造型與輪廓的提取,雖能準確獲得圖案紋樣的分割結果,但對于皮影這種服飾圖案與影人軀干結合緊密、圖案紋樣僅集中于局部且背景相對復雜的圖像而言,該類整體化的圖像色彩聚類方法無法準確分離背景與目標圖案,所提取圖案的獨立性、完整性將有所欠缺。而Rother等[14]提出的Grabcut交互式圖案分割方法在Grabphcuts[15]的基礎上,將Gauss混合模型代替灰度直方圖模型對前景和背景進行了顏色分布建模,通過簡單的交互操作分割前景和背景。該方法雖然能夠?qū)崿F(xiàn)可選擇性的局部目標提取,但會因為背景顏色與目標圖案顏色相近而導致分割結果的不準確,且由于Gauss混合模型的建立增加了算法的運算時間。本文結合皮影圖像的特點,將簡單線性迭代聚類算法(simple linear iterative clustering,SLIC)與GrabCut算法結合,提出了一種改進的圖案分割算法:首先細化聚類分割擬合目標圖案邊界,再利用GrabCuts算法進行交互式目標提取,使其在完成皮影圖案的選擇性提取的同時,增加了目標圖案分割的準確性及運算效率。
本文設計輪廓提取算法流程如圖1所示。首先,對輸入的皮影圖像進行平滑處理;其次,采用簡單線性迭代聚類算法對平滑后圖像作超像素分割;然后,使用GrabCut算法分割提取局部圖案;最后,運用Canny算法提取圖案邊緣輪廓。
1?圖像平滑
由于皮影藝術中影人的制作是使用驢皮等動物皮裁剪后進行的人工上色處理,受技術原因或上色工藝影響會產(chǎn)生污點及上色不勻的情況,且這些隨機產(chǎn)生的污損(噪聲)通常不具有規(guī)則性,對提取清晰的皮影圖案輪廓造成了困難。相對總變差模型由于其獨特的變差算法,能夠清晰地分辨出無規(guī)則(方向多變)的紋理及相對穩(wěn)定的主結構,適用于非統(tǒng)一的或各向異性的紋理[16],可以有效分離皮影圖像中的噪聲紋理與主結構輪廓,具有較強的紋理抑制魯棒性。
1.1?RTV算法設計
式中:σ為空間尺度參數(shù),控制窗口的尺寸,根據(jù)所處理的圖像紋理的大小進行選取,決定著圖像的平滑程度。
2) 參數(shù)最小化,計算濾除小尺度紋理后的圖像S:
式中:λ為圖像平滑程度系數(shù),控制保真項與相對總變差的比例,同樣控制著圖像的平滑程度。
1.2?平滑參數(shù)分析
控制圖像平滑程度的兩個參數(shù)分別為平滑程度系數(shù)λ和空間尺度參數(shù)σ。
1) 平滑程度系數(shù)λ:取值一般在0~0.03,僅調(diào)節(jié)λ并不能使噪聲和圖案有效分離,當單獨增加λ可能造成圖像的模糊并且不需要的紋理反而被保留下來[17],所以需要與空間尺度參數(shù)σ并行調(diào)整。
2) 空間尺度參數(shù)σ:取值一般在0~6[10],σ的取值由圖像中污點的尺寸大小決定,增加σ可很好地去除干擾噪聲信息及平滑圖像污點。
3) 實驗結果中的參數(shù)分析:在上述的范圍內(nèi)進行λ和σ兩個參數(shù)的調(diào)整,使用Microsoft Windows 10系統(tǒng)下的MATLAB 9.7軟件平臺運行該算法,所用工具箱為Image Processing Toolbox 11.0版。對皮影圖像進行平滑處理,得到結果如圖2、圖3所示。
從圖2的結果對比發(fā)現(xiàn),該算法在4次就可達到收斂狀態(tài)。從圖3(a)~(d)可看出,對于一些小尺寸的圖像污點,σ增大到2~3時的平滑效果比較顯著,噪聲消除。但σ=3時,圖案的細節(jié)部分有一定程度上丟失,所以選取空間尺度參數(shù)σ=2。同時,增加λ值對平滑效果的影響也非常大。從圖3(e)~(h)可看出,隨著λ的增大,圖像中的一些細節(jié)也會被平滑,但是λ的取值過小,也會使圖像的污點部分保留下來,所以在處理皮影圖像時,選取平滑程度系數(shù)λ為0.01~0.02。
2?圖像分割
影人服飾與常用服飾不同,影人中的服飾不可脫卸,且圖案常與身體部位連接,無法脫離整體單獨進行提取分析。因此,為了有選擇性地提取皮影圖案的輪廓,本文采用GrabCut[14]算法對皮影圖像進行局部分割。GrabCut是一種交互式的圖像分割算法,該算法在GraphCuts算法的基礎上提出,是一種基于圖論的分割方法[18-19],僅需要簡單的交互操作,即可達到較好的圖像分割效果。
為提高GrabCut算法的圖像分割的效率及準確度,降低算法復雜度,在進行皮影圖像分割前,本文首先采用SLIC算法進行超像素塊提取。SLIC算法是根據(jù)顏色差異和距離鄰近性生成超像素塊進行圖像分割的聚類方法[20],適用于顏色飽和度高且色塊間差異顯著的皮影圖像。
2.1?SLIC算法設計
首先指定期望生成的超像素數(shù)量n,然后將圖像轉至CIE Lab空間,每個像素對應的三通道顏色值(L,a,b)和坐標(x,y)組成一個5維向量C=[L,a,b,x,y]T。圖像S包含N個像素點,相鄰超像素塊的聚類中心點(種子點)之間的距離為H。在2H×2H領域內(nèi),兩個像素的相似性(距離)由它們的色彩差異dLab和位置距離dxy來度量。n個聚類中心向量Cj=[Lj,aj,bj,xj,yj]T,j∈{1,2,…,n};則點Ci=[Li,ai,bi,xi,yi]T,i∈{1,2,…,N}到聚類中心的距離Ds定義為:
式中:m為控制超像素空間緊密度的參數(shù),取值范圍為1~20(默認為10),其值越大,就越強調(diào)空間接近程度,聚類越緊湊。
2.2?GrabCut算法設計
首先將超像素分割后的皮影圖像Sp映射成帶有權值的
網(wǎng)絡圖(圖4),然后建立對應的能量函數(shù)E(α,k,θ,z),每條邊的權值根據(jù)能量函數(shù)的數(shù)據(jù)項和平滑項確定,最后采用最大流/最小割算法對網(wǎng)絡圖進行分割,獲得最小化的能量函數(shù),實現(xiàn)圖像的分割。具體步驟設計如下:
2.2.1?超像素分割
采用SLIC超像素分割后具有n個超像素集的圖像Sp=(Sp1,Sp2,…,Spn)作為分割圖像,并用超像素塊作為節(jié)點構建s-t圖。
2.2.2?參數(shù)初始化
4) 重復步驟3,更新高斯參數(shù)θ,直到能量函數(shù)E收斂。
2.2.4?結果輸出
將分配后的超像素塊按照坐標還原成原圖,輸出αi=1的超像素,得到最終分割結果圖像。
2.3?結果分析與對比
2.3.1?超像素數(shù)量
超像素分割的精確度對后續(xù)的GrabCut分割影響非常大,一定程度上決定著最后目標分割的效果。因此,為客觀分析圖像超像素分割數(shù)量對圖像分割精度及時間的影響,獲得最優(yōu)的超像素數(shù)量,本文設計評價指標——邊界緊密度η進行超像素分割精度評價。以超像素個數(shù)n=300時的分割結果為例,η為超像素目標邊緣領域內(nèi)所含正確的像素數(shù)量(圖5(c)中陰影區(qū)域)與實際分割所得目標邊緣分類像素數(shù)量(圖5(b)中陰影區(qū)域)的比值。
從圖6可以看出,隨著超像素個數(shù)的增加,除n=150時的運行時間在0.42 s內(nèi),其他運算時間均在0.424~0.432 s。在n>900時,運行時間有增加趨勢,但其邊界緊密度η無顯著增加。由此得出,在n=900時,分割效果最為顯著,且耗時較少,此時的邊界緊密度η=99.5%。
由實驗結果可知,雖然超像素分割數(shù)量越多精確度越高,但是達到一定的數(shù)量后,分割精度就很難再增加,反而會導致運行時間延長。因此,在進行超像素分割時,應根據(jù)自身所處理的圖像尺寸大小合理選擇分割數(shù)量。
2.3.2?圖案分割結果分析
為對本文提出算法的實驗分割結果進行定量的客觀評價,使用PS軟件人工摳出的目標圖案作為正確分割的參照對象(圖7(b)),采用分割精確度評價指標—像素準確度(PA)來評估目標圖案的分割精度[21]。PA為分類正確的像素數(shù)量與所有實驗所得分類像素數(shù)量的比值:
式中:TP為分類正確的像素數(shù)量,F(xiàn)P為分類錯誤的像素數(shù)量。
圖7(a)為目標圖案選取的簡單交互操作。根據(jù)人工分割出的目標圖7(b)得出,正確分類的像素數(shù)量TP=146 876;實驗所得分割圖7(c)的像素數(shù)量TP+TF=152 891,像素準確度PA=0.96。由實驗結果可看出,本文算法僅需簡單的交互操作,就能實現(xiàn)滿意的分割結果。
為進一步驗證算法的有效性,將本文算法(簡稱為GABRS算法)與GrabCut[14]算法、Graph cuts[15]算法及基于本文算法但去除平滑處理部分的算法(簡稱為GABS算法)進行比較。其中,GABRS為GrabCut Algorithm Based on RTV and SLIC的縮寫;GABS為GrabCut Algorithm Based on SLIC的縮寫。由圖8(a)可見,未進行超像素分割的圖像直接采用GrabCut算法進行目標分割時,由于背景中的色彩分布與目標圖案中的色彩非常相似,導致目標圖案無法精確分離。由圖8(b)可見,經(jīng)平滑處理后的Graph cuts算法進行目標分割,該算法未能正確識別并分割出目標圖案,這是因為該算法自身的分割結果更傾向于具有相同類內(nèi)相似度[22]的特性決定的,即在目標圖案的選取時,背景中所含有的與目標相似的部分也會被選擇出來,從而導致目標圖案難以從背景中分離。由圖8(c)可見,對未經(jīng)平滑處理的圖案分割結果出現(xiàn)大量冗余信息,分割精度受到影響。這是由于皮影圖像本身的噪聲對分割結果的影響導致,而平滑后的圖像中目標圖案的分割結果(圖8(d))精確度顯著提高。通過實驗結果的比較分析得出,本文算法的分割精度優(yōu)于其他三種算法。表1展示了不同算法分割結果的PA值。
表2為本文算法對其他皮影圖像的目標分割及輪廓提取結果。本文算法不論是在前景與背景區(qū)別明顯的圖像(表2中蝦的分割),還是在一些前景與背景復雜圖像(表2中蓮葉的分割),所得分割結果的PA值均大于0.95。實驗說明,本文算法在各種場景下的魯棒性較強,簡單的交互操作可以有效地分割出目標圖案,在較準確地預測出目標像素的同時,預測錯誤的像素也較少。
3?輪廓提取及結果分析
為獲得單像素寬且精確度高的圖案輪廓,本文采用Canny邊緣檢測算子進行目標的輪廓提取。Canny算子是根據(jù)需求逐步推導出的邊緣檢測算子,該算子采用高斯濾波對圖像進行平滑處理,在一階微分的基礎上定位局部圖像邊緣[23]。能夠檢測出真正的弱邊緣,得出的輪廓清晰、完整且準確性高。
將未經(jīng)圖像平滑處理的GABS算法和經(jīng)過圖像平滑處理的GABRS算法分割后的圖案進行Canny算子輪廓提取,提取結果如圖9所示。
圖9結果表明,兩類算法處理后的圖案的目標輪廓提取結果存在著明顯差異。由圖9(a)可見,對未經(jīng)平滑處理的圖像所提取的目標輪廓含有大量疵點,這是皮影圖案本身所含噪聲像素對輪廓識別時產(chǎn)生的影響,導致提取的圖案輪廓精度較低。而平滑后的圖像(9(b))所提目標圖案的輪廓精確度顯著提高,提取出來的圖案輪廓與原圖案高度吻合。同時,本文算法(GABRS)應用在其他多幅圖像的提取效果(表2)也表明:本文設計的目標圖案輪廓識別算法可獲得更加清晰且精確的目標輪廓,所含噪聲少,目標圖案的有效邊緣得到最大程度的提取。
4?結?論
針對背景復雜、細節(jié)豐富而又極具文化內(nèi)涵的服飾圖像提取研究中存在的圖案輪廓提取信息不全而導致的圖案不完整、邊緣不準確的問題,本文以皮影圖像為代表,提出一種基于相對總變差平滑和Grabcut交互式的局部圖案分割提取方法,能夠準確地分割目標圖案并且提取完整的輪廓。引入圖像分割客觀評價指標PA,將本文算法與其他三種算法進行了對比,并用6幅圖像的局部圖案進行分割算法實驗,獲得像素準確度PA均大于95%的結果,證實了本文的算法能夠?qū)崿F(xiàn)準確的局部圖案輪廓提取。
然而,本文方法還有一些不足:1)由于算法的交互性,存在一些目標選取的主觀因素,會在一定程度上影響分割結果的穩(wěn)定性,以后的研究中有待提高;2)本文提出的算法更適合于單目標圖像的局部圖案分割,對于多目標圖像有一定的局限性。后續(xù)工作將著重圍繞上述問題展開,同時考慮對提取的圖案及其輪廓構建相應數(shù)據(jù)庫并進行分類,將進一步研究皮影圖像的局部分割提取技術,以提高分割準確率和效率。
參考文獻:
[1]閆子飛, 朱琳. 皮影圖案在現(xiàn)代設計中的創(chuàng)新應用[J]. 前沿, 2014(17): 232-233.
YAN Zifei, ZHU Lin. Innovative application of shadow pattern in modern design[J]. Forward Position, 2014(17): 232-233.
[2]鐘夢瑩. 成都皮影視覺語言在土特產(chǎn)包裝中的應用研究: 以四川燈影牛肉包裝設計為例[D]. 成都: 西南交通大學, 2014.
ZHONG Mengying. The Research of Applying Chengdu Shadow Play Graphics Language to Native Products: In the Case of the Package Design of Sichuan Deng Ying Beef[D]. Sichuan: Southwest Jiaotong University, 2014.
[3]于雪. 唐山皮影造型形式在民族服裝設計中的應用[D]. 石家莊: 河北科技大學, 2012.
YU Xue. Application of Tangshan Shadow Modeling Form in National Fashion Design[D]. Shijiazhuang: Hebei University of Science and Technoligy, 2012.
[4]蘇淼, 魯佳亮, 林海雷. 皮影造型藝術在現(xiàn)代絲綢家紡中的應用[J]. 絲綢, 2012, 49(5): 41-44.
SU Miao, LU Jialiang, LIN Hailei. Application of Chinese shadow play art in the modern silk home textile design[J]. Journal of Silk, 2012, 49(5): 41-44.
[5]郭琳. 皮影戲的藝術特色及傳播[J]. 河南社會科學, 2020, 28(2): 119-124.
GUO Lin. Artistic characteristics and dissemination of shadow play[J]. Henan Social Sciences, 2020, 28(2): 119-124.
[6]劉海英, 劉頒, 韓福麗, 等. 皮影元素在旅游紀念品設計中的應用研究[J]. 包裝工程, 2018, 39(24): 333-339.
LIU Haiying, LIU Ban, HAN Fuli, et al. Application of shadow element in the souvenir design[J]. Packaging Engineering, 2018, 39(24): 333-339.
[7]楊保紅. 非物質(zhì)文化遺產(chǎn)民俗藝術造型保護與發(fā)展: 以河南羅山皮影為代表[J]. 經(jīng)濟研究導刊, 2020(10): 50-52.
YANG Baohong. Protection and development of intangible cultural inheritance and folk art modeling: represented by Luoshan shadow puppets in Henan province[J]. Economic Research Guide, 2020(10): 50-52.
[8]吳曉軍. 基于圖像理解的智能服飾搭配研究[D]. 成都: 電子科技大學, 2017.
WU Xiaojun. Intelligent Matching Based on Image Understanding[D]. Chengdu: University of Electronic Science and Technology of China, 2017.
[9]向忠, 何旋, 錢淼, 等. 基于邊緣和顏色特征的織物印花花型檢索[J]. 紡織學報, 2018, 39(5): 137-143.
XIANG Zhong, HE Xuan, QIAN Miao, et al. Printed fabric pattern retrieval based on edge and color features[J]. Journal of Textile Research, 2018, 39(5): 137-143.
[10]XU L, YAN Q, XIA Y, et al. Structure extraction from texture via relative total variation[J]. ACM Transaction on Graphics(TOG), 2012, 31(6): 1-139.
[11]李俞霏, 梁惠娥. 明代織物紋樣的智能提?。?以斗牛袍為例[J]. 絲綢, 2018, 55(11): 53-58.
LI Yufei, LIANG Huie. Intelligent extraction of patterns from Ming dynasty fabrics: the case study of the bullfight robe[J]. Journal of Silk, 2018, 55(11): 53-58.
[12]傅藝揚, 劉妹琴, 樊臻, 等. 基于紋理濾波和顏色聚類的提花織物紋樣自動提取方法[J]. 絲綢, 2019, 56(12): 9-15.
FU Yiyang, LIU Meiqin, FAN Zhen, et al. Automatic pattern extraction of jacquard fabric based on texture filtering and color clustering[J]. Journal of Silk, 2019, 56(12): 9-15.
[13]邢樂, 張杰, 梁惠娥, 等. 傳統(tǒng)服飾云肩實物圖像主色的智能檢測[J]. 紡織學報, 2017, 38(11): 110-115.
XING Le, ZHANG Jie, LIANG Huie, et al. Intelligent inspection of dominant colors for Chinese traditional folk Yunjian[J]. Journal of Textile Research, 2017, 38(11): 110-115.
[14]ROTHER C, KOLMOGOROV V, BLAKE A. "GrabCut": interactive foreground extraction using iterated graph cuts[J]. Acm Transactions on Graphics, 2004, 23(3): 309-314.
[15]BOYKOV Y, JOLLY M P. Interactive graph cuts for optimal boundary and region segmentation of objects in N-D images[C]//Proceedings of the 8th IEEE International Conference on Computer Vision. Vancouver, Canada: IEEE, 2001: 105-112.
[16]GONZALEZ R C, WOODS R E, EDDINS S L. Digital Image Processing Using MATLAB[M]. 2nd Edi. Beijing: Publishing House of Electronics Industry, 2009.
[17]向軍, 張杰, 潘如如, 等. 采用紋理平滑的印花織物圖案輪廓提取[J]. 紡織學報, 2017, 38(11): 162-167.
XIANG Jun, ZHANG Jie, PAN Ruru, et al. Graphic contour extraction for printed fabric based on texture smoothing[J]. Journal of Textile Research, 2017, 38(11): 162-167.
[18]TANG M, AYED I B, MARIN D, et al. Secrets of GrabCut and kernel k-means[C]//IEEE International Conference on Computer Vision. Santiago, Chile: IEEE, 2015: 1555-1563.
[19]JI Z H, YU S D, WU S B, et al. Improved GrabCut for human brain computerized tomography image segmentation[C]//International Conference on Health Information Science. Shanghai: Fudan University, 2016: 22-30.
[20]劉洋, 周寧寧. 基于SLIC的圖像分割方法研究[J]. 計算機技術與發(fā)展, 2019, 29(1): 75-79.
LIU Yang, ZHOU Ningning. Research on Image Segmentation Method Based on SLIC[J]. Computer Technology and Development, 2019, 29(1): 75-79.
[21]廖旋, 繆君, 儲珺, 等. 融合分割先驗的多圖像目標語義分割[J]. 中國圖象圖形學報, 2019, 24(6): 890-901.
LIAO Xuan, MIAO Jun, CHU Jun, et al. Multi-image object semantic segmentation by fusing segmentation priors[J]. Journal of Image and Graphics, 2019, 24(6): 890-901.
[22]姜楓, 顧慶, 郝慧珍, 等. 基于內(nèi)容的圖像分割方法綜述[J]. 軟件學報, 2017, 28(1): 160-183.
JIANG Feng, GU Qing, HAO Huizhen, et al. Survey on content-based image segmentation methods[J]. Journal of Software, 2017, 28(1): 160-183.
[23]禹晶, 孫衛(wèi)東, 肖創(chuàng)柏. 數(shù)字圖像處理[M]. 北京: 機械工業(yè)出版社, 2015: 278-294.
YU Jing, SUN Weidong, XIAO Chuangbo. Digital Image Processingm[M]. Beijing: China Machine Press, 2015: 278-294.