于微波,周 旺,楊宏韜
(長春工業(yè)大學(xué)電氣與電子工程學(xué)院,長春 130012)
在現(xiàn)代工業(yè)制造業(yè)中,為了保證生產(chǎn)出的零件符合出廠標(biāo)準(zhǔn),需要對(duì)其加工尺寸進(jìn)行檢測[1]。近年來,由于機(jī)器視覺測量方法具有無接觸、低成本、高效率的優(yōu)勢,被廣泛應(yīng)用于工業(yè)零件尺寸測量中。采用機(jī)器視覺測量方法對(duì)零件進(jìn)行尺寸測量,其中最關(guān)鍵的環(huán)節(jié)就是準(zhǔn)確提取出其邊緣輪廓。由于邊緣輪廓的提取效果會(huì)直接影響測量精度,所以準(zhǔn)確提取出零件邊緣輪廓變得十分重要。
目前,邊緣輪廓提取精度較高的傳統(tǒng)算法有Canny算法、Sobel算法、Roberts算法、Log算法等。由于會(huì)受到零件表面紋理、周圍環(huán)境干擾及光照不均勻等因素影響,利用上述算法進(jìn)行邊緣輪廓提取的過程中,會(huì)出現(xiàn)噪聲點(diǎn)和邊緣輪廓點(diǎn)缺失,所以無法很好的提取出零件的邊緣輪廓[2]。SHEN、李應(yīng)果等[3-6]為了提取出完整且清晰的邊緣輪廓,引入了圖像預(yù)處理方法來避免影響因素的干擾,但是卻增加了算法的復(fù)雜性。隨著深度學(xué)習(xí)的發(fā)展,基于深度學(xué)習(xí)的邊緣輪廓提取算法HED[7]、RCF[8]、BDCN[9]、VCF[10]、DexiNed[11]、FMLED[12]等相繼被提出。雖然基于深度學(xué)習(xí)的邊緣輪廓提取算法摒棄了圖像預(yù)處理方法,降低了邊緣輪廓提取的復(fù)雜性,減少了噪聲點(diǎn)的出現(xiàn)和邊緣輪廓點(diǎn)的缺失,但是提取出的邊緣輪廓粗糙且模糊,無法滿足單像素邊緣輪廓的要求。針對(duì)基于深度學(xué)習(xí)的邊緣輪廓提取算法提取出的邊緣輪廓粗糙且模糊的問題,景年昭等[13]提出一種基于RCF的端到端的精細(xì)邊緣輪廓提取算法,馬偉等[14]提出一種自頂向下導(dǎo)引式逐層融合的物體邊緣輪廓檢測算法,DENG等[15]提出一種自底向上/自頂向下體系結(jié)構(gòu)的端到端網(wǎng)絡(luò)LPCB(learning to predict crisp boundaries),雖然以上三種算法提取出的邊緣輪廓更細(xì)、更清晰,但是不能滿足單像素邊緣輪廓的要求。楊艷、李龍等[16-17]先利用基于深度學(xué)習(xí)的邊緣輪廓提取算法進(jìn)行邊緣輪廓提取,再采用邊緣輪廓細(xì)化算法細(xì)化邊緣輪廓,雖然達(dá)到了單像素邊緣輪廓的要求,但是卻增加了算法的復(fù)雜性。
針對(duì)上述邊緣輪廓提取算法的不足,以及零件表面的反光屬性、光照強(qiáng)度不均勻及加工打磨痕跡會(huì)對(duì)其邊緣輪廓提取造成影響,所以本文提出一種基于DSnet分割網(wǎng)絡(luò)與最外圍約束算法相結(jié)合的邊緣輪廓提取方法。在不使用圖像預(yù)處理方法和邊緣輪廓細(xì)化算法的情況下,仍然可以提取出完整的、單像素的零件邊緣輪廓,減小了算法的復(fù)雜性,而且不會(huì)受到光照強(qiáng)度等干擾因素的影響而產(chǎn)生噪聲點(diǎn)和毛刺,提高邊緣輪廓精度的同時(shí)防止影響因素的干擾。
ResNet網(wǎng)絡(luò)最大的創(chuàng)新點(diǎn)就是提出了殘差結(jié)構(gòu),如圖1所示。其中,x代表輸入,F(xiàn)(x)代表殘差映射,H(x)代表理想映射,通過將擬合殘差映射F(x)轉(zhuǎn)變?yōu)閿M合理想映射H(x),將輸出轉(zhuǎn)變?yōu)檩斎牒蜌埐钣成涞寞B加[18]。
圖1 ResNet網(wǎng)絡(luò)殘差結(jié)構(gòu)
其中,殘差結(jié)構(gòu)計(jì)算公式如式(1)和式(2)所示,xl為l層的輸入;xl+1為l層的輸出,f為Relu激活函數(shù);F為殘差函數(shù)。從淺層l到深層L的輸出,如式(3)所示,利用鏈?zhǔn)揭?guī)則,可以求得反向過程的梯度表達(dá)式如式(4)所示,可以看出,從L層到l層有兩條傳播途徑,即括號(hào)中無損梯度“1”和殘差梯度,無損梯度“1”不經(jīng)過任何中間層,可以起到緩解梯度消失的作用,對(duì)于殘差梯度,其值為-1的可能性非常小,這樣就保證了梯度不會(huì)消失,進(jìn)而可以使網(wǎng)絡(luò)層數(shù)變的更深,網(wǎng)絡(luò)更容易訓(xùn)練。
yl=xl+F(xl,Wl)
(1)
xl+1=f(yl)
(2)
(3)
(4)
ResNet50[19]網(wǎng)絡(luò)的核心模塊Conv_block和Identity_block,在殘差結(jié)構(gòu)的基礎(chǔ)上,添加了1×1、3×3卷積,網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。其中,第一個(gè)1×1卷積用于進(jìn)行通道降維,3×3卷積用于提取特征信息,第二個(gè)1×1卷積用于進(jìn)行通道升維。防止梯度消失的同時(shí),降低網(wǎng)絡(luò)的參數(shù)量和計(jì)算量。而且Conv_block在identity處添加了1×1卷積,保證輸入與殘差映射的維度相同。
圖2 ResNet50網(wǎng)絡(luò)核心模塊結(jié)構(gòu)
目前,Unet[20]分割網(wǎng)絡(luò)、PSPnet[21]分割網(wǎng)絡(luò)和Deeplabv系列[22-25]分割網(wǎng)絡(luò)在分割領(lǐng)域取得了不錯(cuò)的分割效果,但是,PSPnet分割網(wǎng)絡(luò)和Deeplab系列分割網(wǎng)絡(luò)只專注于深層語義分割特征信息和全局分割特征信息的提取,忽略了淺層分割特征信息和局部分割特征信息,Unet分割網(wǎng)絡(luò)雖然結(jié)合了淺層和深層的分割特征信息,但是特征提取網(wǎng)絡(luò)層數(shù)太淺,無法提取到更深層、更關(guān)鍵的分割特征信息,針對(duì)上述分割網(wǎng)絡(luò)存在的問題,本文提出一種模型結(jié)構(gòu)如圖3所示的分割網(wǎng)絡(luò)DSnet(deep Segmentation network),由主干特征提取網(wǎng)絡(luò)(綠色虛線框內(nèi))、加強(qiáng)特征提取網(wǎng)絡(luò)(藍(lán)色虛線框內(nèi))和分割預(yù)測網(wǎng)絡(luò)(橘黃色虛線框內(nèi))組成。
圖3 DSnet網(wǎng)絡(luò)模型結(jié)構(gòu)
1.2.1 主干特征提取網(wǎng)絡(luò)
基于ResNet50網(wǎng)絡(luò)深度和有效防止梯度消失的特點(diǎn),本文選用ResNet50網(wǎng)絡(luò)作為主干特征提取網(wǎng)絡(luò)(去除了average pooling2D層、Flatten層和全連接層),相比于Unet網(wǎng)絡(luò)的特征提取網(wǎng)絡(luò),網(wǎng)絡(luò)層數(shù)更深,可以提取更深層次的細(xì)節(jié)信息和分割信息。由于不同層次、不同尺度的分割特征圖像的感受野,和所包含的分割特征信息不同,所以為了將淺層和深層分割特征信息利用起來,更好、更全面的提取所有分割特征信息,將主干特征提取網(wǎng)絡(luò)ResNet50由淺層到深層分為5個(gè)分割特征提取網(wǎng)絡(luò),分別為Stage1、Stage2、Stage3、Stage4、Stage5,每個(gè)網(wǎng)絡(luò)的輸出特征圖像大小分別為輸入圖像的1/2、1/4、1/8、1/16、1/32,利用以上5個(gè)分割特征提取網(wǎng)絡(luò)獲取5張不同分割特征信息、不同尺度和不同層次的分割特征圖像。
1.2.2 加強(qiáng)特征提取網(wǎng)絡(luò)
加強(qiáng)特征提取網(wǎng)絡(luò)先采用Upsampling將Stage5網(wǎng)絡(luò)輸出的深層分割特征圖像進(jìn)行上采樣,恢復(fù)成與Stage4網(wǎng)絡(luò)輸出的次深層分割特征圖像同樣大小,并與Stage4網(wǎng)絡(luò)輸出的次深層分割特征圖像進(jìn)行融合(Concat),結(jié)合深層和次深層分割特征信息后,將融合后的分割特征圖像進(jìn)行兩次3×3卷積操作加強(qiáng)融合分割特征信息的提取。如此再進(jìn)行三次上采樣、融合、卷積操作,進(jìn)而可以融合和提取Stage3、Stage2和Stage1的分割特征信息。通過對(duì)Stage1、Stage2、Stage3、Stage4、Stage5的輸出特征圖像由深到淺進(jìn)行特征融合和加強(qiáng)特征提取,融合不同層次的分割特征信息,提取不同尺度的細(xì)節(jié)分割特征信息,加強(qiáng)分割特征信息的提取能力。
1.2.3 分割預(yù)測網(wǎng)絡(luò)
分割預(yù)測網(wǎng)絡(luò)先采用上采樣層將加強(qiáng)特征提取網(wǎng)絡(luò)輸出的分割特征圖像進(jìn)行上采樣,恢復(fù)成原圖大小,再通過兩次3×3卷積操作進(jìn)行最終的分割特征信息提取,然后采用Softmax函數(shù)將不同類別的特征信息數(shù)據(jù)的輸出數(shù)值轉(zhuǎn)化為相對(duì)應(yīng)的概率值,然后對(duì)不同類別的樣本數(shù)據(jù)進(jìn)行分類,最后輸出分割預(yù)測圖像。其中,Softmax計(jì)算方法如式(5)所示。
(5)
式中,xi為第i個(gè)輸入;yi為與之對(duì)應(yīng)的預(yù)測類別;φl(xi)為輸入xi后第l個(gè)類的輸出;P(yi=l|xi,φ)為輸入xi預(yù)測為類別l的概率。
1.2.4 損失函數(shù)及優(yōu)化函數(shù)
在圖像語義分割任務(wù)中,對(duì)于輸入的樣本數(shù)據(jù),經(jīng)常出現(xiàn)負(fù)樣本個(gè)數(shù)遠(yuǎn)超正樣本個(gè)數(shù)的情況,導(dǎo)致正負(fù)樣本極不平衡,如果只使用一種損失函數(shù),負(fù)樣本會(huì)主導(dǎo)模型的訓(xùn)練過程,忽略了正樣本的學(xué)習(xí),導(dǎo)致訓(xùn)練不穩(wěn)定,模型分割能力下降,所以本文在前向傳播更新權(quán)值參數(shù)階段,所使用的損失函數(shù)由兩部分組成,分別為交叉熵?fù)p失函數(shù)(cross entropy loss)和Dice Loss損失函數(shù),交叉熵?fù)p失函數(shù)用于監(jiān)督實(shí)際輸出值與樣本真實(shí)值的接近程度,Dice Loss損失函數(shù)用于監(jiān)督模型的分割效果,同時(shí)采用以上兩種損失函數(shù)監(jiān)督網(wǎng)絡(luò),平衡正負(fù)樣本的學(xué)習(xí)比例,增加模型的收斂速度,提升模型分割能力。交叉熵?fù)p失函數(shù)公式如式(6)所示,Dice Loss損失函數(shù)公式如式(8)所示。
(6)
a=σ(∑ωj×xj+b)
(7)
(8)
式中,a為神經(jīng)元的實(shí)際輸出;σ為激活函數(shù);xj為神經(jīng)元的輸入;y為期望輸出;wj和b分別為神經(jīng)元的權(quán)重和偏置;X為分割標(biāo)簽圖像;Y為分割預(yù)測圖像;|X∩Y|為X和Y之間的交集;|X|和|Y|分別為X和Y的像素點(diǎn)的個(gè)數(shù);γ是常數(shù),為了保證分母不為0;Dice為集合相似度度量函數(shù),用于計(jì)算分割標(biāo)簽圖像與分割圖像之間的相似度,相似度越大,DiceLoss越小,網(wǎng)絡(luò)訓(xùn)練的越好。
為了減小損失函數(shù)數(shù)值,縮小實(shí)際輸出值與樣本真實(shí)值的差距,增加分割標(biāo)簽圖像與分割圖像之間的相似度,在反向傳播更新權(quán)值參數(shù)階段,本文選用自適應(yīng)矩估計(jì)(Adam)函數(shù)作為優(yōu)化函數(shù),利用梯度的一階矩估計(jì)和二階矩估計(jì),動(dòng)態(tài)的調(diào)整學(xué)習(xí)率,尋找到最優(yōu)的權(quán)重參數(shù),公式如式(9)~式(13)所示。
mt=μ×mt-1+(1-μ)×gt
(9)
(10)
(11)
(12)
(13)
LU等[26]提出了最外圍約束算法,算法過程如圖4所示,即先生成與分割圖像(0,1)大小相同的行、列圖像,像素點(diǎn)的像素值均設(shè)置為0,然后對(duì)分割圖像(0,1)進(jìn)行搜索,找到滿足兩個(gè)條件的所有行邊緣輪廓點(diǎn):像素值為1,像素值從1移動(dòng)到0,或者從0移動(dòng)到1;在新生成的行圖像中,將相同位置像素點(diǎn)的像素值設(shè)置為1,從而檢測每一行的邊緣輪廓點(diǎn)。接著對(duì)分割圖像(0,1)進(jìn)行列搜索,找到滿足兩個(gè)條件的所有列邊緣輪廓點(diǎn):像素值為1,像素值從1移動(dòng)到0,或者從0移動(dòng)到1;在新生成的列圖像中,將相同位置像素點(diǎn)的像素值設(shè)置為1,從而檢測每一列的邊緣輪廓點(diǎn)。最后合并行邊緣輪廓圖像和列邊緣輪廓圖像,從而得到邊緣輪廓圖像。
圖4 最外圍約束算法邊緣輪廓提取過程示意圖
本文設(shè)計(jì)的零件邊緣輪廓提取算法由兩部分組成,首先利用DSnet分割網(wǎng)絡(luò)進(jìn)行圖像分割操作,獲得分割邊界明顯的分割圖像,然后采用最外圍約束算法對(duì)分割圖像進(jìn)行邊緣輪廓提取,得到邊緣輪廓圖像,算法流程如圖5所示。采用預(yù)先訓(xùn)練好的DSnet權(quán)重進(jìn)行參數(shù)微調(diào),加快梯度下降的收斂速度,并減少訓(xùn)練時(shí)間。DSnet網(wǎng)絡(luò)由主干特征提取網(wǎng)絡(luò)進(jìn)行不同層次、不同尺度的分割特征信息提取,并通過加強(qiáng)特征提取網(wǎng)絡(luò)融合深層和淺層分割信息,降低誤分割的概率,最后通過分割預(yù)測網(wǎng)絡(luò),實(shí)現(xiàn)端到端的輸出。數(shù)據(jù)集輸入到DSnet網(wǎng)絡(luò)中,微調(diào)參數(shù)后進(jìn)行訓(xùn)練,當(dāng)訓(xùn)練及驗(yàn)證損失值(loss)下降到一定范圍內(nèi)時(shí),停止訓(xùn)練。然后用訓(xùn)練好的DSnet網(wǎng)絡(luò)模型,對(duì)測試集中的圖片進(jìn)行分割預(yù)測,然后利用最外圍約束算法進(jìn)行邊緣輪廓提取,最后查看分割效果和邊緣輪廓提取效果。
圖5 算法過程示意圖
為了驗(yàn)證本文提出的邊緣輪廓提取算法的可行性和抗干擾能力,選用反光屬性較強(qiáng)和加工打磨刀痕較多的發(fā)動(dòng)機(jī)主軸承蓋零件作為實(shí)驗(yàn)對(duì)象,采用本文提出的邊緣輪廓提取算法,提取發(fā)動(dòng)機(jī)主軸承蓋零件邊緣輪廓,具體步驟如下:
步驟1:獲取發(fā)動(dòng)機(jī)主軸承蓋零件原始圖像;
步驟2:將其輸入到利用數(shù)據(jù)集已經(jīng)訓(xùn)練好的DSnet網(wǎng)絡(luò)模型中,對(duì)圖像進(jìn)行分割操作,獲得發(fā)動(dòng)機(jī)主軸承蓋零件分割圖像;
步驟3:使用最外圍約束算法,對(duì)發(fā)動(dòng)機(jī)主軸承蓋零件分割圖像進(jìn)行邊緣檢測,并輸出發(fā)動(dòng)機(jī)主軸承蓋零件邊緣輪廓圖像。
通過以上步驟對(duì)發(fā)動(dòng)機(jī)主軸承蓋零件原始圖像進(jìn)行優(yōu)化處理之后,可以看到最終的結(jié)果如圖6所示的步驟3中所示,本文算法在未使用復(fù)雜的圖像預(yù)處理技術(shù)的情況下,有效的防止了反光屬性強(qiáng)、加工打磨刀痕等因素的干擾,沒有出現(xiàn)噪聲點(diǎn)和毛刺,并且提取出了完整的、單像素的發(fā)動(dòng)機(jī)主軸承蓋零件邊緣輪廓。
圖6 邊緣輪廓提取示意圖
為了驗(yàn)證提出的DSnet分割算法是否在圖像分割精度上有一定提升,本文選用PSPnet分割算法、Deeplabv3+分割算法和Unet分割算法,使用相同的訓(xùn)練數(shù)據(jù)和預(yù)訓(xùn)練權(quán)重參數(shù)進(jìn)行訓(xùn)練,然后對(duì)訓(xùn)練好的模型,使用發(fā)動(dòng)機(jī)主軸承蓋零件原始圖像進(jìn)行對(duì)比驗(yàn)證。DSnet分割算法、PSPnet分割算法、Deeplabv3+分割算法、Unet分割算法的分割表現(xiàn)如圖7所示??梢钥闯觯琔net分割算法的分割效果較好,但是會(huì)出現(xiàn)孤立的噪聲點(diǎn)和毛刺(第三幅圖圈內(nèi)),PSPnet分割算法在分割邊緣處的分割效果不好,缺失了部分邊緣分割點(diǎn);Deeplabv3+分割算法和本文提出的DSnet分割算法的分割效果更好,更接近分割標(biāo)簽圖像,且沒有出現(xiàn)孤立的噪聲點(diǎn)和毛刺。為了更好的體現(xiàn)DSnet分割算法的分割性能,采用神經(jīng)網(wǎng)絡(luò)圖像分割算法領(lǐng)域中,常用的衡量關(guān)于圖像分割精度的幾個(gè)重要的評(píng)價(jià)指標(biāo):像素準(zhǔn)確率(PA),類別平均像素準(zhǔn)確率(MPA)以及平均交并比(MIoU),評(píng)價(jià)指標(biāo)比較結(jié)果如表1所示。
圖7 DSnet與各算法分割結(jié)果對(duì)比圖
表1 DSnet與各算法評(píng)價(jià)指標(biāo)結(jié)果對(duì)比 (%)
從表1中可以看出,DSnet分割算法,像素準(zhǔn)確率(PA)為99.58%,類別平均像素準(zhǔn)確率(MPA)為99.21%,平均交并比(MIoU)為98.33%,均領(lǐng)先于PSPnet分割算法、Deeplabv3+分割算法和Unet分割算法。結(jié)合分割結(jié)果和分割評(píng)價(jià)指標(biāo),DSnet分割算法對(duì)比PSPnet分割算法、Deeplabv3+分割算法、Unet分割算法,在分割精度上有一定優(yōu)勢,證明結(jié)合深層分割特征信息和淺層分割特征信息,增加特征提取網(wǎng)絡(luò)的深度,會(huì)提高分割精度,而且可以防止噪聲點(diǎn)和毛刺的出現(xiàn)。
以上述分割算法的分割結(jié)果圖像作為研究對(duì)象,采用最外圍約束算法進(jìn)行邊緣輪廓提取,各算法的邊緣輪廓提取結(jié)果如圖8所示,Unet-最外圍約束算法提取的邊緣輪廓較好,但是會(huì)出現(xiàn)孤立的噪點(diǎn)和毛刺(第三幅圖圈內(nèi))。PSPnet最外圍約束算法提取的邊緣輪廓在角點(diǎn)附近的邊緣變平滑,與標(biāo)簽邊緣輪廓相差較大,與PSPnet最外圍約束算法相反,Deeplabv3+最外圍約束算法和DSnet最外圍約束算法提取的邊緣輪廓更接近標(biāo)簽邊緣輪廓。為了更好、更準(zhǔn)確對(duì)比各算法之間的邊緣輪廓提取精度,采用圖像邊緣輪廓評(píng)價(jià)指標(biāo)中的結(jié)構(gòu)相似度(SSIM)、峰值信噪比(PSNR)、均方根誤差(RMSE),分析邊緣輪廓提取效果,結(jié)果如表2所示。可以看出,DSnet最外圍約束算法提取結(jié)果的總體RMSE為11.18,PSNR為27.76,SSIM為0.989 3,均高于PSPnet最外圍約束算法、Deeplabv3+最外圍約束算法和Unet最外圍約束算法,說明本文算法擁有很高的精確度,而且綜合分割結(jié)果和邊緣輪廓提取結(jié)果,可以看出,分割精度越高、分割效果越好,邊緣輪廓提取精度就越高、邊緣輪廓效果就越好。
圖8 DSnet-最外圍約束算法與各算法邊緣輪廓提取結(jié)果對(duì)比
表2 DSnet最外圍約束算法與各算法評(píng)價(jià)指標(biāo)結(jié)果對(duì)比
為了更好地體現(xiàn)本文算法在精度上有一定進(jìn)步,選用傳統(tǒng)算法中邊緣輪廓提取效果較好的Canny、Sobel、Roberts、Log四種算法對(duì)零件原始圖像進(jìn)行邊緣輪廓提取。提取結(jié)果如圖9所示。從圖中可以看出,上述4種邊緣輪廓提取算法的邊緣輪廓提取效果不好,原因是因?yàn)闊o法克服光照強(qiáng)度及零件表面加工打磨刀痕等因素的影響,導(dǎo)致提取出的邊緣輪廓不完整,缺失了部分邊緣輪廓點(diǎn),而且還出現(xiàn)了不同程度的噪聲點(diǎn)。同樣采用圖像邊緣輪廓評(píng)價(jià)指標(biāo)中的結(jié)構(gòu)相似度(SSIM)、峰值信噪比(PSNR)、均方根誤差(RMSE),分析邊緣輪廓提取效果。從表3中可以看出,DSnet-最外圍約束算法的各項(xiàng)評(píng)價(jià)指標(biāo)均領(lǐng)先于Canny、Sobel、Roberts、Log邊緣輪廓提取算法,體現(xiàn)出本文邊緣輪廓提取算法的精度優(yōu)勢。
圖9 DSnet-最外圍約束算法與傳統(tǒng)邊緣輪廓提取算法提取結(jié)果對(duì)比
表3 DSnet-最外圍約束算法與傳統(tǒng)邊緣輪廓提取算法評(píng)價(jià)指標(biāo)結(jié)果對(duì)比
綜合上述所有邊緣輪廓提取算法的邊緣輪廓提取結(jié)果和評(píng)價(jià)指標(biāo)結(jié)果,可以看出,DSnet最外圍約束算法的邊緣輪廓提取精度,均領(lǐng)先于其他邊緣輪廓提取算法,提取出的邊緣輪廓效果更好,精度更高,而且還可以有效防止光照強(qiáng)度等影響因素的干擾,說明本文設(shè)計(jì)的邊緣輪廓提取算法,更適合用于對(duì)零件進(jìn)行邊緣輪廓提取。
本文首先提出了DSnet分割網(wǎng)絡(luò),然后結(jié)合最外圍約束算法,以發(fā)動(dòng)機(jī)主軸承蓋零件作為實(shí)驗(yàn)對(duì)象,對(duì)其進(jìn)行邊緣輪廓提取。從實(shí)驗(yàn)結(jié)果來看,本文算法可以在光照強(qiáng)度不均勻等因素的影響下,提取出完整的、單像素的發(fā)動(dòng)機(jī)主軸承蓋零件邊緣輪廓。為了體現(xiàn)本文算法的優(yōu)勢,分別與其他邊緣輪廓提取算法進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,本文算法的邊緣輪廓提取能力更強(qiáng),邊緣輪廓精度更高,邊緣輪廓提取效果更好,而且摒棄了圖像的預(yù)處理操作,簡化邊緣輪廓的提取步驟,為工業(yè)零件邊緣輪廓提取提供一種新思路。