王曉明 溫銳 姚道金 董文濤
摘要:針對當前基于語義分割的開口銷缺陷檢測算法存在分割精度不高、檢測效率低等問題,提出一種基于改進DeepLabv3+的接觸網(wǎng)開口銷缺陷檢測方法。首先,采用減枝后的MobileNetv2作為DeepLabv3+的骨干特征提取網(wǎng)絡(luò),提高檢測效率。然后,通過在DeepLabv3+的編碼器網(wǎng)絡(luò)中引入CBAM注意力機制,提高開口銷語義分割精度。同時,為緩解開口銷區(qū)域和背景之間不平衡帶來的負面影響,采用CEDice Loss作為損失函數(shù)。最后,根據(jù)開口銷語義分割圖像的顏色、形態(tài)信息,對開口銷進行缺陷識別。實驗結(jié)果表明:在語義分割方面,相比于原DeepLabv3+模型,改進DeepLabv3+模型的平均像素準確率和平均交并比分別提高了3.54%和3.42%,且測試用時減少了14.41 ms/張,模型參數(shù)量縮減了88.61%;在缺陷識別方面,對開口銷缺失,松脫,正常三種狀態(tài)的識別準確率分別為100%,98.1%,99.5%,能夠快速有效地識別出開口銷缺陷。
關(guān)鍵詞:開口銷;缺陷檢測;DeepLabv3+;MobileNetv2;CBAM
中圖分類號:U225.4 文獻標志碼:A
本文引用格式:王曉明,溫銳,姚道金,等. 基于改進DeepLabv3+的接觸網(wǎng)開口銷缺陷檢測[J]. 華東交通大學學報,2023,40(5):120-126.
Defect Detection of the Split Pins in Catenary Based?on Improved DeepLabv3+
Wang Xiaoming, Wen Rui, Yao Daojin, Dong Wentao
(School of Electrical and Automation Engineering, East China Jiaotong University, Nanchang 330013, China)
Abstract:Aiming at the problems of low segmentation accuracy and low detection efficiency of split pin defect detection algorithms based on semantic segmentation, this paper proposes an improved method of split pin defect detection for catenary based on DeepLabv3+. Firstly, the MobileNetv2 network is pruned, and the MobileNetv2 network is replaced with Xception for feature extraction, which can greatly reduce the consumption of computing resources and improve the detection efficiency. Then, CBAM(Convolutional Block Attention Module) is integrated into ASPP(Atrous Spatial Pyramid Pooling) module, and CBAM is introduced to process shallow features of input Decoder network, enhance the perception of split pin edge features, and improve the accuracy of model semantic segmentation. In order to alleviate the negative impact caused by the imbalance between split pin region and background region and improve split pin segmentation accuracy, CEDice Loss is used as the Loss function in this paper, combining the advantages of Cross-Entropy Loss and Dice Loss. Finally, according to the principle of split pin defect discrimination formulated in this paper, the state recognition of split pin is carried out according to the color and shape information of image segmentation. The experimental results show that compared with the original DeepLabv3+ model, the MPA and MIOU of the improved DeepLabv3+ model are improved by 3.54% and 3.42%, respectively, and the testing time is reduced by 14.41 ms per image, and the model parameters is reduced by 88.61%. In terms of defect identification, the accuracy of the method for missing, loose and normal split pins is 100%, 98.1% and 99.5%, respectively, which can quickly and effectively identify split pin defects.
Key words: split pin; defect detection; DeepLabv3+; MobileNetv2; CBAM
Citation format:WANG X M, WEN R,YAO D J,et al. Defect detection of the split pins in catenary based on improved DeepLabv3+[J]. Journal of East China Jiaotong University,2023,40(5):120-126.
近年來,隨著深度學習技術(shù)的不斷發(fā)展以及接觸網(wǎng)懸掛缺陷檢測監(jiān)測裝置(4C裝置)的廣泛應(yīng)用,基于深度學習技術(shù)的接觸網(wǎng)零部件缺陷檢測方法正受到越來越多關(guān)注。Jiang等[1]提出一種基于改進Faster R-CNN的接觸網(wǎng)絕緣子識別算法。Wu等[2]先采用基于級聯(lián)的YOLO對接觸網(wǎng)支撐裝置上的緊固件進行定位,再利用RRNet(rotation retina net)對緊固件進行缺陷識別。楊豐萍等[3]提出了一種基于深度學習的絕緣子自爆缺陷檢測方法。顧桂梅等[4]提出一種基于YOLOv5s的接觸網(wǎng)吊弦線和載流環(huán)缺陷識別算法??蹈邚姷萚5]在開口銷釘缺失故障檢測中,通過構(gòu)建集成分類器進行開口銷故障識別。王昕鈺等[6]利用DCGAN(deep convolutional generative adversarial network)生成模擬開口銷缺陷樣本,VGG16分類網(wǎng)絡(luò)進行分類。上述研究中在接觸網(wǎng)零部件缺陷檢測中都取得了較好效果,為解決由于缺陷樣本少導致的類別不均衡問題,常采用數(shù)據(jù)增強等方法對缺陷樣本進行擴充,但提升效果有限,且開口銷正常和松脫狀態(tài)特征粒度區(qū)別小,利用訓練分類器的方法很難得到較好的結(jié)果。
隨著圖像語義分割技術(shù)應(yīng)用于接觸網(wǎng)缺陷檢測,為開口銷缺陷檢測提供了新方法。程敦誠等[7]采用Unet[8]算法實現(xiàn)頂緊螺栓的狀態(tài)檢測。羅隆福等[9]利用DeepLabv3+算法和閾值法對頂緊螺栓的進行缺陷判別。Wang等[9]通過DeepLabv3+得到語義分割圖片,然后根據(jù)不同類型開口銷制定不同的分類策略。閔鋒等[10]利用DeepLabv3+算法對接觸網(wǎng)上的開口銷區(qū)域進行語義分割,然后根據(jù)開口銷形態(tài)來進行狀態(tài)檢測。從以上研究可知,基于圖像語義分割技術(shù)的開口銷缺陷檢測已取得一些階段性成果,能更好地解決開口銷類別不均衡問題。但當前開口銷圖像分割精度不高,這直接影響了后續(xù)開口銷缺陷判斷,且當前應(yīng)用于開口銷缺陷檢測的圖像分割算法模型冗余,難以達到實時性檢測要求。
為解決上述研究問題,本文著重研究了DeepLabv3+語義分割模型,對DeepLabv3+語義分割模型進行如下改進:① 使用MobileNetv2作為DeepLabv3+的骨干特征提取網(wǎng)絡(luò);② 在編碼器網(wǎng)絡(luò)中引入CBAM(convolutional block attention module)
注意力模塊;③ 采用Cross-Entropy Loss和Dice Loss的組合作為本文損失函數(shù)。最后,根據(jù)開口銷語義分割圖像的顏色、形態(tài)信息,制定開口銷缺陷判別原理,對開口銷進行缺陷識別。
1 基于改進DeepLabv3+的開口銷語義分割模型
1.1 DeepLabv3+網(wǎng)絡(luò)模型改進
DeepLabv3+網(wǎng)絡(luò)模型結(jié)構(gòu)主要由編碼器(Encoder)和解碼器(Decoder)組成,如圖1所示。在Encoder部分,輸入開口銷圖像經(jīng)過骨干網(wǎng)絡(luò)Xception進行特征提取,獲得兩個不同深度的有效特征層。其中的淺層特征輸入Decoder部分,而深層特征輸入ASPP模塊中。然后,使用空洞空間卷積池化金字塔(atrous spatial pyramid pooling,ASPP)模塊對深層特征進行特征提取。最后,將經(jīng)過ASPP 模塊的特征圖使用1×1卷積調(diào)整通道數(shù)。在Decoder部分,將獲得的淺層特征經(jīng)過1×1卷積后,與深層語義特征進行融合。融合特征圖經(jīng)過3×3卷積和上采樣后,得到輸出結(jié)果。
R(Rate)表示膨脹率,ASPP 模塊由 4 個卷積并行和池化層組成,其中 4 個并行卷積分別是一個 1×1的標準卷積和膨脹率分別為 6、12、18 的 3 個 3×3 的空洞卷積。
改進DeepLabv3+網(wǎng)絡(luò)模型結(jié)構(gòu)如圖2所示,改進后的DeepLabv3+骨干網(wǎng)絡(luò)采用MobileNetv2實現(xiàn)特征提取,分別在ASPP模塊和編碼器淺層特征提取網(wǎng)絡(luò)中引入CBAM注意力模塊。
1.2 DeepLabv3+骨干網(wǎng)絡(luò)結(jié)構(gòu)改進
MobileNetv2的識別準確率與經(jīng)典骨干特征提取網(wǎng)絡(luò)相當,同時具有較少的參數(shù)量和計算量,較符合實際需求。本文選用MobileNetv2作為模型的骨干網(wǎng)絡(luò),原MobileNetv2網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。
原MobileNetv2網(wǎng)絡(luò)適用于分類任務(wù),但在分割任務(wù)中分割邊界不夠準確。在原MobilenNetv2網(wǎng)絡(luò)中使用了5次步長為2的下采樣,最后輸出特征圖分辨率為輸入的1/32,由于特征提取網(wǎng)絡(luò)層太深,導致丟失部分細節(jié)和邊緣信息。對原MobileNetv2 網(wǎng)絡(luò)進行改進,改進后網(wǎng)絡(luò)結(jié)構(gòu)如表2所示。其中:Operator為不同網(wǎng)絡(luò)模塊層;Input為輸入特征圖尺寸;c為特征圖輸出通道數(shù),n為該層模塊使用次數(shù);s為卷積步長。
對比表1,表2可知,為了提高最后輸出特征圖分辨率,將第5層、第7層模塊由原來的步長2改為步長1。此時改進MobileNetv2網(wǎng)絡(luò)的特征圖輸出分辨率比原MobileNetv2網(wǎng)絡(luò)提高4倍,為輸入圖像的1/8,能夠更多保留特征圖中細節(jié)信息。由表1可知,在第8層之后通道數(shù)提高至1 280,參數(shù)量大大增加。對原MobileNetv2網(wǎng)絡(luò)進行剪枝,丟棄用于實現(xiàn)分類的后3層。
1.3 引入CBAM注意力機制
ASPP模塊采用過大的膨脹率R會使網(wǎng)絡(luò)無法很好地提取特征信息,同時也會影響開口銷局部特征之間的關(guān)聯(lián),使得開口銷表達能力變?nèi)酰档烷_口銷圖像分割精度。為增強對開口銷邊緣特征的感知,本文將CBAM注意力機制集成到ASPP模塊中,同時引入CBAM對輸入Decoder網(wǎng)絡(luò)的淺層特征進行處理,調(diào)整特征通道的權(quán)重份額,重點關(guān)注開口銷邊界區(qū)域的顯著性特征,提高模型圖像分割的精度。
在Channel Attention Module部分,輸入特征圖F經(jīng)過最大池化(MaxPool)和平均池化(AvgPool)后,得到兩組特征圖輸入共享多層感知器網(wǎng)絡(luò)(Share MLP),然后通過逐元素相加和Sigmoid函數(shù)得到通道權(quán)重系數(shù)Mc(F)。最后將輸出的Mc(F)與特征圖F相乘,得到特征圖F′。 在Spatial Attention Module部分,特征圖F′經(jīng)過MaxPool和AvgPool后,將得到的兩個特征圖進行拼接,然后利用7×7卷積調(diào)整通道數(shù),再通過Sigmoid函數(shù)得到空間權(quán)重系數(shù)Ms(F′),最后將Ms(F′)與F′相乘得到特征圖F"。
1.4 損失函數(shù)
在語義分割領(lǐng)域,交叉熵損失(cross-entropy loss,CE Loss)是最常用的損失函數(shù)。CE Loss計算式為
式中:N為總像素數(shù);M為總類別數(shù);i為訓練像素;j為訓練像素的類別;y為訓練像素標注的真實類別;iM為訓練像素預測的類別。在本文數(shù)據(jù)集中,開口銷圖像分為開口銷頭部,尾部和背景,因此M為3。
CE Loss將圖像中所有像素均勻地作為一個整體來計算,但在本文數(shù)據(jù)集中開口銷在整個圖像中占據(jù)的區(qū)域較少,開口銷區(qū)域和背景區(qū)域不平衡。網(wǎng)絡(luò)在訓練過程中傾向于學習背景特征,導致開口銷分割精度較低。Milletari等[11]提出了一種基于Dice系數(shù)的損失函數(shù)Dice Loss,該損失函數(shù)可以緩解數(shù)據(jù)集中目標區(qū)域與背景區(qū)域不平衡所帶來的負面影響。Dice Loss計算式為
式中:X為真實分割圖像的像素標簽;Y為預測分割圖像的像素類別;μ用于防止分母為0,值設(shè)為1×10-6。
在訓練過程中,Dice Loss更關(guān)注目標區(qū)域,更傾向于挖掘目標區(qū)域。但Dice Loss函數(shù)容易陷入局部最優(yōu)解,導致訓練不穩(wěn)定,不利于模型收斂??紤]到開口銷數(shù)據(jù)集的特點,本文使用的損失函數(shù)為CEDice Loss,它是CE Loss和Dice Loss的結(jié)合,其函數(shù)表達式如
2 開口銷缺陷識別
2.1 開口銷種類和狀態(tài)
開口銷種類和狀態(tài)示意圖如圖3所示,根據(jù)開口銷安裝位置不同,大致可以將開口銷分為兩類,分別記為SP_A和SP_B。圖3分別展示了這兩類開口銷的正常,松脫和缺失三個狀態(tài)。
2.2 缺陷判別原理
開口銷的形狀多變,且由于拍攝角度不同可能導致開口銷的頭部、尾部被遮擋,因此本文主要根據(jù)語義分割圖像的顏色進行判別。在語義分割圖像中,紅色表示開口銷頭部,綠色表示開口銷尾部,背景為黑色。
若語義分割得到的圖像顏色為全黑,則判斷為開口銷缺失,語義分割圖像中含有紅色、綠色區(qū)域則進入下一步判斷。為減小噪聲干擾,本文加入了一個面積閾值,若語義分割圖像的紅色和綠色區(qū)域面積都小于閾值時,則判斷為開口銷缺失;若語義分割圖像的紅色或綠色區(qū)域面積大于閾值,則判斷開口銷沒有缺失,進入下一步判斷。
圖4為開口銷松脫狀態(tài)判別過程,當語義分割圖像中存在紅色和綠色區(qū)域粘連的情況,則確定存在松脫區(qū)域,如圖4(b)所示的綠色區(qū)域。當不存在松脫區(qū)域時,判斷開口銷處于正常狀態(tài);若存在松脫區(qū)域,進入下一步判斷。
開口銷頭部與松脫區(qū)域如圖4(b)所示,開口銷在圖像中比例不一,因此選擇取長度比值作為標準,通過opencv庫函數(shù)獲取開口銷頭部和松脫區(qū)域的最小外接圓,求得長度D1和D2,如圖4(c)所示。然后判斷D2/D1的值是否大于閾值,若D2/D1大于閾值,則開口銷松脫,否則開口銷正常。設(shè)定合適的閾值,即可判斷開口銷的狀態(tài),在本文中SP_A類開口銷閾值設(shè)為1.2,SP_B類開口銷閾值設(shè)為1.25。
3 實驗與分析
3.1 實驗環(huán)境及參數(shù)設(shè)置
為實驗硬件環(huán)境配置軟件環(huán)境為:CUDA 11.3,Pytorch 1.11,Python 3.8,Ubuntu 18.04等。
實驗訓練設(shè)置如下:選擇SGD優(yōu)化器,訓練周期為100,批處理大小為8。本實驗使用了預訓練模型,加快模型收斂。
3.2 數(shù)據(jù)集
以4C檢測車拍攝所得的南昌—九江鐵路線接觸網(wǎng)圖像為研究的基礎(chǔ)數(shù)據(jù),選取接觸網(wǎng)支撐裝置上的套管單耳、套管雙耳和腕臂底座處的開口銷作為實驗數(shù)據(jù)集樣本,將其從接觸網(wǎng)原圖中截取出來,統(tǒng)一縮放為224×224像素。使用圖像數(shù)據(jù)標注工具Lableme進行多邊形標注,共標注 1 249張開口銷圖像,并按照 8∶2 比例隨機劃分訓練集和測試集。
3.3 評價指標
為客觀評價圖像分割模型在開口銷語義分割中的性能,采用平均像素準確率(mean pixel accuracy,MPA)、平均交并比(mean intersection over union,MIoU)、模型參數(shù)量和每張圖像的測試用時作為評價指標來評估圖像分割模型性能。MPA側(cè)重體現(xiàn)像素級的準確率,MIoU側(cè)重體現(xiàn)分割區(qū)域的完整性和分割位置的準確性,計算式如
式中:k表示目標類別數(shù);pii表示預測正確的像素數(shù)量;pij表示第i類被預測為第j類的像素數(shù)量;pji表示第j類被預測為第i類的像素數(shù)量。
3.4 不同圖像分割模型的對比實驗
為驗證改進DeepLabv3+模型在開口銷圖像分割中的效果,將Imp-DeepLabv3+與UNet、PSPNet[14]和標準DeepLabv3+模型進行對比實驗。不同模型的開口銷圖像分割結(jié)果如圖5所示,從開口銷的分割結(jié)果可看出,UNet和PSPNet模型有時無法正確區(qū)分背景和開口銷尾部,如圖5(a)所示,開口銷尾部出現(xiàn)了錯誤分割。與UNet和PSPNet相比,雖然標準DeepLabv3+模型能較準確地從圖像中分割出開口銷,但還是丟失了部分邊緣細節(jié)特征。Imp-DeepLabv3+模型能較準確識別開口銷邊緣細節(jié)特征,可以和開口銷實際邊界更有效擬合。
開口銷圖像分割實驗中訓練過程的損失曲線如圖6所示??傮w來看,損失都在第60輪左右趨于平穩(wěn),說明模型已收斂至穩(wěn)定。相較于UNet,PSPNet和標準DeepLabv3+模型, Imp-DeepLabv3+模型收斂性更強,后期波動小。
由表3不同圖像分割模型性能指標可知,Imp-DeepLabv3+模型的MPA為94.66%,MIoU達到 89.76%,MPA和MIoU分別比標準DeepLabv3+模型提高了3.54%和3.42%,均優(yōu)于UNet和PSPNet模型。這是因為添加CBAM 模塊和改進損失函數(shù)后,突出開口銷邊緣區(qū)域顯著特征,提高模型特征表達能力。由于改進DeepLabv3+模型使用MobileNetv2作為骨干網(wǎng)絡(luò),減少了模型參數(shù)量。相較于DeepLabv3模型,Imp-DeepLabv3+模型的參數(shù)量只有6.23 M個,模型參數(shù)量縮減了88.61%;測試用時為18.57 ms/張,減少了14.41 ms/張。因此,Imp-DeepLabv3+更易滿足開口銷圖像分割的精度和實時性要求。
3.5 改進Deeplabv3+模型的消融實驗
為測試和分析引入MobileNetv2骨干網(wǎng)絡(luò)、CBAM 模塊和CEDice Loss對改進 DeepLabv3+模型性能指標的影響,進行消融實驗。由表4可知,以 Mobilenetv2 作為骨干網(wǎng)絡(luò)時,DeepLabv3+模型的參數(shù)量大大減小,提高了測試速度,且分割準確率比原Xception網(wǎng)絡(luò)略有提高。DeepLabv3+模型分別引入CBAM 模塊和CEDice Loss后,MIoU和MPA都有不同程度提高。其中:×表示未引入模塊;√表示引入對應(yīng)模塊。
以MobileNetv2作為骨干網(wǎng)絡(luò)的DeepLabv3+模型為基準,引入CBAM 模塊后,雖然測試用時增加了2.21 ms/張,模型參數(shù)量增加了0.41 M個,但MIoU和MPA分別提高了1.87%和2.61%;引入CEDice Loss后MIoU和MPA分別提高了2.51%和2.4%,對參數(shù)量和測試速度影響很小。將三種改進方法結(jié)合后效果最佳,進一步驗證改進方法的可行性。
3.6 開口銷缺陷識別實驗
為驗證本文缺陷識別方法的有效性,將其與文獻[10]方法、MobileNetv2模型進行對比分析。本文方法按照上文的判別原理對開口銷狀態(tài)進行檢測。MobileNetv2算法以開口銷原始圖片作為訓練數(shù)據(jù)集,得到分類模型。由于開口銷缺陷樣本數(shù)量少,利用Python中imgaug庫函數(shù)對現(xiàn)有的缺陷樣本進行數(shù)據(jù)增強,拓展樣本數(shù)量,最終得到正常、缺失、松脫狀態(tài)的開口銷圖片各600張。上述三種方法對于開口銷三種狀態(tài)的識別準確率如表5所示。
文獻[10]方法和本文方法都是依據(jù)開口銷語義分割圖片顏色進行判別,對于開口銷缺失狀態(tài)的識別準確率幾乎達到了100%。本文方法對開口銷正常、松脫狀態(tài)的識別準確率均優(yōu)于MobileNetv2算法、文獻[10]方法。且本文方法不需要預訓練模型,更加節(jié)省時間,檢測時不需要加載模型,檢測速度快。
4 結(jié)論
1) 采用減枝后的MobileNetv2替換Xception進行特征提取,可大大減少計算資源的消耗,從而提高檢測效率。
2) 通過將CBAM注意力機制集成到ASPP模塊中,同時引入CBAM模塊對輸入Decoder網(wǎng)絡(luò)的淺層特征進行處理,增強對開口銷邊緣特征的感知,提高了模型語義分割的精度。
3) 為緩解開口銷區(qū)域和背景區(qū)域不平衡所帶來的負面影響,提高開口銷分割精度,本文結(jié)合Cross-Entropy Loss和Dice Loss的優(yōu)點,使用CEDice Loss作為損失函數(shù)。
參考文獻:
[1] JIANG X J,DU X L. Railway catenary insulator recognition based on improved faster R-CNN[J]. Automatic Control and Computer Sciences,2023,56(6):62-68.
[2] WU Y P,QIN Y,QIAN Y,et al. Automatic detection of arbitrarily oriented fastener defect in high-speed railway[J].
Automation in Construction,2021,131:103913.
[3] 楊豐萍,彭云帆,李遠征. 基于深度學習的小樣本絕緣子自爆檢測研究[J]. 華東交通大學學報,2022,39(2):110-117.
YANG F P,PENG Y F,LI Y Z. Research on insulator self-explosion detection with small sample based on deep learning[J]. Journal of East China Jiaotong University,2022,39(2):110-117.
[4] 顧桂梅,賈耀華,溫柏康. 基于YOLOv5s的接觸網(wǎng)吊弦線和載流環(huán)缺陷識別算法[J]. 鐵道科學與工程學報,2023,20(3):1066-1076.
GU G M,JIA Y H,WEN B K. Defect identification algorithm of dropper line and current-carrying ring of catenary based on YOLOv5s[J]. Journal of Railway Science and Engineering,2023,20(3):1066-1076.
[5] 康高強,高仕斌,于龍,等. 基于深度學習的高鐵接觸網(wǎng)旋轉(zhuǎn)雙耳開口銷釘缺失故障檢測[J]. 鐵道學報,2020,42 (10):45-51.
KANG G Q,GAO S B,YU L,et al. Fault detection of missing split pins in swivel with clevis in high-speed railway catenary based on deep learning[J]. Journal of the China?Railway Society,2020,42(10):45-51.
[6] 王昕鈺,王倩,程敦誠,等. 基于三級級聯(lián)架構(gòu)的接觸網(wǎng)定位管開口銷缺陷檢測[J]. 儀器儀表學報,2019,40(10):74-83.
WANG X Y,WANG Q,CHENG D C,et al.Detection of split pins defect in catenary positioning tube based on three-level cascade architecture[J]. Chinese Journal of Scientific Instrument,2019,40(10):74-83.
[7] 程敦誠,王倩,吳福慶,等. 基于深度學習的接觸網(wǎng)頂緊螺栓狀態(tài)智能檢測[J]. 鐵道學報,2021,43(11):52-60.
CHENG D C,WANG Q,WU F Q,et al. Research on intelligent detection of state of catenary puller bolt based on deep learning[J]. Journal of the China Railway Society,2021,43(11):52-60.
[8] RONNEBERGER O,F(xiàn)ISCHER P,BROX T. Convolutional networks for biomedical image segmentation[J]. Computer?Science and System Engineering,2023,45(5):2093-2109.
[9] 羅隆福,葉威,王健. 基于深度學習的高鐵接觸網(wǎng)頂緊螺栓的缺陷檢測[J]. 鐵道科學與工程學報,2021,18(3):605-614.
LUO L F,YE W,WANG J. Defect detection of the puller bolt in high-speed railway catenary based on deep learning[J]. Journal of Railway Science and Engineering,2021,18(3):605-614.
[10] 閔鋒,郎達,吳濤. 基于語義分割的接觸網(wǎng)開口銷狀態(tài)檢測[J]. 華中科技大學學報(自然科學版),2020,48(1):77-81.
MIN F,LANG D,WU T. The state detection of split pin in overhead contact system based on semantic segmentation[J]. Journal of Huazhong University of Science and Technology(Natural Science Edition),2020,48(1):77-81.
[11] MILLETARI F,NAVAB N,AHMADI S A. V-Net:Fully convolutional neural networks for volumetric medical image segmentation[J]. Computer Vision and Pattern Recognition,2016,1606:04797.
[12] ZHAO H S,SHI J P,QI X J,et al. Pyramid scene parsing network[J]. Computer Vision and Pattern Recognition,2017,1612:01105.
通信作者:王曉明(1978—),男,副教授,碩士生導師,研究方向為機器視覺。E-mail:2501@ecjtu.edu.cn。
(責任編輯:姜紅貴)