国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于DenseNet和ResNet融合的發(fā)動(dòng)機(jī)孔探圖像分類(lèi)研究

2021-10-01 16:30敖良忠馬瑞陽(yáng)楊學(xué)文

敖良忠 馬瑞陽(yáng) 楊學(xué)文

摘 要:孔探是檢測(cè)發(fā)動(dòng)機(jī)內(nèi)部損傷最重要的手段之一。為了解決發(fā)動(dòng)機(jī)孔探檢查中孔探人員主要依靠經(jīng)驗(yàn)對(duì)損傷進(jìn)行界定的問(wèn)題,研究了基于DenseNet和ResNet融合的新型單通道網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)對(duì)發(fā)動(dòng)機(jī)部件的分類(lèi),為后期孔探缺陷自動(dòng)識(shí)別建立基礎(chǔ)。通過(guò)對(duì)某大修廠(chǎng)孔探數(shù)據(jù)和自建數(shù)據(jù)進(jìn)行處理,完成了孔探圖像分類(lèi)數(shù)據(jù)集的構(gòu)建;訓(xùn)練新型的49層網(wǎng)絡(luò)模型,在自建數(shù)據(jù)集測(cè)試集上測(cè)試的準(zhǔn)確率和平均召回率分別為96.0%和95.9%,有較好的泛化能力,可以有效的對(duì)發(fā)動(dòng)機(jī)部件進(jìn)行分類(lèi)。

關(guān)鍵詞:發(fā)動(dòng)機(jī)孔探;部件分類(lèi);DenseNet;ResNet;深度神經(jīng)網(wǎng)絡(luò)

Abstract:Borescope inspection is one of the most important means of detecting internal engine damage. In order to solve the problem that engineer mainly rely on experience to define damage during borescope inspection, a new single-channel network structure based on the fusion of DenseNet and ResNet was researched to realize the classification of engine components. At the same time, this establishes the foundation for the automatic identification of later flaw detection. By processing the borescope images data of a major repair plant and self-built data, the construction of the borescope image classification data set was completed. Trained a new type of 49-layer network model, with the accuracy of 96.0%, with the average recall rate of 95.9%, respectively, experimental results show that the network has good generalization ability and can effectively classify engine components.

Key words:engine borescope images;parts classification;Densenet;Resnet;deep neural network

民用航空渦扇發(fā)動(dòng)機(jī)在翼期間內(nèi),發(fā)動(dòng)機(jī)內(nèi)部部件的實(shí)際狀態(tài)是否符合適航技術(shù)標(biāo)準(zhǔn),是判斷發(fā)動(dòng)機(jī)是否需要換發(fā)的一個(gè)關(guān)鍵因素[1]。其中,發(fā)動(dòng)機(jī)孔探是了解發(fā)動(dòng)機(jī)內(nèi)部關(guān)鍵部件狀態(tài)最基本和最常用的檢測(cè)方法[2]。目前,雖然發(fā)動(dòng)機(jī)孔探設(shè)備測(cè)量精度越來(lái)越高,但是對(duì)發(fā)動(dòng)機(jī)損傷的界定仍然需要檢驗(yàn)人員憑借經(jīng)驗(yàn)進(jìn)行判斷,致使孔探檢測(cè)中人為因素導(dǎo)致的漏檢和誤檢比例過(guò)高[3]。如何降低人為因素差錯(cuò)、提高孔探作業(yè)效率,成為航空公司和發(fā)動(dòng)機(jī)大修廠(chǎng)迫切希望解決的問(wèn)題。

隨著深度學(xué)習(xí)技術(shù)的發(fā)展,其在人臉識(shí)別和醫(yī)學(xué)影像等領(lǐng)域已經(jīng)取得了實(shí)際的應(yīng)用價(jià)值[4],但在發(fā)動(dòng)機(jī)孔探圖像識(shí)別方面的研究還比較少。曠可嘉等人[5]采用深度學(xué)習(xí)領(lǐng)域內(nèi)基于卷積神經(jīng)網(wǎng)絡(luò)的FasterR-CNN和SSD模型進(jìn)行缺陷的自動(dòng)檢測(cè),但是由于其建立的數(shù)據(jù)集總量只有400張,在缺陷數(shù)據(jù)集比較小的情況下,診斷精度并不能達(dá)到實(shí)際孔探工作要求。Markus[6]等人研究了基于深度神經(jīng)網(wǎng)絡(luò)模型的渦扇發(fā)動(dòng)機(jī)孔探圖像分類(lèi),其利用VGG網(wǎng)絡(luò)對(duì)發(fā)動(dòng)機(jī)冷端和熱端部位圖像進(jìn)行識(shí)別,其平均識(shí)別準(zhǔn)確率達(dá)到77%。與基于特征的傳統(tǒng)圖像處理技術(shù)相比,基于深度學(xué)習(xí)的圖像識(shí)別技術(shù)在識(shí)別效率、識(shí)別精度上都有很大的提升。本論文研究的是發(fā)動(dòng)機(jī)孔探缺陷自動(dòng)識(shí)別的第一步,即基于深度神經(jīng)網(wǎng)絡(luò),將發(fā)動(dòng)機(jī)孔探圖像按照部位進(jìn)行自動(dòng)分類(lèi),分成壓氣機(jī)圖像、燃燒室圖像、高壓渦輪圖像和低壓渦輪圖像。隨后在分類(lèi)基礎(chǔ)上,對(duì)孔探缺陷進(jìn)行識(shí)別和定位。通過(guò)經(jīng)典VGGNet、ResNet和DenseNet網(wǎng)絡(luò)構(gòu)架的研究和對(duì)比實(shí)驗(yàn),提出了融合DenseNet和ResNet優(yōu)點(diǎn)的新型單通道串連網(wǎng)絡(luò)結(jié)構(gòu),并命名為DRNet(Dense-ResNet),實(shí)現(xiàn)發(fā)動(dòng)機(jī)孔探圖像的高精度自動(dòng)分類(lèi)。

1 孔探圖像分類(lèi)數(shù)據(jù)集構(gòu)建

目前在航線(xiàn)維護(hù)與發(fā)動(dòng)機(jī)大修中,存在一定量的發(fā)動(dòng)機(jī)孔探數(shù)據(jù)。數(shù)據(jù)主要來(lái)自某大修廠(chǎng)2015-2019年發(fā)動(dòng)機(jī)試車(chē)臺(tái)的孔探數(shù)據(jù),以及利用孔探儀的自建數(shù)據(jù)。對(duì)上述數(shù)據(jù)進(jìn)行分類(lèi)整理,按照發(fā)動(dòng)機(jī)的部位分為(1)壓氣機(jī)圖像、(2)燃燒室圖像、(3)高壓渦輪圖像、(4)低壓渦輪圖像,如圖1所示。

發(fā)動(dòng)機(jī)孔探數(shù)據(jù)一部分是視頻格式,且由于孔探視頻的反光比較強(qiáng)、背景差異變化大等問(wèn)題,所以需要對(duì)視頻數(shù)據(jù)中的關(guān)鍵幀進(jìn)行提取,以達(dá)到擴(kuò)充數(shù)據(jù)集的目的;針對(duì)數(shù)據(jù)采集在時(shí)間上跨度比較大、采集數(shù)據(jù)質(zhì)量參差不齊的問(wèn)題,需要對(duì)孔探圖像數(shù)據(jù)進(jìn)行清洗、整理等;針對(duì)發(fā)動(dòng)機(jī)冷熱端孔探檢查頻率不同導(dǎo)致的數(shù)據(jù)樣本分布不均勻問(wèn)題,則需要對(duì)其進(jìn)行數(shù)據(jù)增強(qiáng)等。孔探圖像數(shù)據(jù)處理流程如圖2所示。

針對(duì)孔探視頻數(shù)據(jù)中冗余信息過(guò)多的問(wèn)題,采用了基于背景差分和幀間差分的關(guān)鍵幀提取方法,去除模糊的圖像數(shù)據(jù),并對(duì)相似特征的孔探圖像數(shù)據(jù)僅保留其中一組。

背景差分法[7]是將背景模型與當(dāng)前幀進(jìn)行差分操作以實(shí)現(xiàn)關(guān)鍵幀的提取,其算法比較簡(jiǎn)單,并且一定程度上降低了孔探視頻中的反光影響,主要用于提取壓氣機(jī)等反光較強(qiáng)的視頻數(shù)據(jù)。背景差分的公式如式(1-2)。

孔探數(shù)據(jù)在采集之后,存在著包含噪聲、數(shù)據(jù)格式多樣化等問(wèn)題,因此需要對(duì)孔探圖像數(shù)據(jù)進(jìn)行清洗和整理操作。首先采用人工方法將數(shù)據(jù)中不屬于該類(lèi)別的圖像數(shù)據(jù)剔除,并刪去模糊和失真的圖像數(shù)據(jù);其次采用逐像素比較方法去掉數(shù)據(jù)中完全相同的圖像數(shù)據(jù)。另外,針對(duì)發(fā)動(dòng)機(jī)孔探數(shù)據(jù)樣本中類(lèi)別分布不平衡的問(wèn)題,采用隨機(jī)剪裁、旋轉(zhuǎn)等幾何變換方法和采用平滑、銳化等顏色變化方法,對(duì)樣本數(shù)量比較小的類(lèi)別(燃燒室)進(jìn)行增強(qiáng)操作,讓有限的數(shù)據(jù)產(chǎn)生更大的數(shù)據(jù)價(jià)值。最后通過(guò)使用立方卷積插值法對(duì)圖像數(shù)據(jù)進(jìn)行下采樣,將所有數(shù)據(jù)圖像尺寸調(diào)整為224*224*3,在減少深度神經(jīng)網(wǎng)絡(luò)計(jì)算量的同時(shí),保留了較多的圖像特征。經(jīng)過(guò)上述預(yù)處理操作,總計(jì)收集到合格的發(fā)動(dòng)機(jī)部件圖2398張,并按照3:1:1的比例隨機(jī)分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,其中訓(xùn)練集1438張,驗(yàn)證集480張,測(cè)試集480張。發(fā)動(dòng)機(jī)各部件孔探圖像具體分布如表1所示。

2 DRNet網(wǎng)絡(luò)模型的搭建

2.1 殘差模塊

從VGGNet到InceptionNet,卷積神經(jīng)網(wǎng)絡(luò)的層次越來(lái)越深,網(wǎng)絡(luò)的泛化能力也更強(qiáng)。但是研究發(fā)現(xiàn),當(dāng)模型加深到一定程度后,網(wǎng)絡(luò)的性能不再隨著深度的增加而提升,反而會(huì)出現(xiàn)準(zhǔn)確率下降的問(wèn)題。這是因?yàn)楫?dāng)模型加深以后,網(wǎng)絡(luò)變得越來(lái)越難訓(xùn)練,在較深層數(shù)的神經(jīng)網(wǎng)絡(luò)中間,梯度信息由網(wǎng)絡(luò)的末層逐層傳向網(wǎng)絡(luò)的首層時(shí),傳遞的過(guò)程中出現(xiàn)梯度接近于0的現(xiàn)象,這稱(chēng)為梯度彌散現(xiàn)象。網(wǎng)絡(luò)層數(shù)越深,梯度彌散現(xiàn)象可能會(huì)越嚴(yán)重。為了解決這一問(wèn)題,微軟研究院何愷明[10]等人提出了深度殘差網(wǎng)絡(luò),即ResNet;其核心思想就是通過(guò)在輸入和輸出之間添加一條跳連接(Skip Connection),可以讓輸入信息直接傳輸?shù)胶竺娴膶又校瑢?shí)現(xiàn)層數(shù)回退機(jī)制。殘差模塊如圖3所示,輸入x通過(guò)兩個(gè)卷積層,得到特征變換后的輸出F(x),與輸入x進(jìn)行對(duì)應(yīng)元素的相加運(yùn)算,得到最終輸出H(x),H(x)= x+ F(x)。

2.2 稠密連接模塊

與殘差網(wǎng)絡(luò)結(jié)構(gòu)相似,稠密卷積網(wǎng)絡(luò)(Dense Connection Net, DenseNet)是建立前面所有層和后面層的密集連接[11]。其通過(guò)特征在通道上的連接來(lái)實(shí)現(xiàn)特征重用,這個(gè)特點(diǎn)使得網(wǎng)絡(luò)DenseNet比ResNet有更優(yōu)秀的性能。如圖4所示為一個(gè)稠密連接模塊(Dense Block),其由若干個(gè)層級(jí)連接的非線(xiàn)性轉(zhuǎn)換結(jié)構(gòu)H組成。卷積層輸入x0通過(guò)H1卷積層得到輸出x1,x1與x0在通道軸上進(jìn)行拼接,得到聚合后的特征張量,送入H2卷積層,得到輸出x2。同樣的方法,x2與前面所有層的特征信息: x1與x0進(jìn)行聚合,再送入下一層。如此循環(huán),直至最后一層的輸出x4和前面所有層的特征信息:{xi}i=0,1,2,3 進(jìn)行聚合得到模塊的最終輸出。由于這種連接方式,使得DenseNet網(wǎng)絡(luò)更加容易訓(xùn)練,每一層都可以直接利用損失函數(shù)的梯度以及輸入信息;同時(shí)加強(qiáng)了特征的傳遞,可以更加有效的利用特征。

2.3 新型DRNet網(wǎng)絡(luò)的構(gòu)建

DenseNet雖然可以通過(guò)特征重用方式更有效的利用高層信息,但是它存在特征冗余的問(wèn)題;ResNet通過(guò)跳連接方式和保留中間特征的特點(diǎn),可以有效的降低特征冗余,但其難以利用高層信息。同時(shí),雖然ResNet殘差模塊加深了網(wǎng)絡(luò)結(jié)構(gòu),但是參數(shù)量卻增長(zhǎng)過(guò)快,經(jīng)過(guò)在自建數(shù)據(jù)集的實(shí)驗(yàn)得知,在達(dá)到相同的精度情況下,DenseNet參數(shù)量?jī)H為ResNet的60%左右;DenseNet可通過(guò)盡量縮短前層和后層之間的連接,緩解梯度消失和退化問(wèn)題。針對(duì)以上問(wèn)題,提出了將DenseNet和ResNet融合的新型網(wǎng)絡(luò)DRNet,其以DenseNet模塊和ResNet模塊間隔連接的方式,實(shí)現(xiàn)了兩者優(yōu)缺互補(bǔ)的單通道網(wǎng)絡(luò)結(jié)構(gòu)。不同于Y Chen,J Li等人提出的雙通道網(wǎng)絡(luò)結(jié)構(gòu)[12](Dual Path Network,DPN),DRNet網(wǎng)絡(luò)使用稠密連接模塊的輸出作為殘差模塊的輸入,其結(jié)果再送入稠密連接模塊,如此循環(huán),實(shí)現(xiàn)了結(jié)構(gòu)簡(jiǎn)單的單通道網(wǎng)絡(luò)結(jié)構(gòu)。

ResNet模塊如圖5(a)所示,Pool為DenseNet模塊連接過(guò)渡層的輸出,Conv2d,Conv2d_1等為模塊的名稱(chēng),(1*1+1)表示卷積核為1*1,步長(zhǎng)為1;128,256為輸出的通道數(shù)。DenseNet模塊如圖5(b)所示,結(jié)構(gòu)雖然與ResNet模塊相似,但實(shí)際差異很大。DenseNet模塊首先經(jīng)過(guò)批量歸一化、激活后,進(jìn)行一個(gè)1*1的卷積,同樣的方法,第二次進(jìn)行3*3的卷積;同時(shí)為了特征重用,在跨層連接時(shí)候使用Concatenate進(jìn)行特征融合,而ResNet模塊則是采用Element-wise Addition 操作。由于不需要進(jìn)行Add操作,所以在每個(gè)模塊后不需要一個(gè)1*1的卷積來(lái)使輸入和輸出的特征維度達(dá)到一致。

DRNet網(wǎng)絡(luò)如圖6所示,由2個(gè)DenseNet模塊(Dense1_block*6、Dense2_block*12)、2個(gè)ResNet模塊(Res1_block、Res2_block)、2個(gè)過(guò)渡層、2個(gè)最大池化層、2個(gè)平均池化層、1個(gè)Dropout層和1個(gè)Softmax層組成,總計(jì)49層。

過(guò)渡層是指DenseNet模塊和ResNet模塊之間的層,作用是完成卷積和池化的操作,達(dá)到減小特征圖數(shù)量的目的;池化層[13]用于對(duì)卷積后的特征圖進(jìn)行壓縮,平均池化層可以保留孔探圖像整體的數(shù)據(jù)特征,最大池化層則可以保留更多紋理信息。Dropout層是一類(lèi)簡(jiǎn)單但是十分有效的正則化方法,在每個(gè)訓(xùn)練批次中,隨機(jī)忽略一部分輸入,可以明顯地減少過(guò)擬合現(xiàn)象。

對(duì)于發(fā)動(dòng)機(jī)部件分類(lèi)圖像而言,DRNet網(wǎng)絡(luò)首先輸入224*224*3的孔探圖像,經(jīng)過(guò)一個(gè)7*7的卷積核和一個(gè)3*3的最大池化層得到56*56*64的張量;隨后經(jīng)過(guò)2個(gè)DenseNet模塊和2個(gè)ResNet模塊輸出一個(gè)4*4*512的張量,接下來(lái)經(jīng)過(guò)一個(gè)4*4的最大池化層和一個(gè)全連接層輸出一個(gè)1*1*1024的張量;最后通過(guò)Softmax函數(shù)完成孔探圖像的分類(lèi)。

3 DRNet網(wǎng)絡(luò)模型的訓(xùn)練與評(píng)估

3.1 DRNet模型參數(shù)設(shè)置

深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程的實(shí)質(zhì)就是將輸入數(shù)據(jù)送入網(wǎng)絡(luò)模型得到預(yù)測(cè)值F(X),然后用損失函數(shù)(Loss Function)來(lái)評(píng)估預(yù)測(cè)值F(X)和真實(shí)值Y的誤差;接下來(lái)利用損失函數(shù)的導(dǎo)數(shù)通過(guò)多次迭代(優(yōu)化器)來(lái)最小化損失函數(shù)。損失函數(shù)不斷更新反過(guò)來(lái)對(duì)模型的參數(shù)也進(jìn)行了更新,如此循環(huán),直到模型達(dá)到設(shè)定的迭代次數(shù)或是滿(mǎn)足精度要求為止。在DRNet網(wǎng)絡(luò)模型中選用交叉熵(Cross Entropy)損失函數(shù)[14]來(lái)評(píng)估模型的魯棒性,其公式如式(5)所示。

3.2 DRNet網(wǎng)絡(luò)模型訓(xùn)練過(guò)程

DRNet網(wǎng)絡(luò)模型訓(xùn)練平臺(tái)是在Windows10操作系統(tǒng)下搭建的,所用到的深度學(xué)習(xí)框架為T(mén)ensorflow-gpu2.0.0和Keras2.3.1;硬件為NVIDIA GTX1080 Ti的顯卡,Intel i5-9400F的處理器。數(shù)據(jù)集為自建的發(fā)動(dòng)機(jī)孔探類(lèi)別圖像,訓(xùn)練集、驗(yàn)證集、測(cè)試集的分布如表1所示。

DRNet網(wǎng)絡(luò)模型設(shè)置的初始學(xué)習(xí)率為0.0003,batch_size設(shè)置為16,epoch設(shè)置為90(將所有訓(xùn)練集數(shù)據(jù)訓(xùn)練一輪為一個(gè)epoch)。調(diào)用Tensorflow的內(nèi)置函數(shù)matplotlib,生成DRNet網(wǎng)絡(luò)模型的準(zhǔn)確率和損失函數(shù)隨epoch的變化趨勢(shì),如圖7所示。

圖7中,實(shí)線(xiàn)表示網(wǎng)絡(luò)模型在訓(xùn)練集上準(zhǔn)確率和損失,虛線(xiàn)表示網(wǎng)絡(luò)模型在驗(yàn)證集上準(zhǔn)確率和損失;從圖中可以看出網(wǎng)絡(luò)模型從第2個(gè)epoch迭代至第10個(gè)epoch,準(zhǔn)確率得到了較大的提升,訓(xùn)練集準(zhǔn)確率從38%上升到82%,與之對(duì)應(yīng)的是驗(yàn)證集準(zhǔn)確率從25%上升到80%;從第10個(gè)epoch到第30個(gè)epoch,模型在訓(xùn)練集上的準(zhǔn)確率上升較為緩慢,在驗(yàn)證集上的準(zhǔn)確率有兩個(gè)較大的震蕩;在第40個(gè)epoch以后模型準(zhǔn)確率趨于穩(wěn)定,在訓(xùn)練集上準(zhǔn)確率為98%左右,在驗(yàn)證集上準(zhǔn)確率為94%左右。隨著迭代步數(shù)的增加,模型在訓(xùn)練集的損失函數(shù)穩(wěn)定在0.05附近,在驗(yàn)證集的損失函數(shù)穩(wěn)定在0.2附近。取模型趨于穩(wěn)定后,且在驗(yàn)證集準(zhǔn)確率最高的模型作為最終模型,使用測(cè)試集對(duì)其進(jìn)行評(píng)估。

3.3 DRNet網(wǎng)絡(luò)模型評(píng)估

在深度神經(jīng)網(wǎng)絡(luò)中常用準(zhǔn)確率(Accuracy)、精確率(Precision)、召回率(Recall)等評(píng)價(jià)指標(biāo)對(duì)模型進(jìn)行評(píng)估,公式如(12-14)。其中,準(zhǔn)確率是正確預(yù)測(cè)數(shù)量與總樣本數(shù)量的比值,它是最常見(jiàn)的評(píng)價(jià)指標(biāo)。但在發(fā)動(dòng)機(jī)孔探檢查中,既要保證不能漏檢也要求誤檢率不能過(guò)高,為了全面評(píng)價(jià)模型引入了精確率和召回率;精確率表示被預(yù)測(cè)為正的樣本中真正為正樣本的比例,召回率表示正類(lèi)樣本中的被預(yù)測(cè)為正樣本的比例。

表2展示了使用在驗(yàn)證集表現(xiàn)準(zhǔn)確率最高的DRNet網(wǎng)絡(luò)模型,在測(cè)試集上測(cè)試的混淆矩陣以及各分類(lèi)的精確率和召回率。

從表3可以看出,新型DRNet網(wǎng)絡(luò)模型不僅在測(cè)試準(zhǔn)確率上高于經(jīng)典的VGGNet、ResNet和DenseNet模型,在模型的參數(shù)量上也僅有VGG-Net的三分之一左右,ResNet的四分之一左右,各項(xiàng)評(píng)價(jià)標(biāo)準(zhǔn)表明DRNet模型以更低的資源占用率實(shí)現(xiàn)了更高的性能,同時(shí)可以滿(mǎn)足實(shí)際的發(fā)動(dòng)機(jī)孔探圖像分類(lèi)需求。

4 結(jié) 論

針對(duì)發(fā)動(dòng)機(jī)孔探工作中人為因素導(dǎo)致的漏檢和誤檢情況,研究了基于深度神經(jīng)網(wǎng)絡(luò)的孔探圖像自動(dòng)識(shí)別方法,以輔助孔探人員對(duì)發(fā)動(dòng)機(jī)進(jìn)行檢查。根據(jù)DenseNet和ResNet網(wǎng)絡(luò)模型的優(yōu)缺點(diǎn),提出將稠密連接模塊和殘差模塊依次串行連接,實(shí)現(xiàn)了參數(shù)量更小的單通道網(wǎng)絡(luò)模型DRNet,其在測(cè)試集的準(zhǔn)確率達(dá)到了96.0%。與Markus研究的基于VGG-16模型相比準(zhǔn)確率有較大的提升,與Y Chen等人提出的雙通道DPN模型相比參數(shù)量更小,表明DRNet網(wǎng)絡(luò)對(duì)孔探圖像有較好的分類(lèi)能力。接下來(lái)的工作是在孔探圖像分類(lèi)的基礎(chǔ)上,針對(duì)發(fā)動(dòng)機(jī)部件,研究孔探缺陷類(lèi)型的自動(dòng)識(shí)別,最后與孔探驅(qū)動(dòng)系統(tǒng)相結(jié)合實(shí)現(xiàn)缺陷的自動(dòng)定位。

參考文獻(xiàn)

[1] 肖柏榮.航空發(fā)動(dòng)機(jī)維護(hù)中孔探檢測(cè)技術(shù)的應(yīng)用[J].中國(guó)高新科技,2019(15):96-98.

[2] 谷亞南.基于工程管理措施的航空發(fā)動(dòng)機(jī)孔探流程優(yōu)化研究[J].裝備制造技術(shù),2019(06):233-235.

[3] 張棟善,趙成.航空發(fā)動(dòng)機(jī)維修中孔探技術(shù)的應(yīng)用分析[J].電子制作,2019(12):98-99.

[4] ANDRE E, BRETT K, ROBERTO N,et al. Dermatologist-level classification of skin cancer with deep neural networks.[J]. Nature,2017,542(7639):115-116.

[5] 曠可嘉. 深度學(xué)習(xí)及其在航空發(fā)動(dòng)機(jī)缺陷檢測(cè)中的應(yīng)用研究[D].廣州:華南理工大學(xué),2017:40-43.

[6] SVENSN M, S HARDWICK D. Deep neural networks analysis of borescope images[C].European Conference of the Prognostics and Health Management Society,2018:5-8.

[7] 孫挺,齊迎春,耿國(guó)華.基于幀間差分和背景差分的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].吉林大學(xué)學(xué)報(bào)(工學(xué)版),2016,46(04):1325-1329.

[8] 付浩海,邊蓓蓓.基于幀間差分和背景相減的運(yùn)動(dòng)目標(biāo)檢測(cè)和提取算法研究[J].長(zhǎng)春工程學(xué)院學(xué)報(bào)(自然科學(xué)版),2015,16(03):116-118.

[9] 胡敬舒. 基于幀間差分的運(yùn)動(dòng)目標(biāo)檢測(cè)[D].哈爾濱工程大學(xué),2013:13-19.

[10]HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2016: 770-778.

[11]GAO Huang, ZHUANG Liu. Densely connected convolutional networks[C].The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017:4700-4708.

[12]CHEN Y, LI J, XIAO H. Dual path networks[C]. Advances in Neural Information Processing Systems 30 (NIPS 2017),2017:20-35.

[13]NASR-ESFAHANI E, RAFIEI S. JAFARI M. Dense pooling layers in fully convolutional network for skin lesion segmentation[J]. Computerized Medical Imaging and Graphics,2019,78:234-241.

[14]ZHAO Lu-lu, YANG Li-cai, SU Zhong-hua. Cardiorespiratory coupling analysis based on entropy and cross-entropy in distinguishing different depression stages[J]. Frontiers in Physiology,2019,10:359.

[15]曹雪. 基于動(dòng)態(tài)卷積及學(xué)習(xí)率自適應(yīng)的圖像超分重建方法研究[D].北京工業(yè)大學(xué),2017:50-55.

[16]張臘梅,陳澤茜,鄒斌.基于3D卷積神經(jīng)網(wǎng)絡(luò)的PolSAR圖像精細(xì)分類(lèi)[J].紅外與激光工程,2018,47(07):17-24.

堆龙德庆县| 延长县| 沁源县| 上蔡县| 蒙山县| 桂东县| 清原| 奉节县| 黑龙江省| 安塞县| 霍邱县| 九寨沟县| 特克斯县| 沙田区| 柏乡县| 苏州市| 赤峰市| 东丽区| 镇宁| 清镇市| 电白县| 安吉县| 哈巴河县| 富宁县| 嘉禾县| 奈曼旗| 隆回县| 阿克陶县| 阳西县| 旅游| 淮北市| 龙胜| 榆树市| 蕲春县| 山丹县| 白城市| 济阳县| 剑河县| 湛江市| 上杭县| 宜兴市|