国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于暗通道先驗(yàn)與YOLO的水下河蟹識(shí)別研究

2020-06-22 13:15賀帆趙德安
軟件導(dǎo)刊 2020年5期
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)

賀帆 趙德安

摘 要:為解決全自動(dòng)均勻投餌作業(yè)船在河蟹養(yǎng)殖過程中投餌不精準(zhǔn)問題,引入水下攝像設(shè)備采集圖像,但采集的圖像存在對(duì)比度低、模糊和圖像退化等問題。為此,采用暗通道先驗(yàn)提高圖像對(duì)比度。利用YOLO卷積神經(jīng)網(wǎng)絡(luò)技術(shù)快速準(zhǔn)確地識(shí)別出低照度環(huán)境下的河蟹,識(shí)別準(zhǔn)確率達(dá)到98%,平均耗時(shí)50ms。獲得河蟹生長(zhǎng)、分布信息后測(cè)算出河蟹養(yǎng)殖密度,為全自動(dòng)均勻投餌作業(yè)船精準(zhǔn)投飼提供數(shù)據(jù)支持。

關(guān)鍵詞:圖像退化;暗通道先驗(yàn);河蟹識(shí)別;卷積神經(jīng)網(wǎng)絡(luò);YOLO

DOI:10. 11907/rjdk. 191919 開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

中圖分類號(hào):TP301文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-7800(2020)005-0029-04

0 引言

水下圖像通常表現(xiàn)為能見度有限、低對(duì)比度、光線不均勻以及噪聲模糊等。河蟹養(yǎng)殖以蟹塘養(yǎng)殖為主,受限于蟹塘客觀環(huán)境以及采集設(shè)備硬件限制,難以獲得清晰的水下圖像。

水下圖像在成像時(shí),由于光線在水中傳播,不同光譜波長(zhǎng)的光呈現(xiàn)不同的指數(shù)衰減,波長(zhǎng)最長(zhǎng)的可見光最先被吸收。紅光水下傳輸1m,其光強(qiáng)值就會(huì)減少2/3并在4~5m后基本消失。與其它波長(zhǎng)光相比,藍(lán)紫光最后被吸收。

傳統(tǒng)的目標(biāo)檢測(cè)算法通常分為區(qū)域選擇、提取候選區(qū)域特征、輸入分類器訓(xùn)練分類幾個(gè)步驟。Dalai等[1]提出梯度方向直方圖(Histograms of Oriented Gradient,HOG)特征,經(jīng)線性支持向量機(jī)(support vector machine,SVM)訓(xùn)練分類進(jìn)行行人檢測(cè);FELZENSZWALB等[2-3]提出一種多尺度可變部件模型(deformable parts model,DPM)進(jìn)行目標(biāo)識(shí)別。傳統(tǒng)目標(biāo)檢測(cè)算法中,手工設(shè)計(jì)的特征匹配主要是顏色、形狀輪廓特征,由于水下河蟹圖像對(duì)比度低、圖像模糊以及紋理特征不明顯等,導(dǎo)致河蟹識(shí)別效果不理想。

水下成像和戶外大氣霧霾相似,He等[4]提出基于大量戶外清晰圖像統(tǒng)計(jì)得出的暗通道先驗(yàn)(DCP)廣泛應(yīng)用于水下圖像復(fù)原研究。針對(duì)水下河蟹圖像低對(duì)比度、噪聲嚴(yán)重、模糊難以識(shí)別的問題,本文提出基于暗通道先驗(yàn)和深度學(xué)習(xí)相結(jié)合的方法進(jìn)行水下河蟹圖像復(fù)原和識(shí)別。該方法考慮了水下環(huán)境不同光譜波長(zhǎng)吸收存在差異的情況,有效提高圖像對(duì)比度,減少噪聲影響;將深度學(xué)習(xí)應(yīng)用于河蟹養(yǎng)殖,在蟹塘復(fù)雜的水下快速準(zhǔn)確識(shí)別河蟹,獲得河蟹生長(zhǎng)、分布信息,為全自動(dòng)作業(yè)船精準(zhǔn)投飼提供數(shù)據(jù)支持。

1 水下圖像成像模型

水下圖像復(fù)原方法主要考慮水下圖像的成像機(jī)制,并建立有效的水下圖像退化模型,通過物理模型和先驗(yàn)知識(shí)推導(dǎo)復(fù)原參數(shù),最終反演出復(fù)原后的圖像。根據(jù)Jaffe-McGlamery[5-6]提出的成像模型,圖像由3部分分量線性疊加:①直接照明部分:不受介質(zhì)散射光到達(dá)成像設(shè)備部分;②前向散射分量:代表散射的直接分量;③后向散射分量:表示從所有觀察到的外部場(chǎng)景散射的光信息。見式(1)。

[J(x)]分量表示未經(jīng)傳輸介質(zhì)退化的原始圖像,圖像受傳輸介質(zhì)影響按距離指數(shù)衰減。[B∞(1-e-cz(x))]表示隨著目標(biāo)與成像平面距離增大而增大的附加退化分量,常量[B∞]是促使后向散射效果的水色表示。

此模型與描述大氣霧霾退化模型相似,但是在其它方面仍有很多區(qū)別。從水下環(huán)境成分的生物化學(xué)特性可知,水下各個(gè)光譜波長(zhǎng)的光吸收差異顯著。

2 水下圖像復(fù)原

2.1 暗通道先驗(yàn)

He得出的暗通道先驗(yàn)(DCP)結(jié)論為:在絕大多數(shù)非天空的局部區(qū)域存在著一些像素,其中至少有一個(gè)顏色通道的數(shù)值很小,即其光照值是一個(gè)很小的數(shù),趨近于0。但是,DCP不能直接應(yīng)用于水下環(huán)境。隨著水下目標(biāo)深度的加大,大部分波長(zhǎng)的光會(huì)被吸收。

由于水介質(zhì)對(duì)光的選擇性吸收,所獲得的水下模糊圖像主要由波長(zhǎng)較小的B、G通道表示,缺少衰減嚴(yán)重的R通道信息。依靠圖像中的RGB表示,具有較大R、G、B值并不一定代表具有大的波長(zhǎng)值,但是可以補(bǔ)償在水下衰減的光信息量。因此,本文采用式(3)的方式估計(jì)暗通道。

其中,[Ω(x)]表示局部以x為中心的局部區(qū)域,本文引入R通道的補(bǔ)集(invR),由1-R計(jì)算得到?;贒CP及其變形應(yīng)用方法很多。Chiang等[7]直接使用DCP結(jié)論,在水下環(huán)境增加了深度信息;Bianco等[8]考慮水下圖像中紅色分量與藍(lán)綠分量水下吸收的顯著差異,提出最大像素先驗(yàn)(Maximum Intensity Prior,MIP)。

2.2 傳輸介質(zhì)透射率

根據(jù)式(2),將透射率定義為目標(biāo)到成像平面距離的指數(shù)函數(shù),用以描述某一點(diǎn)的模糊程度。透射率由式(4)表示。

2.3 透射率細(xì)化

引導(dǎo)濾波[9]與軟摳圖相比,最大的優(yōu)點(diǎn)在于時(shí)間復(fù)雜度低、運(yùn)算速度快。根據(jù)輸出圖像[qi]和引導(dǎo)圖像[I]之間的局部線性關(guān)系式(9)可得:

當(dāng)透射率[t(x)]很小時(shí)[J(x)會(huì)]偏大,將導(dǎo)致恢復(fù)圖像整體向白場(chǎng)過渡,因此需要引入一個(gè)合理的閾值[t0]。當(dāng)[t(x)

3 基于YOLO的河蟹檢測(cè)

3.1 YOLOv3網(wǎng)絡(luò)

與使用滑動(dòng)分類器CNN[10]網(wǎng)絡(luò)結(jié)構(gòu)相比,YOLOv3[11-13]是可以同時(shí)預(yù)測(cè)目標(biāo)位置、大小以及類別的統(tǒng)一網(wǎng)絡(luò)。YOLOv3由53個(gè)卷積層組成,每個(gè)卷積層后都會(huì)增加BN層和Leaky ReLU層約束輸出參數(shù)。該網(wǎng)絡(luò)采用類似Inception Net[14]的機(jī)構(gòu),使用大量3×3卷積層并在卷積層之間插入1×1卷積層壓縮特征。本文采用以Darknet-53 為基礎(chǔ)改進(jìn)的輕量級(jí)網(wǎng)絡(luò)模型,13層網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

經(jīng)過訓(xùn)練的網(wǎng)絡(luò)模型在河蟹檢測(cè)過程中會(huì)選取合適的候選區(qū)域,并對(duì)這些候選區(qū)域進(jìn)行預(yù)測(cè),最后對(duì)預(yù)測(cè)結(jié)果進(jìn)行篩選,得到置信度較高的預(yù)測(cè)框。置信度公式(12)如下:

3.2 模型訓(xùn)練與評(píng)估

本文選擇13層卷積網(wǎng)絡(luò)訓(xùn)練模型,采用自制的水下河蟹數(shù)據(jù)集進(jìn)行訓(xùn)練。訓(xùn)練參數(shù)為:動(dòng)量系數(shù)0.9,權(quán)重衰減系數(shù)為0.000 5;訓(xùn)練迭代20 000次,迭代0~15 000時(shí),學(xué)習(xí)率取0.001;迭代15 000~18 000時(shí),學(xué)習(xí)率取0.000 1;迭代18 000~20 000時(shí),學(xué)習(xí)率取0.000 01。

訓(xùn)練過程中,網(wǎng)絡(luò)每迭代500次輸出一個(gè)網(wǎng)絡(luò)模型。根據(jù)制作的驗(yàn)證集評(píng)估每個(gè)網(wǎng)絡(luò)模型的mAP。隨著網(wǎng)絡(luò)迭代的增加,網(wǎng)絡(luò)模型趨于穩(wěn)定,選擇最高的mAP模型作為最終測(cè)試模型。mAP評(píng)估結(jié)果如圖3所示。

圖3中橫坐標(biāo)為每迭代500次輸出的模型序數(shù),縱坐標(biāo)為相應(yīng)的mAP值。從圖中可以看出,網(wǎng)絡(luò)迭代12 000(24×500)次之后,其mAP值已基本穩(wěn)定。網(wǎng)絡(luò)輸出模型中最大的mAP值為90.53%,因此選擇該模型作為本文所用預(yù)測(cè)模型。

對(duì)于所選的最終河蟹識(shí)別預(yù)測(cè)模型,還需調(diào)節(jié)網(wǎng)絡(luò)測(cè)試模型的閾值參數(shù)。不同的閾值參數(shù)在識(shí)別過程中得到不同的精確率、召回率和F1值。不同參數(shù)指標(biāo)如圖4所示。

4 實(shí)驗(yàn)結(jié)果與分析

4.1 河蟹識(shí)別結(jié)果

采用從蟹塘采集的80幅水下河蟹圖像進(jìn)行識(shí)別,用時(shí)4s,平均每幅圖像用時(shí)50ms。圖5顯示河蟹識(shí)別效果,沒有出現(xiàn)漏檢、誤檢錯(cuò)誤,較好滿足了實(shí)時(shí)性和識(shí)別準(zhǔn)確率要求。

4.2 與傳統(tǒng)方法對(duì)比

本文對(duì)相同數(shù)據(jù)集采用基于滑動(dòng)窗口HOG+SVM的方法訓(xùn)練,并對(duì)水下攝像頭采集的河蟹圖像進(jìn)行對(duì)比實(shí)驗(yàn),對(duì)比測(cè)試結(jié)果如表2所示。

通過對(duì)比可知,基于13層卷積網(wǎng)絡(luò)的檢測(cè)方法與基于滑動(dòng)窗口HOG+SVM檢測(cè)方法相比較,不論在檢測(cè)精度上還是在檢測(cè)速度上都有顯著提升,滿足全自動(dòng)均勻投餌作業(yè)船技術(shù)要求。

5 結(jié)語(yǔ)

水下河蟹圖像紋理特征不明顯,河蟹形狀姿態(tài)各異,基于紋理、顏色和形狀特征的目標(biāo)檢測(cè)算法在識(shí)別精度方面并不理想。

本文提出了基于暗通道先驗(yàn)和深度學(xué)習(xí)的水下河蟹識(shí)別方法。針對(duì)不同光譜波長(zhǎng)色光在水下吸收的差異,以及水下河蟹圖像存在對(duì)比度低、退化嚴(yán)重和模糊的現(xiàn)象,結(jié)合暗通道先驗(yàn)原理,增強(qiáng)圖像對(duì)比度。引入卷積神經(jīng)網(wǎng)絡(luò)模型,能夠快速準(zhǔn)確識(shí)別水下河蟹,獲得河蟹大小、數(shù)量及分布信息。

卷積神經(jīng)網(wǎng)絡(luò)識(shí)別精度及泛化能力取決于龐大的數(shù)據(jù)集。為提升網(wǎng)絡(luò)泛化能力,后續(xù)研究需采集更多訓(xùn)練樣本,完善網(wǎng)絡(luò)模型,實(shí)現(xiàn)全自動(dòng)均勻投餌作業(yè)船更精準(zhǔn)投餌。

參考文獻(xiàn):

[1] DALAI N,TRIGGS B. Histograms of oriented gradients for human detection[C]. IEEE Computer Society Conferenceon Computer Vision and Pattern Recognition,2005(1):886-893.

[2] FELZENSZWALB P, MCALLESTER D, RAMANAND. A discriminatively trained, multiscale,deformable part model[C]. Boston:Computer Vision and Pattern Recognition,2008:1-8.

[3] FELZENSZWALB P,GIRSHICK R B,MCALLESTERD,et al. Object detection with discriminatively trained part-based models[J]. IEEE Transactionson Pattern Analysis and Machine Intelligence,2010,32(9):1627-1645.

[4] HE K M,SUN J,TANG X. Single image haze removal using dark channel prior[J]. ?IEEE Transactions on Pattern Analysis and Machine ntelligence,2011,33(12):2341-2353.

[5] JAFFE J S. Computer modeling and the design of optimal underwater imaging systems[J]. Oceanic Engineering,IEEE Journal,1990,15(2):101-111.

[6] MCGLAMERY B. A computer model for underwater camera systems[C]. ?Proceedings of SPIE 0208, Ocean Optics VI,1980:221-231.

[7] CHIANG J Y,CHEN Y C. Underwater image enhancement by wavelength compensation and dehazing[J]. Image Processing, IEEE Transactionson,2012,21(4): 1756-1769.

[8] HE K.Guided image filtering (matlab code)[EB/OL]. ?http://research.microsoft.com/en-us/um/people/kahe/.

[9] KRIZHEVSKY A,SUTSKEVER L,HINTON G E.ImageNet classification with deep eonvolutional neural networks[C]. Advances inneural information processing systems,2012:1097-1105.

[10] REDMON J,DIVVALA S,GIRSHICK R,et al. You only look once:unified,real time object detection[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2016:779-788.

[11] REDMON J,F(xiàn)ARHADI A. YOL09000:better,faster,stronger[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,2017:6517-6525.

[12] REDMON J, FARHADI A. YOLOv3:an incremental im.provement[DB/OL]. https://arxiv.org/abs/1804.02767.

[13] SZEGEDY C,IOFFE S,VANHOUCKE V,et al. Inception-v4,inception-resnet and the impact of residual connections on learning[EB/OL]. https://blog.csdn.net/kangroger/article/details/69488642.

[14] HE K M,ZHANG X Y,REN S Q,et al. Deep residual learning for image recognition[C]. Proceedings o f the ?IEEE Conference on Com puter V ision and Pattern Recognition ,Las Vegas,NV,USA:IEEE,2016:770-778.

[15] 魏湧明,全吉成,侯宇青陽(yáng). 基于YOLO_v2 的無人機(jī)航拍圖像定位研究[J]. ?激光與光電子學(xué)進(jìn)展,2017,54(11): 95-104.

[16] 王宇寧,龐智恒,袁德明. 基于YOLO 算法的車輛實(shí)時(shí)檢測(cè)[J]. ?武漢理工大學(xué)學(xué)報(bào),2016,38(10):41-46.

[17] 楊愛萍,鄭 佳,王 建,等. 基于顏色失真去除與暗通道先驗(yàn)的水下圖像復(fù)原[J]. 電子與信息學(xué)報(bào),2015,37(11):2541-2547.

[18] 劉海波,楊杰,吳正平. 等. 基于暗通道先驗(yàn)和Retinex理論的快速單幅圖像去霧方法[J]. 自動(dòng)化學(xué)報(bào),2015 (7):1264-1273.

(責(zé)任編輯:杜能鋼)

猜你喜歡
卷積神經(jīng)網(wǎng)絡(luò)
卷積神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型研究
基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
邵阳县| 黎川县| 南阳市| 抚顺市| 杭锦后旗| 大洼县| 淅川县| 台北县| 齐齐哈尔市| 房产| 绥棱县| 安徽省| 安化县| 桃江县| 宜黄县| 鹰潭市| 建昌县| 漾濞| 六枝特区| 红原县| 霍山县| 五寨县| 米脂县| 株洲县| 和顺县| 攀枝花市| 商丘市| 南京市| 澎湖县| 象山县| 龙门县| 会宁县| 东兰县| 吉木乃县| 瑞安市| 九江市| 重庆市| 隆德县| 惠州市| 舟山市| 额尔古纳市|