王 榮,史再峰,高榮華,李奇峰
(1.天津大學(xué) 微電子學(xué)院,天津300072;2.北京農(nóng)業(yè)信息技術(shù)研究中心,北京1000972;3.國(guó)家農(nóng)業(yè)信息化工程技術(shù)研究中心,北京1000973)
【研究意義】生豬的消費(fèi)產(chǎn)值成為農(nóng)村經(jīng)濟(jì)的重要支柱。豬個(gè)體識(shí)別技術(shù)可協(xié)助豬場(chǎng)實(shí)現(xiàn)自動(dòng)化管理,記錄豬個(gè)體的成長(zhǎng)資料。常見(jiàn)的豬個(gè)體識(shí)別技術(shù)如RFID耳標(biāo)技術(shù)等成本高[1],且易感染寄生蟲(chóng)引起并發(fā)癥[2]有一定的局限性。隨著圖像技術(shù)和深度學(xué)習(xí)的不斷發(fā)展,通過(guò)非接觸式的豬個(gè)體識(shí)別技術(shù)減少養(yǎng)豬場(chǎng)職工數(shù)量、監(jiān)測(cè)疫病、降低養(yǎng)殖成本已成為必然趨勢(shì)。研究表明,非接觸式豬個(gè)體識(shí)別技術(shù)的難點(diǎn)在于提高多變環(huán)境中豬個(gè)體身份的識(shí)別率?!厩叭搜芯窟M(jìn)展】利用計(jì)算機(jī)視覺(jué)和圖像處理技術(shù)代替人眼感知實(shí)現(xiàn)非接觸式豬個(gè)體識(shí)別,可記錄每頭豬的身份信息和健康狀況,并在通過(guò)外觀識(shí)別豬個(gè)體、豬體體尺參數(shù)和體質(zhì)量估測(cè)[3]和豬個(gè)體輪廓分割[4]等方面取得顯著成就。豬個(gè)體外觀十分相似,傳統(tǒng)的豬個(gè)體識(shí)別方法常常通過(guò)人工標(biāo)記顏色,通過(guò)識(shí)別標(biāo)記實(shí)現(xiàn)對(duì)豬個(gè)體的識(shí)別和追蹤[5]。將豬舍中仔豬的背部和側(cè)面部用不同顏色進(jìn)行標(biāo)記,通過(guò)消除背景和非標(biāo)記對(duì)象的影響進(jìn)行分割以獲取豬仔位置[6],或利用圖像處理技術(shù)分析豬背部涂抹的待識(shí)別圖案與樣本圖案的匹配程度,識(shí)別豬個(gè)體并估計(jì)其體質(zhì)量[7]。江蘇大學(xué)電氣工程學(xué)院[8]利用Isomap算法融合豬個(gè)體的顏色、紋理及形狀特征,并用支持向量機(jī)進(jìn)行分類識(shí)別。然而豬個(gè)體顏色、形狀特征以及標(biāo)記圖案特征不明顯,個(gè)體識(shí)別率較低,因此,N.Wada等人[9]提出利用特征空間法識(shí)別豬臉,手動(dòng)分割全臉圖像、眼睛周圍的圖像和鼻子周圍的圖像實(shí)現(xiàn)豬個(gè)體識(shí)別,并取得較好的識(shí)別率。綜合考慮以上基于計(jì)算機(jī)視覺(jué)和機(jī)器學(xué)習(xí)的算法,通過(guò)臉部特征識(shí)別豬個(gè)體的正確率較高,但都只對(duì)單一環(huán)境做了研究,在多變環(huán)境中識(shí)別豬只身份還有很大的提升空間。隨著計(jì)算能力的不斷提升,深度學(xué)習(xí)算法得到了更好地發(fā)展,具有更強(qiáng)的特征提取能力。Alexnet網(wǎng)絡(luò)在2012年ILSVRC(imagenet large scale visual recognition competition)比賽中獲得第一名[10],識(shí)別率較傳統(tǒng)算法有了巨大的提升。由牛津大學(xué)計(jì)算機(jī)視覺(jué)幾何組(visual geometry group)提出的VGG網(wǎng)絡(luò)[11]、深度殘差網(wǎng)絡(luò)(deep residual network,ResNet)[12]通過(guò)改進(jìn)卷積結(jié)構(gòu)并增加卷積層和池化層數(shù)量,實(shí)現(xiàn)了深度卷積神經(jīng)網(wǎng)絡(luò)(deep convolutional neural networks,DCNN),使其具有更強(qiáng)的特征提取能力?!颈狙芯壳腥朦c(diǎn)】為提高復(fù)雜環(huán)境下豬個(gè)體的識(shí)別率,則需要增強(qiáng)算法對(duì)豬臉圖像的特征提取能力,以DCNN為基礎(chǔ)的改進(jìn)網(wǎng)絡(luò)在人臉識(shí)別[13]及動(dòng)物識(shí)別[14]領(lǐng)域都得到了較好的應(yīng)用。2015年,MOREIRA等[15]將深層卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于動(dòng)物的個(gè)體識(shí)別中識(shí)別走失狗,STERN等[16]通過(guò)對(duì)拍攝視頻的每幀圖像分類可分析動(dòng)物個(gè)體的行為特點(diǎn)。2018年,PU等[17]利用CNN和Kinect傳感器相結(jié)合實(shí)現(xiàn)了自動(dòng)識(shí)別雞群行為,達(dá)到了較好的識(shí)別效果。利用目標(biāo)檢測(cè)網(wǎng)絡(luò)Faster R-CNN[18](faster region-convolutional neural network)識(shí)別群養(yǎng)豬的吃食行為[19]和母豬的5種姿勢(shì)[20](站立、坐姿、胸骨臥姿、腹側(cè)臥位和側(cè)臥位)也達(dá)到了較好的識(shí)別效果。類比人臉識(shí)別,將深度學(xué)習(xí)遷移到牛臉中,在采集的牛臉數(shù)據(jù)集中達(dá)到了較好的識(shí)別效果[21]。這些研究表明利用遷移學(xué)習(xí)的方式實(shí)現(xiàn)豬臉識(shí)別具有可行性。2018年Hansen[22]利用改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)提取豬臉圖像特征,對(duì)10頭豬個(gè)體進(jìn)行識(shí)別,為復(fù)雜環(huán)境中的豬臉識(shí)別打下基礎(chǔ)。【擬解決的關(guān)鍵問(wèn)題】為提高豬臉識(shí)別算法在多變環(huán)境下的個(gè)體識(shí)別率,本文提出了一種基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的非接觸、低成本的豬個(gè)體身份識(shí)別方法,并借助GoogleNet[23]網(wǎng)絡(luò)思想設(shè)計(jì)了3種多尺度卷積的Inception結(jié)構(gòu),網(wǎng)絡(luò)融合了對(duì)稱拆分和非對(duì)稱拆分兩種方法。在生豬真實(shí)養(yǎng)殖環(huán)境下,利用86層的DCNN模型可以從豬臉數(shù)據(jù)集圖像中提取更詳細(xì)的面部信息,增強(qiáng)識(shí)別能力,設(shè)計(jì)7組數(shù)據(jù)集增強(qiáng)后的對(duì)比實(shí)驗(yàn),驗(yàn)證網(wǎng)絡(luò)對(duì)復(fù)雜多變環(huán)境的魯棒性。
豬臉數(shù)據(jù)樣本于2018年8月采集自天津惠康種豬場(chǎng),設(shè)計(jì)了限位欄豬臉采集系統(tǒng),使用三腳架將相機(jī)固定在距離限位欄50 cm的位置,高度與豬臉位置平行,拍攝自然養(yǎng)殖條件下的種豬視頻,使用工業(yè)相機(jī)為HD1080分辨率(1 920×1 080),每秒30幀。采集選用每天10:00—12:00,14:00—16:00光線較亮的時(shí)間段,將拍攝的種豬視頻按幀提取圖像,分類保存。選取圖像數(shù)量較多的類別編號(hào)為正樣本,拍攝圖像較少的類別為負(fù)樣本,利用爬蟲(chóng)技術(shù)爬取網(wǎng)上的豬臉圖像加入負(fù)樣本中,加大類間數(shù)據(jù)的差異性,提升網(wǎng)絡(luò)的容錯(cuò)性。
拍攝的圖像中含有大量的背景噪聲,圖像中會(huì)出現(xiàn)豬欄、窗戶等信息,都會(huì)影響豬臉的識(shí)別效果,與其他識(shí)別方法相同,本文方法需要將豬臉從圖像中截取出來(lái),制作豬臉數(shù)據(jù)集。由于數(shù)據(jù)集是直接從視頻幀中獲得,相鄰圖像之間相似度很高,會(huì)造成訓(xùn)練集和測(cè)試集樣本圖像相似,使得網(wǎng)絡(luò)過(guò)擬合,無(wú)法檢測(cè)識(shí)別方法的魯棒性,因此需要借助相似度算法篩選圖像。在不同光照、遮擋以及不同角度的環(huán)境下,現(xiàn)有的豬個(gè)體識(shí)別網(wǎng)絡(luò)準(zhǔn)確率較差,為驗(yàn)證本文設(shè)計(jì)的豬臉識(shí)別方法對(duì)多變環(huán)境的適應(yīng)能力,利用數(shù)據(jù)集增強(qiáng)技術(shù)模擬多種不同環(huán)境下的豬臉圖像。
如圖1所示,對(duì)提取到的原始圖像數(shù)據(jù)進(jìn)行預(yù)處理得到豬臉數(shù)據(jù)集。首先,對(duì)提取到的豬臉圖像,利用圖像均方誤差(mean square error,MSE)和結(jié)構(gòu)相似性(structural similarity index,SSIM)算法來(lái)計(jì)算相鄰兩張圖像的相似程度并篩選,得到大小為299×299的低相似度種豬正臉圖像,按照8:2的比例將數(shù)據(jù)集劃分為兩部分,其中0.8的部分按照9∶1的比例劃分為訓(xùn)練集和驗(yàn)證集,0.2的部分作為測(cè)試集。為驗(yàn)證識(shí)別方法對(duì)不同環(huán)境的適應(yīng)性,利用水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)、亮度增強(qiáng)、亮度降低、隨機(jī)遮擋和隨機(jī)剪裁圖像六種方法對(duì)測(cè)試集增強(qiáng),其中亮度的增強(qiáng)和降低以及遮擋和剪裁等操作均隨機(jī)選取參數(shù)以保證生成圖像的隨機(jī)性。
圖1 豬臉數(shù)據(jù)集制作過(guò)程Fig.1 The production process of pig face dataset
MSE公式如(1)所示:
最后把3個(gè)函數(shù)組合起來(lái),得到SSIM指數(shù)函數(shù),為了得到簡(jiǎn)化形式,設(shè)置α=β=γ=1,c3=c2/2:
豬生長(zhǎng)過(guò)程中臉部差別較為明顯,成年后的種豬7—8月份開(kāi)始發(fā)情,2周歲左右會(huì)被淘汰,在此期間成年種豬面部特征變化較小,因此選擇成年種豬作為豬臉識(shí)別目標(biāo)。采集到的數(shù)據(jù)處理結(jié)果如表1,篩選出26頭豬作為正樣本,剩余的24頭豬和網(wǎng)上爬取的豬臉圖像一起作為負(fù)樣本。其中SSIM的篩選值設(shè)置為0.5,MSE的篩選值設(shè)為1 000,圖像數(shù)據(jù)集整體的篩選率為66.13%。并增加6組對(duì)比數(shù)據(jù)測(cè)試模型性能。
表1 數(shù)據(jù)集處理結(jié)果Tab.1 The result of the processed data set
圖像識(shí)別技術(shù)的核心在于圖像的特征提取,在前人的豬臉識(shí)別方法中,由于提取到的特征信息較少,冗余信息較多,導(dǎo)致最終分類時(shí)效果不理想。網(wǎng)絡(luò)較淺時(shí),無(wú)法提取豬臉詳細(xì)特征如眼睛、耳朵等位置,而通過(guò)加深網(wǎng)絡(luò)層數(shù)改進(jìn)性能的方法會(huì)導(dǎo)致參數(shù)增多、計(jì)算量增加,使得豬臉識(shí)別速度較慢,因此需要尋找合適的稀疏連接代替全連接。因此本文設(shè)計(jì)了一種基于多尺度多通道并行結(jié)構(gòu)的深層卷積神經(jīng)網(wǎng)絡(luò)識(shí)別豬個(gè)體身份的方法,能夠增強(qiáng)豬臉圖像的特征提取,網(wǎng)絡(luò)結(jié)構(gòu)如表2。
由表2可知,本文的網(wǎng)絡(luò)模型深度達(dá)到86層卷積層,模型中設(shè)計(jì)的Inception結(jié)構(gòu)能夠?qū)ふ易顑?yōu)的局部稀疏結(jié)構(gòu)并將其覆蓋為近似的稠密組價(jià),通過(guò)這種復(fù)雜網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)增加模型的深度和寬度,豬個(gè)體身份分類前實(shí)現(xiàn)對(duì)豬臉特征的充分提取和分析?;谶@種多尺度卷積并行提取圖像特征的思想,本文利用不同的模塊設(shè)計(jì)的86層的DCNN網(wǎng)絡(luò)實(shí)現(xiàn)了跨通道組織信息,提高網(wǎng)絡(luò)的表達(dá)能力,具體結(jié)構(gòu)如圖2所示。
表2 多尺度DCNN模型結(jié)構(gòu)及并行通道參數(shù)Tab.2 The structure of multi-scale DCNN model and parameters of parallel channels
圖2 深度卷積神經(jīng)網(wǎng)絡(luò)模型Fig.2 The deep convolutional neural network model
圖2 為豬個(gè)體識(shí)別方法中提取豬臉圖像特征的深層卷積神經(jīng)網(wǎng)絡(luò)模型,該模型由特征預(yù)提取模塊、兩種降維模塊、3種Inception模塊及全連接層4部分組成,模型輸入為299×299像素大小的圖像,輸出為27個(gè)類別的概率值,選取概率值最大的類別作為預(yù)測(cè)結(jié)果。
豬臉圖像輸入模型之后首先經(jīng)過(guò)9層的特征預(yù)提取模塊,傳統(tǒng)網(wǎng)絡(luò)直接使用大尺寸卷積核提取特征會(huì)使豬臉的細(xì)節(jié)特征如眼睛、嘴和耳朵等明顯特征丟失,因此利用3個(gè)3×3小卷積核代替7×7大卷積核,使得豬臉各部分特征提取詳細(xì),減少特征丟失。提取到的豬臉特征圖進(jìn)入S1模塊后,首先經(jīng)過(guò)1×1大小的卷積層對(duì)豬臉特征圖降維,高維度的豬臉特征圖像會(huì)包含多種冗余信息,且增加后續(xù)卷積運(yùn)算的計(jì)算量,影響網(wǎng)絡(luò)的訓(xùn)練和豬個(gè)體身份的識(shí)別速度。由于個(gè)體豬之間主要差異在于豬臉形狀和五官細(xì)節(jié),需要同時(shí)提取整體形狀特征以及五官等局部信息,因此本文選用了多通道多尺寸卷積核并行結(jié)構(gòu),利用非對(duì)稱拆分的方法,使用1×7和7×1大小的卷積層替代7×7的卷積層,提取了豬臉圖像的全局信息,使得卷積結(jié)果不變的條件下,減少了模型的參數(shù)量,提升豬個(gè)體的識(shí)別速度。將兩路卷積層提取到的特征拼接,豐富了豬臉的特征提取。
豬個(gè)體之間差異性較小,臉部特征相似度較高,模型的特征預(yù)提取模塊提取的特征不足,因此設(shè)計(jì)了3種Inception結(jié)構(gòu)如圖3所示,使用四路通道中不同尺寸的卷積核并行提取豬臉特征,提高豬個(gè)體識(shí)別模型性能,并在模塊中加入池化通道,以精簡(jiǎn)豬臉特征圖中的信息,池化通道與其他通道并行提取特征后拼接級(jí)聯(lián),預(yù)防了因池化導(dǎo)致的特征丟失。為了實(shí)現(xiàn)更加高效的計(jì)算,在每個(gè)Inception模塊后加入批量歸一化(batch normalization,BN)[24],BN結(jié)構(gòu)使得所有權(quán)重變化步調(diào)一致,增強(qiáng)模型的泛化能力防止過(guò)擬合并降低模型的計(jì)算量。
圖3 改進(jìn)的Inception結(jié)構(gòu)Fig.3 The improved structure of Inception
針對(duì)豬的臉部特征進(jìn)行提取實(shí)現(xiàn)識(shí)別豬個(gè)體身份的方法需要利用預(yù)處理后的數(shù)據(jù)集反復(fù)訓(xùn)練模型,并對(duì)訓(xùn)練好的模型多次評(píng)估對(duì)比,得到識(shí)別率高的模型實(shí)現(xiàn)豬個(gè)體身份識(shí)別,其整體實(shí)現(xiàn)方法如圖4所示。
圖4 豬個(gè)體身份識(shí)別模型的實(shí)現(xiàn)方法Fig.4 Method for implementing individual identification of pigs
該方法主要分為3個(gè)步驟首先將采集到的數(shù)據(jù)進(jìn)行預(yù)處理并將處理好的數(shù)據(jù)集輸入到深度卷積神經(jīng)網(wǎng)絡(luò)中訓(xùn)練,然后根據(jù)訓(xùn)練結(jié)果不斷調(diào)整訓(xùn)練參數(shù),最后對(duì)訓(xùn)練好的卷積網(wǎng)絡(luò)進(jìn)行評(píng)估,利用6種數(shù)據(jù)集增強(qiáng)技術(shù)設(shè)置對(duì)比實(shí)驗(yàn),驗(yàn)證本文模型對(duì)多變環(huán)境的適用性。
豬臉數(shù)據(jù)集圖像經(jīng)過(guò)預(yù)處理之后,被劃分為不同批次(Batch),每次隨機(jī)在訓(xùn)練集中選取一個(gè)Batch圖片作為網(wǎng)絡(luò)的輸入,使用動(dòng)態(tài)學(xué)習(xí)率和交叉驗(yàn)證的方法訓(xùn)練。每次訓(xùn)練完成之后,輸出網(wǎng)絡(luò)預(yù)測(cè)的豬個(gè)體分類結(jié)果,并計(jì)算與實(shí)際分類結(jié)果的交叉熵,利用梯度下降法調(diào)整參數(shù)。經(jīng)過(guò)多輪數(shù)據(jù)迭代之后得到訓(xùn)練效果較好的網(wǎng)絡(luò)權(quán)重,網(wǎng)絡(luò)訓(xùn)練完成。
網(wǎng)絡(luò)使用的Softmax函數(shù)進(jìn)行分類,如公式(4)。
其中,輸入圖像為x,i代表第i類,j代表圖片x的第j個(gè)像素。在標(biāo)簽輸入之前對(duì)標(biāo)簽進(jìn)行正則化(Label smoothing),使得在計(jì)算損失值時(shí)能夠有效抑制過(guò)擬合現(xiàn)象,如公式(5)
其中,yi為真實(shí)預(yù)測(cè)值,利用得到的分類結(jié)果和正則化后的標(biāo)簽計(jì)算交叉熵?fù)p失函數(shù),如公式(6)。根據(jù)求得的損失函數(shù)值,利用動(dòng)態(tài)學(xué)習(xí)率調(diào)整所有權(quán)重參數(shù)。
本實(shí)驗(yàn)采用兩塊GeForce GTX 1080Ti型GPU進(jìn)行訓(xùn)練,每塊顯存大小為11G Bytes,基于Ubuntu16.04操作系統(tǒng)和Tensorflow框架搭建了深度學(xué)習(xí)算法網(wǎng)絡(luò)訓(xùn)練平臺(tái),其中Python版本為3.6.3,Tensorflow版本為1.9.0,Keras的版本為2.2.4,CUDA API的版本為9.1,cuDNN的版本為9.0。
本文設(shè)計(jì)了3組分別基于Lenet5、VGG16和ResNet50網(wǎng)絡(luò)的豬臉識(shí)別方法作為對(duì)比實(shí)驗(yàn),使用訓(xùn)練集對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練時(shí),采用梯度下降(SGD,stochastic gradient descent)算法進(jìn)行優(yōu)化。將隨機(jī)失活(Dropout)優(yōu)化算法參數(shù)大小設(shè)為0.8,設(shè)置動(dòng)態(tài)學(xué)習(xí)率初始參數(shù)為0.000 1,學(xué)習(xí)動(dòng)量設(shè)置為0.95。每次迭代包含的樣本數(shù)量為50,全部樣本迭代一次為一輪,設(shè)置迭代輪數(shù)為500輪。分析隨著迭代次數(shù)的增加,網(wǎng)絡(luò)的準(zhǔn)確率和損失函數(shù)的變化過(guò)程,對(duì)比本文模型和其他豬臉識(shí)別模型的訓(xùn)練精度。
模型的訓(xùn)練過(guò)程如圖5所示,所有模型的loss值整體呈下降趨勢(shì),精確度值整體呈上升趨勢(shì)。模型在反向傳播的過(guò)程中會(huì)不斷計(jì)算全局的最優(yōu)解,通過(guò)小樣本計(jì)算出的損失值更新卷積核參數(shù),使其預(yù)測(cè)結(jié)果的損失值不斷減小。隨著迭代輪數(shù)的增加,網(wǎng)絡(luò)的精確度值和損失函數(shù)值趨于穩(wěn)定,會(huì)在一定的范圍震蕩,如430輪迭代之后,本文模型的損失函數(shù)值在0~0.02震蕩,精確度在0.96~1.00震蕩,其他3種淺層網(wǎng)絡(luò)收斂速度較本文模型稍快,ResNet50和VGG16最終的收斂結(jié)果較好,損失函數(shù)和訓(xùn)練精確度分別穩(wěn)定在0.01~0.1和0.96~1.00。但3種對(duì)比模型的震蕩幅度要高于本文模型,在小樣本預(yù)測(cè)過(guò)程中誤差較高,因此本文模型的收斂效果更好。
對(duì)網(wǎng)絡(luò)的訓(xùn)練結(jié)果對(duì)比分析,從參數(shù)模型大小、訓(xùn)練速度和識(shí)別模型在測(cè)試集中的準(zhǔn)確度來(lái)測(cè)試算法性能。測(cè)試集數(shù)據(jù)經(jīng)過(guò)水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)、亮度提高、亮度降低、隨機(jī)遮擋和隨機(jī)剪裁處理之后分為7組,對(duì)訓(xùn)練好的豬臉識(shí)別模型進(jìn)行測(cè)試,計(jì)算網(wǎng)絡(luò)的準(zhǔn)確率。
圖6為不同網(wǎng)絡(luò)的訓(xùn)練結(jié)果,網(wǎng)絡(luò)模型大小反應(yīng)了網(wǎng)絡(luò)的復(fù)雜度,本文模型使用多尺度并行特征提取,復(fù)雜度遠(yuǎn)高于其他網(wǎng)絡(luò)。然而訓(xùn)練時(shí)間和模型大小沒(méi)有因?yàn)閷訑?shù)的增加而驟增,其主要原因是因?yàn)榫W(wǎng)絡(luò)中使用的BN結(jié)構(gòu)和Dropout結(jié)構(gòu)降低了深層網(wǎng)絡(luò)的參數(shù)量和運(yùn)算量。
表3為不同網(wǎng)絡(luò)豬臉識(shí)別方法的測(cè)試結(jié)果,所有模型在原始測(cè)試集圖像中的識(shí)別準(zhǔn)確率最高,水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)和隨機(jī)塊遮擋的情況對(duì)深層網(wǎng)絡(luò)的影響較小。本文模型在水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)和隨機(jī)塊遮擋的情況下,識(shí)別準(zhǔn)確率分別可以達(dá)到95.13%、94.19%和92.97%,明顯高于其他網(wǎng)絡(luò)。Alexnet作為淺層網(wǎng)絡(luò)的代表,對(duì)增強(qiáng)之后的數(shù)據(jù)集識(shí)別率較低,網(wǎng)絡(luò)的魯棒性較差。本文基于多尺度卷積的豬臉識(shí)別方法,在多種圖像增強(qiáng)的測(cè)試集的識(shí)別率高于其他網(wǎng)絡(luò),對(duì)實(shí)際應(yīng)用中的復(fù)雜環(huán)境有更強(qiáng)的適用性,但是在隨機(jī)剪裁和亮度變化的情況下還有更多的提升潛力。
圖5 訓(xùn)練過(guò)程對(duì)比圖Fig.5 Comparison of training process
根據(jù)圖2的網(wǎng)絡(luò)結(jié)構(gòu)圖,訓(xùn)練完成的網(wǎng)絡(luò)對(duì)豬臉數(shù)據(jù)集圖像進(jìn)行特征提取,圖7為模型特征提取的輸出結(jié)果??捎^察到網(wǎng)絡(luò)剛開(kāi)始預(yù)提取特征模塊中,提取到的豬臉特征冗余信息較多,隨著深度的增加,以及各Inception模塊的特征提取,冗余信息減少,豬臉特征越來(lái)越突出。由圖7可知,本文基于多尺度分類網(wǎng)絡(luò)的豬個(gè)體身份識(shí)別模型能夠更好地全面提取豬臉特征,并過(guò)濾掉無(wú)用信息。
圖6 豬個(gè)體識(shí)別模型的訓(xùn)練結(jié)果Fig.6 The training results of individual pig recognition model
表3 豬個(gè)體識(shí)別模型測(cè)試結(jié)果Tab.3 The test results of individual pig identification model
圖7 模型特征提取結(jié)果Fig.7 The feature extraction results of model
針對(duì)現(xiàn)有的豬個(gè)體身份識(shí)別方法在多變環(huán)境下識(shí)別效果不佳的情況,本文基于多尺度卷積分類網(wǎng)絡(luò)優(yōu)良的特征提取能力,提出了一種通過(guò)識(shí)別臉部特征確定豬個(gè)體身份的識(shí)別模型。利用SSIM和MSE方法對(duì)采集到數(shù)據(jù)集進(jìn)行篩選,濾除掉相似性很高的圖像,有效的預(yù)防了訓(xùn)練集和測(cè)試集圖像相似導(dǎo)致的過(guò)擬合。網(wǎng)絡(luò)使用對(duì)稱和非對(duì)稱兩種卷積核拆分方法,將不同通道提取到的特征融合,增強(qiáng)了豬臉的全局特征以及細(xì)節(jié)信息提取,且提高了網(wǎng)絡(luò)的運(yùn)行速度。本研究表明,對(duì)于真實(shí)養(yǎng)殖環(huán)境下所采集的圖像,本文所提出的模型的識(shí)別率高達(dá)99.81%,明顯高于其他網(wǎng)絡(luò),在水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)和隨機(jī)塊遮擋的情況下本文模型的識(shí)別率都優(yōu)于其他模型。
測(cè)試豬臉識(shí)別模型的過(guò)程中發(fā)現(xiàn),圖像亮度的升高和降低對(duì)網(wǎng)絡(luò)的影響較為明顯,為進(jìn)一步提高豬臉識(shí)別模型的準(zhǔn)確率,可采用改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)和擴(kuò)充訓(xùn)練集的方法,提高網(wǎng)絡(luò)在惡劣環(huán)境下的識(shí)別能力,以適應(yīng)大型農(nóng)場(chǎng)中復(fù)雜多變的環(huán)境。同時(shí),識(shí)別網(wǎng)絡(luò)大多采用端到端的識(shí)別模式,無(wú)法針對(duì)特征突出的部位重點(diǎn)識(shí)別,因此如何在改進(jìn)的網(wǎng)絡(luò)結(jié)構(gòu)中增加多種顯著特征的識(shí)別權(quán)重還可進(jìn)一步的研究。
致謝:天津惠康種豬場(chǎng)對(duì)本試驗(yàn)提供場(chǎng)地和數(shù)據(jù)支持,謹(jǐn)致謝意!