史春妹,謝佳君,顧佳音,劉 丹,姜廣順,*
1 東北林業(yè)大學(xué) 理學(xué)院, 哈爾濱 150040 2 國家林業(yè)和草原局貓科動(dòng)物研究中心;東北林業(yè)大學(xué) 野生動(dòng)物與自然保護(hù)地學(xué)院, 哈爾濱 150040 3 東北虎林園, 哈爾濱 150028
東北虎(Pantheratigrisaltaica)種群數(shù)量的有效評(píng)估和監(jiān)測(cè)已成為保護(hù)生物學(xué)以及相關(guān)領(lǐng)域研究人員關(guān)注的重要課題[1-3]。由于虎種群密度低,具有領(lǐng)域性,夜行性及隱蔽性等行為特點(diǎn),在監(jiān)測(cè)過程中很難發(fā)現(xiàn)其實(shí)體,紅外觸發(fā)相機(jī)陷阱技術(shù)[2-3]作為一種無損傷性方法在國內(nèi)外野生動(dòng)物調(diào)查中應(yīng)用越來用廣泛,技術(shù)較為成熟,操作方便,可以獲得大批量(百萬張圖片)的野生動(dòng)物影像資料。但是,這些影像圖片或視頻需要專業(yè)人員進(jìn)行人工分類和個(gè)體識(shí)別,耗費(fèi)大量的時(shí)間和人力。因此,對(duì)虎的圖像進(jìn)行自動(dòng)、準(zhǔn)確、批量的個(gè)體識(shí)別研究非常有意義。
東北虎個(gè)體識(shí)別是指通過個(gè)體之間的特征差異來進(jìn)行區(qū)分,現(xiàn)在常用的個(gè)體識(shí)別方法有足跡識(shí)別、DNA識(shí)別、氣味識(shí)別以及條紋識(shí)別[1]。Riordan等[4]利用自組織映射和貝葉斯方法對(duì)虎和雪豹(Pantherauncia)采集的腳印進(jìn)行個(gè)體辨別和評(píng)估,獲得了較高的準(zhǔn)確率。DNA識(shí)別方法主要從虎的糞便、毛發(fā)、唾液等提取DNA進(jìn)行識(shí)別[5]。Mills等[6]通過非損傷性取樣分析DNA樣本,對(duì)東北虎的個(gè)體數(shù)量、性別以及親緣關(guān)系進(jìn)行鑒別。氣味識(shí)別[7]主要依靠經(jīng)過特殊訓(xùn)練的狗辨認(rèn)老虎糞便氣味來識(shí)別老虎個(gè)體。條紋識(shí)別是通過相機(jī)拍攝的條紋特征來識(shí)別, Hiby等[8]通過計(jì)算圖像樣本之間的相似性得分,對(duì)虎的三維表面模型圖像進(jìn)行搜索匹配實(shí)現(xiàn)個(gè)體識(shí)別。虎的條紋和人類指紋一樣具有唯一性特點(diǎn),且不隨生長(zhǎng)而變化,所以通過其身體不同區(qū)域(軀干、前腿、后腿、尾部等)條紋的對(duì)比進(jìn)行個(gè)體識(shí)別,是目前區(qū)分東北虎個(gè)體的主要方法。但是,此方法以經(jīng)驗(yàn)豐富的專業(yè)人士人工識(shí)別為主,需要耗費(fèi)大量人力與時(shí)間,并且人工識(shí)別依賴操作者的經(jīng)驗(yàn),主觀性大。個(gè)體數(shù)目較多的話,人工進(jìn)行條紋個(gè)體識(shí)別可行性較低。
紅外照相技術(shù)在物種監(jiān)測(cè)中被廣泛應(yīng)用,通過紅外觸發(fā)相機(jī)可以獲得大量的動(dòng)物形體特征圖像[9]。在小種群或種群高度分化的地方,人工對(duì)新舊照片的比較可以確定個(gè)體,但是如果圖像樣本數(shù)目較多或者種群數(shù)量較大,人工比較的方法可行性較低[10]。以往的研究中,無論是采用神經(jīng)網(wǎng)絡(luò)識(shí)別東北虎[11],還是基于Cifar10識(shí)別金錢豹(Pantherapardus)[12],都是人工截取條紋,難以應(yīng)用于圖像數(shù)目較多的大數(shù)據(jù)場(chǎng)景當(dāng)中。
近年來,深度卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[13-18]在計(jì)算機(jī)視覺以及目標(biāo)檢測(cè)領(lǐng)域[19-25]表現(xiàn)較為出色,在大數(shù)據(jù)場(chǎng)景[26-31]中的動(dòng)物物種分類方面也得到廣泛應(yīng)用,具有代表性的網(wǎng)絡(luò)模型有ZFNet[14]、VGG[15]、GoogLeNet[16]、ResNet[17]、DenseNet[18]等。2012 年,AlexNet對(duì)ImageNet數(shù)據(jù)集進(jìn)行分類識(shí)別,準(zhǔn)確率為84%[13],遠(yuǎn)超過非深度學(xué)習(xí)方法的75%。2017 年,Thom等[26]創(chuàng)建了一個(gè)物種檢測(cè)數(shù)據(jù)集,其中包含8000 個(gè)圖像,涵蓋9 種不同物種,并運(yùn)用SSD以每秒21 幀的速度自動(dòng)檢測(cè)北極苔原地區(qū)動(dòng)物,準(zhǔn)確率為94.1%。2017 年,Cheema 等[27]使用Faster-RCNN可以自動(dòng)從圖片中提取出虎、斑馬(Equusburchelli),并且用AlexNet結(jié)合邏輯回歸能夠較好地實(shí)現(xiàn)物種分類。2019 年,Willi 等[20]采用深度學(xué)習(xí)對(duì)四種不同的相機(jī)陷阱數(shù)據(jù)集進(jìn)行分類識(shí)別,得到識(shí)別準(zhǔn)確率介于88.7%和92.7%之間。Norouzzadeh等[30]基于非洲塞倫蓋蒂野生動(dòng)物數(shù)據(jù)庫應(yīng)用深度卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了物種的自動(dòng)分類、數(shù)目檢測(cè)、行為描述等,并且分類精確度較高,達(dá)到92%。
到目前為止,深度學(xué)習(xí)方法大多用在物種分類研究當(dāng)中,對(duì)物種的個(gè)體識(shí)別較少,特別是東北虎的個(gè)體識(shí)別。非深度學(xué)習(xí)的方法在識(shí)別階段工作量都較大,數(shù)據(jù)的預(yù)處理階段依賴人工截圖,所以本文采用SSD目標(biāo)自動(dòng)檢測(cè)方法來替換人工截圖,節(jié)省更多時(shí)間。由于卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖片的尺度、光照、視角、形變等因素變化都有較好的處理能力,擁有自動(dòng)適應(yīng)虎形態(tài)變化的特征表達(dá)能力,所以本文采用多種深度卷積神經(jīng)網(wǎng)路模型對(duì)不同姿態(tài)的個(gè)體實(shí)現(xiàn)自動(dòng)識(shí)別。由于虎的身體兩側(cè)條紋信息無對(duì)稱性,本文提出依據(jù)不同的體側(cè)部位如左側(cè)軀干條紋區(qū)域,右側(cè)軀干條紋區(qū)域以及臉部的自動(dòng)檢測(cè)分割方法,然后對(duì)不同部位的圖片信息分別運(yùn)用LeNet、AlexNet、ZFNet、VGG16、ResNet34卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行個(gè)體自動(dòng)識(shí)別,從而提高識(shí)別準(zhǔn)確率,以實(shí)現(xiàn)東北虎個(gè)體的自動(dòng)識(shí)別。
實(shí)驗(yàn)數(shù)據(jù)來自2019 年東北虎林園以及怪坡虎園的影像圖片,其中東北虎林園(東經(jīng)126°36′,北緯45°49′)位于黑龍江省哈爾濱市松北區(qū),面積約為144 萬m2,有700 多只人工飼養(yǎng)繁育的純種東北虎,怪坡虎園(東經(jīng)123°37′,北緯42°4′)位于遼寧省沈陽市沈北新區(qū),面積約為17 萬m2,大約100 余只純種東北虎。實(shí)驗(yàn)影像圖片由相機(jī)對(duì)38 只虎在不同角度、不同環(huán)境下拍攝取樣,共得到13579 張圖像樣本,其中4/5作為訓(xùn)練集,1/5作為測(cè)試集。不同虎個(gè)體之間的圖片數(shù)量有所差異,姿態(tài)豐富,如果采用人工識(shí)別,費(fèi)時(shí)費(fèi)力,且準(zhǔn)確度較低。主要方法分為兩大部分:第一部分目標(biāo)檢測(cè),主要通過SSD目標(biāo)檢測(cè)方法自動(dòng)截取分割獲得東北虎左右側(cè)軀干條紋以及臉部圖像;第二部分個(gè)體識(shí)別,在目標(biāo)部位檢測(cè)分割圖片的基礎(chǔ)之上,采用多種深度卷積神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)虎個(gè)體的自動(dòng)識(shí)別。
主要技術(shù)路線(圖1)為:首先在目標(biāo)檢測(cè)部分,本文采用SSD目標(biāo)檢測(cè)方法對(duì)每張圖片中的東北虎個(gè)體檢測(cè)其左側(cè)、右側(cè)或者頭部在圖像中的具體位置,用參考框分割裁剪得到左側(cè)、右側(cè)或者頭部對(duì)應(yīng)區(qū)域圖片,并去掉背景等無關(guān)圖像信息。對(duì)于卷積神經(jīng)網(wǎng)絡(luò)來說,虎的樣本數(shù)目較少,小樣本可能出現(xiàn)過擬合現(xiàn)象,所以在圖片預(yù)處理部分通過適當(dāng)平移變換增加樣本數(shù)目,以實(shí)現(xiàn)數(shù)據(jù)增強(qiáng)。具體的平移方式是將每張圖片沿上、下、左、右四個(gè)方向進(jìn)行平移變換(圖1),使樣本圖片數(shù)目擴(kuò)大為原來的5倍。在目標(biāo)部位檢測(cè)分割的基礎(chǔ)之上,針對(duì)不同部位圖像分別使用LeNet、AlexNet、ZFNet、VGG以及ResNet34卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行個(gè)體自動(dòng)識(shí)別,并計(jì)算個(gè)體識(shí)別準(zhǔn)確率。在準(zhǔn)確率較高的網(wǎng)絡(luò)基礎(chǔ)之上考慮平均值池化和最大值池化等組合方案,并在全連接層引入不同概率的丟棄操作來防止過擬合,進(jìn)一步提高識(shí)別準(zhǔn)確率。
圖1 東北虎不同部位檢測(cè)分割技術(shù)路線圖(以臉部為例)Fig.1 Illustration of detection and segmentation process for different parts of amur tiger (face)
神經(jīng)網(wǎng)絡(luò)在實(shí)際訓(xùn)練時(shí),可能會(huì)在訓(xùn)練集上損失率較低,但卻在測(cè)試集上存著著較高損失,這是神經(jīng)網(wǎng)絡(luò)過擬合于訓(xùn)練集的表現(xiàn),本文采用數(shù)據(jù)增強(qiáng)和引入不同丟棄概率來防止過擬合。數(shù)據(jù)增強(qiáng)的方式有平移變換、旋轉(zhuǎn)變換、尺度變換和反射變換等。合適的平移變換能夠在一定程度上模擬拍攝東北虎的位置角度變化,增強(qiáng)有限的數(shù)據(jù)集。
引入適當(dāng)?shù)膩G棄概率也能有效防止過擬合,其輸出為:y=r×a(WTx),其中x=[x1,x2,...,xn]T是全連接層的輸入,W∈Rd×n是權(quán)重矩陣,r服從參數(shù)為P的伯努利分布。本文將參數(shù)P設(shè)置不同的值分別為0.1、0.2、0.3、0.4,有效防止過擬合現(xiàn)象。
1.2.1確定參考框
SSD目標(biāo)檢測(cè)方法與Fast-RCNN[24]的候選區(qū)域網(wǎng)絡(luò)技術(shù)類似,由大小不同的參考框(滑動(dòng)窗口)來檢測(cè)定位圖片中的目標(biāo)位置以及大小。SSD主要在特征圖的像素點(diǎn)生成多種不同長(zhǎng)寬比的參考框來檢測(cè)不同尺度大小的目標(biāo)。初始參考框包含三種面積(128×128, 256×256, 512×512),每種面積又包含三種長(zhǎng)寬比(1∶1, 1∶2, 2∶1)。 其次計(jì)算每個(gè)參考框和真實(shí)目標(biāo)框中重疊的面積與總面積的比值(并交比)。最后參考框匹配,如果參考框的并交比大于設(shè)置的閾值(如0.5),那么參考框會(huì)被標(biāo)記為正例,否則會(huì)被標(biāo)記為負(fù)例。
1.2.2計(jì)算損失函數(shù)
目標(biāo)損失函數(shù)為定位損失與置信損失的加權(quán)和:
L(x,c,l,g)=h(x,c)+αg(x,l,g)
通過交叉驗(yàn)證,權(quán)重項(xiàng)α設(shè)置為0.06,其中定位損失為預(yù)測(cè)框與真實(shí)目標(biāo)框之間的損失:
置信損失可以是邏輯損失函數(shù):
1.2.3預(yù)測(cè)
先根據(jù)置信度大小淘汰一部分置信度較低的預(yù)測(cè)框,再通過非極大值抑制算法,淘汰掉重疊度較大的預(yù)測(cè)框,最終留下的預(yù)測(cè)框就是虎的兩側(cè)或者頭部在原始圖像中的具體位置和大小的檢測(cè)結(jié)果。
本文采取基于SSD目標(biāo)檢測(cè)方法,對(duì)不同部位的圖像信息進(jìn)行檢測(cè)和分割。首先挑選120 張包含完整臉部、左側(cè)條紋以及右側(cè)條紋的圖像(每種40 張),利用labelImg標(biāo)記程序從圖片中標(biāo)出臉部、左側(cè)條紋以及右側(cè)條紋部位。然后按1∶1∶1將其分為訓(xùn)練集、驗(yàn)證集、測(cè)試集。最后用SSD和VGG16做遷移學(xué)習(xí),從而得到專門提取老虎臉部、左右側(cè)條紋的目標(biāo)檢測(cè)模型。實(shí)驗(yàn)結(jié)果發(fā)現(xiàn),目標(biāo)檢測(cè)模型在測(cè)試集上準(zhǔn)確率達(dá)到97.4%,能較好地檢測(cè)并分割出臉部、左右側(cè)條紋等不同部位的圖像(圖2,其中彩色框部分是左側(cè)和頭部檢測(cè)結(jié)果)。
圖2 東北虎不同部位檢測(cè)結(jié)果圖 Fig.2 Detection results of different parts of the amur tiger
最后將訓(xùn)練好的目標(biāo)檢測(cè)模型應(yīng)用于全部圖像樣本中,進(jìn)行左右側(cè)軀干條紋以及臉部的檢測(cè),每張圖片只保留概率最大的老虎部位檢測(cè)結(jié)果,并自動(dòng)進(jìn)行分割裁剪,部分結(jié)果如圖3所示,由于虎的姿態(tài)多變以及拍攝角度不同,所以自動(dòng)裁剪之后的圖片大小并不相同。從圖2和圖3可以發(fā)現(xiàn),不同姿態(tài)下的目標(biāo)部位都能正確識(shí)別并分割,說明SSD目標(biāo)檢測(cè)算法對(duì)圖片的尺度、光照、視角、形變等因素變化都有較好的處理能力。
圖3 虎左側(cè)軀干、右側(cè)軀干以及臉部部位自動(dòng)分割裁剪結(jié)果圖 Fig.3 Segmentation results of the left and right body and the face of amur tiger
2.2.1數(shù)據(jù)預(yù)處理
在自動(dòng)檢測(cè)算法截取分割得到的不同部位圖片基礎(chǔ)之上,通過平移變換來進(jìn)行數(shù)據(jù)增強(qiáng)。這樣可以模擬拍攝位置的平移變化,增強(qiáng)模型的泛化能力,從而達(dá)到數(shù)據(jù)增強(qiáng)的目的。對(duì)數(shù)據(jù)增強(qiáng)后不同部位如左側(cè)、右側(cè)以及頭部圖像,分別應(yīng)用LeNet、AlexNet、ZFNet、VGG、ResNet34深度卷積神經(jīng)網(wǎng)絡(luò)模型在Keras上進(jìn)行個(gè)體識(shí)別實(shí)驗(yàn)。通過Reshape操作將所有輸入圖像調(diào)整為224×224 像素,激活函數(shù)修改為ReLU函數(shù);使用Keras生成器進(jìn)行加載,采用隨機(jī)梯度下降算法,類別數(shù)量為38(38 只虎個(gè)體)。最后獲得不同網(wǎng)絡(luò)模型的識(shí)別準(zhǔn)確率(圖4)。從圖4可以看出無論左側(cè)、右側(cè),還是臉部,ResNet34模型表現(xiàn)最佳,其他網(wǎng)絡(luò)模型的準(zhǔn)確率低于ResNet34。
圖4 東北虎不同網(wǎng)絡(luò)模型的左側(cè)、右側(cè)以及臉部圖像個(gè)體識(shí)別準(zhǔn)確率變化圖Fig.4 Individual identification accuracy results of different networks for left, right and face images of amur tiger
2.2.2不同池化方式的實(shí)驗(yàn)
本文將最大值池化和平均值池化進(jìn)行多種組合,評(píng)估比較各個(gè)組合方案的性能,以獲得最佳的池化組合方式。通過上一步實(shí)驗(yàn)可以分析出ResNet34性能最佳,利用最大值和平均值不同池化操作算子,對(duì)ResNet34進(jìn)行如下修改,將第一個(gè)池化層和最后一個(gè)池化層分別修改為:最大值平均值池化(Maximum Average,MA)、平均值平均值池化(Average Average,AA)、平均值最大值池化(Average Maximum,AM)、最大值最大值池化(Maximum Maximum,MM)組合方式,得到四個(gè)實(shí)驗(yàn)組分別為MA、AA、AM和MM,不同池化方案的準(zhǔn)確率變化如下圖(圖5)所示:
圖5 東北虎左側(cè)、右側(cè)以及頭部圖像在ResNet34網(wǎng)絡(luò)框架下不同池化方案的準(zhǔn)確率結(jié)果Fig.5 Accuracy results of different pooling schemes under the ResNet34 network for left, right and face images of amur tiger
從圖5可以發(fā)現(xiàn),對(duì)于臉部圖像,AA的準(zhǔn)確率明顯優(yōu)于其他模型。而左、右側(cè)條紋,各個(gè)模型性能差異較小。最終,對(duì)于虎的左側(cè)條紋和臉部樣本,AA表現(xiàn)總體略優(yōu)于其他網(wǎng)絡(luò)模型,對(duì)于虎的右側(cè)條紋樣本,MA 的準(zhǔn)確率略高于其他模型。對(duì)于左側(cè)和臉部,我們選取AA網(wǎng)絡(luò),對(duì)于右側(cè)選取MA網(wǎng)絡(luò),進(jìn)行不同丟棄概率的實(shí)驗(yàn)。
2.2.3不同丟棄概率實(shí)驗(yàn)
引入丟棄操作也是防止過擬合的方式之一,本實(shí)驗(yàn)考慮不同丟棄概率對(duì)準(zhǔn)確率的影響,選出準(zhǔn)確率較高的丟棄概率。基于表現(xiàn)較好的池化組合,在全連接層網(wǎng)絡(luò)之前引入丟棄 操作,其概率分別為P=0.1、P=0.2、P=0.3、P=0.4。對(duì)于左側(cè)和臉部,我們選取AA網(wǎng)絡(luò),對(duì)于右側(cè)選取MA網(wǎng)絡(luò),在每個(gè)網(wǎng)絡(luò)的全連接層網(wǎng)絡(luò)之前引入丟棄操作,其概率分別為P=0.1、P=0.2、P=0.3、P=0.4,最終的準(zhǔn)確率如表1所示:
表1 不同丟棄概率下的準(zhǔn)確率結(jié)果
從表1能夠發(fā)現(xiàn),無論左側(cè)、右側(cè)還是臉部,不同丟棄概率的神經(jīng)網(wǎng)絡(luò)都能達(dá)到較高的準(zhǔn)確度,并且引入不同概率丟棄操作能夠進(jìn)一步提升識(shí)別準(zhǔn)確率。對(duì)于左側(cè)樣本,P=0.1的網(wǎng)絡(luò)準(zhǔn)確率都優(yōu)于其他概率下的網(wǎng)絡(luò),對(duì)于右側(cè)和臉部樣本,P=0.2的網(wǎng)絡(luò)準(zhǔn)確率都優(yōu)于其他概率下的網(wǎng)絡(luò)。最終,在最佳丟棄概率下,左側(cè)軀干條紋識(shí)別準(zhǔn)確率為93.75%,右側(cè)軀干條紋識(shí)別準(zhǔn)確率為97.01%,臉部識(shí)別準(zhǔn)確率為86.28%。
本論文以東北虎林園 以及怪坡虎園38 只圈養(yǎng)東北虎影像數(shù)據(jù)作為研究對(duì)象,首先以SSD目標(biāo)檢測(cè)方法為基礎(chǔ),從虎的圖片樣本中檢測(cè)出不同部位,分別為左側(cè)軀干條紋、右側(cè)軀干條紋以及臉部部位,并提取分割出不同部位圖片。在分割出的老虎不同部位圖片基礎(chǔ)上,運(yùn)用上、下、左、右四個(gè)方向的平移變換進(jìn)行數(shù)據(jù)增強(qiáng),使得圖片樣本數(shù)目擴(kuò)大為原來的5倍。其次,對(duì)于不同的深度卷積神經(jīng)網(wǎng)絡(luò)算法如LeNet、AlexNet、ZFNet、VGG、ResNet34,利用網(wǎng)絡(luò)模型自動(dòng)地學(xué)習(xí)從輸入到輸出的復(fù)雜映射方程以及特征的高層表達(dá)模式,進(jìn)行東北虎的個(gè)體識(shí)別。并對(duì)網(wǎng)絡(luò)中的平均值池化和最大值池化不同的組合方案進(jìn)行優(yōu)化,引入概率分別為0.1、0.2、0.3、0.4的丟棄操作來防止過擬合。最終實(shí)現(xiàn)對(duì)東北虎個(gè)體的自動(dòng)識(shí)別,建立較為完整的東北虎個(gè)體信息數(shù)據(jù)庫和個(gè)體自動(dòng)識(shí)別框架。
目前利用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)物種的自動(dòng)分類研究較多,Yu等[28]使用了稀疏編碼空間金字塔匹配來識(shí)別18 種動(dòng)物,達(dá)到82%的準(zhǔn)確率。Gomez等[29]采用深度CNN對(duì)非洲塞倫蓋蒂野生動(dòng)物數(shù)據(jù)庫的26 個(gè)野生物種進(jìn)行分類研究。準(zhǔn)確度達(dá)到57%。Norouzzadeh等[30]基于同樣的非洲塞倫蓋蒂野生動(dòng)物數(shù)據(jù)庫應(yīng)用深度學(xué)習(xí)實(shí)現(xiàn)了物種的自動(dòng)分類、數(shù)目檢測(cè)、行為描述等,并且分類精確度達(dá)到92%。但是應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行動(dòng)物個(gè)體的自動(dòng)識(shí)別研究相對(duì)較少,特別是東北虎的個(gè)體自動(dòng)識(shí)別。
以往的基于條紋的個(gè)體識(shí)別算法,條紋截取常常是人工進(jìn)行[11],耗費(fèi)大量的時(shí)間,人工手動(dòng)截取速度約為10 s/張。而本研究的目標(biāo)檢測(cè)模型耗時(shí)較少,截取分割老虎不同部位條紋能達(dá)到0.6 s/張,遠(yuǎn)快于人工截取速度,并且在測(cè)試集上準(zhǔn)確率能達(dá)到97.4%。不同姿態(tài)下的目標(biāo)部位都能正確識(shí)別并分割,說明SSD目標(biāo)檢測(cè)算法對(duì)圖片的尺度、光照、視角、形變等因素變化都有較好的處理能力。
由于虎的條紋具有唯一性特點(diǎn),且不隨生長(zhǎng)而變化,而虎的左右側(cè)身體條紋不具有對(duì)稱性[1,11],所以本文考慮了三個(gè)部位左側(cè)軀干條紋、右側(cè)軀干條紋以及臉部的識(shí)別,從不同部位的識(shí)別準(zhǔn)確率來看,識(shí)別準(zhǔn)確率為93.75%,右側(cè)條紋識(shí)別準(zhǔn)確率為97.01%,臉部識(shí)別準(zhǔn)確率為86.28%,說明右側(cè)條紋的識(shí)別準(zhǔn)確率最高,其次是左側(cè)條紋,最后是臉部。由于大多數(shù)虎的臉部正面拍攝圖像較少,且距離較遠(yuǎn)有一定程度模糊,故臉部識(shí)別準(zhǔn)確率較低。事實(shí)上,也可以通過虎的后背圖像特征進(jìn)行個(gè)體識(shí)別,但是由于背部圖像拍攝難度較大,需要將照相機(jī)放置于虎舍頂部,而虎會(huì)對(duì)相機(jī)撲咬損壞,難以獲得背部圖像,沒有對(duì)背部進(jìn)行個(gè)體識(shí)別。
對(duì)于不同的池化方式,最大值與平均值池化計(jì)算量相差不大,但是它們選取的特征會(huì)有很大的不同,才會(huì)導(dǎo)致有的神經(jīng)網(wǎng)絡(luò)能收斂到較高的準(zhǔn)確率而有的卻不能。另一方面,引入不同的丟棄概率,在訓(xùn)練過程中動(dòng)態(tài)調(diào)整權(quán)值的丟棄概率,使得特征提取能力高的神經(jīng)元有更大的概率被激活,提高網(wǎng)絡(luò)的特征提取能力,進(jìn)一步提高了識(shí)別準(zhǔn)確率。
本次研究缺點(diǎn)在于所選取的樣本數(shù)量較少,如果對(duì)東北虎個(gè)體數(shù)目進(jìn)行擴(kuò)充,選取更多影像數(shù)據(jù)進(jìn)行訓(xùn)練,可以使訓(xùn)練網(wǎng)絡(luò)具有更強(qiáng)的適應(yīng)性,從而實(shí)現(xiàn)更準(zhǔn)確的個(gè)體識(shí)別。
由于SSD目標(biāo)檢測(cè)和卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)圖片的尺度、光照、視角、形變等因素變化都有較好的處理能力,擁有自動(dòng)適應(yīng)條紋或者斑點(diǎn)等形態(tài)變化的特征表達(dá)能力,因此,這一方法能夠應(yīng)用于身體有明顯條紋或者斑點(diǎn)信息的物種個(gè)體識(shí)別,如虎、豹或者斑馬等。
本研究提出了基于目標(biāo)檢測(cè)的東北虎個(gè)體識(shí)別方法,應(yīng)用單次多盒目標(biāo)檢測(cè)算法將虎按照左側(cè)軀干條紋、右側(cè)軀干條紋以及臉部進(jìn)行分割提取,其次在不同部位上分別采用不同卷積神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)虎的個(gè)體識(shí)別。在未來的模型訓(xùn)練中, 將東北虎個(gè)體數(shù)目以及單個(gè)個(gè)體的圖像數(shù)目進(jìn)行擴(kuò)充,通過擴(kuò)大數(shù)據(jù)集以及圖像數(shù)目防止過擬合,進(jìn)一步提高模型的準(zhǔn)確率和穩(wěn)定性。另外,本研究在未來野生虎的紅外相機(jī)影像的自動(dòng)識(shí)別方面也具有一定的應(yīng)用潛力,為野生動(dòng)物個(gè)體自動(dòng)識(shí)別研究提供新的技術(shù)手段和研究思路。