吳曉烽, 吳麗君, 吳振輝, 陳志聰, 林培杰, 文吉成
(1.福州大學(xué)物理與信息工程學(xué)院, 微納器件與太陽(yáng)能電池研究所, 福建 福州 350116;2.國(guó)家電網(wǎng)福州供電公司, 福建 福州 350003)
目前, 我國(guó)約有7 500萬(wàn)視障人群, 他們的生活和出行都因其視力的障礙而受到極大困擾.盲杖等傳統(tǒng)輔盲工具只能通過(guò)物體接觸來(lái)檢測(cè)障礙物, 對(duì)空間中較高物體(如樹(shù)枝等)難以檢測(cè).近年來(lái), 電子行走輔助[1](electronic travel aids, ETA)系統(tǒng)相繼被提出, 為視障人士帶來(lái)了極大便利, 其中障礙物識(shí)別與測(cè)距是ETA系統(tǒng)中的關(guān)鍵技術(shù).文[2]對(duì)近年的ETA系統(tǒng)進(jìn)行了實(shí)用性綜合對(duì)比, 其中評(píng)分最高的Ecole Polytechnique Fédérale de Lausanne(EPFL)系統(tǒng)[3], 采用成對(duì)聲吶進(jìn)行測(cè)距, 有著測(cè)距精確度高、 易穿戴等特點(diǎn).評(píng)分其次的tactile vision system(TVS)[4]通過(guò)成對(duì)攝像頭生成視差圖來(lái)檢測(cè)障礙物的遠(yuǎn)近, 其便于穿戴, 檢測(cè)范圍廣.現(xiàn)有ETA系統(tǒng), 雖能較為精確地檢測(cè)障礙物離使用者的距離, 卻無(wú)法識(shí)別障礙物.在實(shí)際使用中, 與高精度地對(duì)障礙物測(cè)距相比, 視障人士更迫切地需要對(duì)周?chē)嗾系K物的識(shí)別及相應(yīng)位置的估計(jì).近年提出的wearable mobility aid(WMA)[5]系統(tǒng)是一種采用RGBD攝像頭測(cè)距, 并利用LeNet[6]網(wǎng)絡(luò)實(shí)現(xiàn)障礙物識(shí)別, 最后整合信息反饋給盲人的異步實(shí)現(xiàn)方式.這種異步識(shí)別及測(cè)距方式為目前大多能夠識(shí)別障礙物的ETA系統(tǒng)采用, 但受限于所采用的測(cè)距方式, 只能對(duì)離使用者最近的障礙物識(shí)別測(cè)距, 而對(duì)實(shí)際應(yīng)用中多障礙物同時(shí)出現(xiàn)的場(chǎng)景, 就會(huì)出現(xiàn)難以匹配等問(wèn)題, 因而難以適用.
隨著深度學(xué)習(xí)技術(shù)的發(fā)展, 目標(biāo)檢測(cè)領(lǐng)域出現(xiàn)了RCNN(regions with convolutional neural network)[7]、 Faster-RCNN[8]、 SSD(single shot multibox detector)[9]、 YOLO(you only look once)[10]等算法, 其能夠以較高精度、 魯棒地同時(shí)識(shí)別多類物體.其中, SSD是一個(gè)基于卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測(cè)識(shí)別模型, 相比于Faster R-CNN等目標(biāo)檢測(cè)算法, SSD去除了產(chǎn)生候選區(qū)域(proposals generation)及像素或特征降采樣(pixel or feature resampling)等階段, 因而可以實(shí)時(shí)地檢測(cè)識(shí)別目標(biāo).且SSD通過(guò)不同層次的特征圖(feature map)進(jìn)行多段識(shí)別, 從而能夠達(dá)到較高的目標(biāo)識(shí)別精度.因此, 本研究針對(duì)現(xiàn)有ETA系統(tǒng)的不足, 探索基于深度學(xué)習(xí)算法的多目標(biāo)快速識(shí)別及同步測(cè)距方法, 以期實(shí)現(xiàn)盲人視覺(jué)輔助.提出將各類類別標(biāo)定框(ground truth box)的高度與距離進(jìn)行回歸擬合從而訓(xùn)練出測(cè)距模型, 并結(jié)合目標(biāo)檢測(cè)算法SSD所識(shí)別障礙物類別及檢測(cè)框(bounding box)高度, 最終實(shí)現(xiàn)對(duì)多目標(biāo)快速識(shí)別并同步測(cè)距.
提出的目標(biāo)檢測(cè)識(shí)別及測(cè)距方法的原理如圖1所示.在人工采集的目標(biāo)圖像和實(shí)際距離數(shù)據(jù)集的基礎(chǔ)上, 整個(gè)目標(biāo)識(shí)別及測(cè)距方法框架主要分為兩個(gè)部分: 其一, 在多段距離下, 人工采集目標(biāo)圖像并提取每一類標(biāo)注框(ground truth box)的高度, 根據(jù)物體近大遠(yuǎn)小的原理, 將所提取的物體高度與實(shí)際距離值回歸擬合, 以訓(xùn)練獲得測(cè)距模型; 其二, 首先利用基于VOC2007數(shù)據(jù)集訓(xùn)練的SSD模型檢測(cè)識(shí)別物體, 并提取出物體檢測(cè)框(bounding box)的高度, 輸入測(cè)距模型從而獲得測(cè)距結(jié)果.將從不同層級(jí)特征圖檢測(cè)及目標(biāo)函數(shù)模型兩方面來(lái)介紹SSD的原理.
圖1 測(cè)距方法整體流程框圖Fig.1 Flow diagram of distance measuring method
SSD利用回歸來(lái)識(shí)別物體, 如圖2所示.對(duì)于每個(gè)特征圖, 采用3 px×3 px卷積核(filter)生成若干默認(rèn)檢測(cè)框(default bounding boxes)以及每個(gè)檢測(cè)框相對(duì)標(biāo)注框的偏移量與置信度, 最后共同識(shí)別物體.具體地, 如圖2(b)中, 每個(gè)特征圖塊(feature map cell)生成3個(gè)默認(rèn)檢測(cè)框.在訓(xùn)練階段時(shí), 將已標(biāo)注好的圖片中的標(biāo)注框與特征圖中的默認(rèn)檢測(cè)框(default bounding boxes)進(jìn)行匹配.對(duì)于圖2(a)中的兩個(gè)標(biāo)注框, 按照尺寸分別與8 cell×8 cell及4 cell×4 cell特征圖中藍(lán)色虛線框與紅色虛線框(貓與狗)吻合, 因此將其作為模型訓(xùn)練的正樣本, 而其他虛線框?yàn)樨?fù)樣本, 采用3 px×3 px的卷積核(filter)生成相對(duì)于默認(rèn)框的4個(gè)偏移量: 高度(h)、 寬度(w)以及中心位置(cx,cy)和21個(gè)類別置信度(c1,c2, …,cp,p=21)(以VOC2007數(shù)據(jù)為例, 一共21類).
圖2 不同比例的默認(rèn)檢測(cè)框[9]Fig.2 Different ratio of default boxes
因?yàn)檩^低層特征圖具有較良好的局部特性, 而高層的特征圖具有較好的全局特性, 而好的全局特效能獲取更平滑的結(jié)果, 所以SSD在分類網(wǎng)絡(luò)(VGG)后額外添加了逐層遞減的卷積層進(jìn)行預(yù)測(cè), 如圖3所示, 由逐層遞減的卷積層來(lái)實(shí)現(xiàn)多尺度預(yù)測(cè)以及共享權(quán)重.
圖3 SSD網(wǎng)絡(luò)模型[9]Fig.3 Network model of SSD[9]
通過(guò)在不同層的特征圖上應(yīng)用默認(rèn)檢測(cè)框機(jī)制, 可使SSD有效地離散化輸出框形狀從而大幅度減少檢測(cè)框數(shù)量, 加快檢測(cè)速度.而通過(guò)應(yīng)用從多個(gè)特征圖進(jìn)行預(yù)測(cè)的方法, 能夠?qū)斎雸D像進(jìn)行多尺度檢測(cè).
目標(biāo)函數(shù)用來(lái)衡量真實(shí)值和預(yù)測(cè)值(默認(rèn)檢測(cè)框以及對(duì)應(yīng)4個(gè)預(yù)測(cè)值和21類置信度)的差距, 通過(guò)最小化目標(biāo)函數(shù)來(lái)獲取最佳神經(jīng)網(wǎng)絡(luò)權(quán)重.如上節(jié)所述, SSD目標(biāo)函數(shù)[9]為定位損失(loc)與置信度損失(conf)的加權(quán)和:
(1)
其中:Lconf為定位損失, 其衡量檢測(cè)框定位與標(biāo)注框的差距;Lloc(x,l,g)為置信度損失, 表示分類的錯(cuò)誤率;α為權(quán)重;N代表匹配的默認(rèn)檢測(cè)框, 如果N=0, 則設(shè)L=0.若設(shè)α>1, 則更偏重定位精度, 若設(shè)α<1, 則更注重識(shí)別精度, 可按需求設(shè)置.本實(shí)驗(yàn)視定位損失和識(shí)別精度同等重要, 故設(shè)α為1.定位損失smoothL1Loss計(jì)算如下:
(2)
(3)
(4)
置信度損失計(jì)算如下:
(5)
針對(duì)對(duì)盲人出行影響較大的三類目標(biāo)(汽車(chē)、 自行車(chē)、 摩托車(chē))進(jìn)行圖像采集, 并將其分為三份: 訓(xùn)練集、 測(cè)試集和側(cè)面測(cè)試集.其中側(cè)面測(cè)試集用來(lái)驗(yàn)證測(cè)距模型對(duì)不同角度拍攝圖像的性能.此處, 采用普通手機(jī)拍攝(Iphone 6, 3 264 px×2 448 px), 因盲人對(duì)過(guò)遠(yuǎn)物體檢測(cè)需求不大, 而過(guò)近則攝像頭無(wú)法拍全整個(gè)物體.因此, 本實(shí)驗(yàn)從4.0 m開(kāi)始, 以0.5 m的間隔對(duì)三類物體的正面進(jìn)行同時(shí)拍攝, 并記錄相應(yīng)的物距, 共拍攝38組(4.0~22.5 m)作為訓(xùn)練數(shù)據(jù); 然后, 隨機(jī)選取不同距離, 以及側(cè)面角度對(duì)三類物體進(jìn)行拍攝22組, 作為測(cè)試數(shù)據(jù); 部分訓(xùn)練圖片如圖4所示, 其距離分別為6.5、 12.0、 22.0 m.
圖4 訓(xùn)練數(shù)據(jù)示例Fig.4 Examples of training data
為選取合適的特征實(shí)現(xiàn)測(cè)距, 首先對(duì)正面采集及側(cè)面采集的圖片數(shù)據(jù)進(jìn)行一定的分析.分別對(duì)每一類的正面及側(cè)面圖像進(jìn)行人工標(biāo)注, 并記錄標(biāo)注框的寬與高(單位為像素), 如圖5所示, 其距離都為6 m.
從圖中可以看出, 在相同距離時(shí)候, 不同視角會(huì)使得目標(biāo)寬度影響較為嚴(yán)重.以汽車(chē)為例, 如圖5(a)與圖5(b)所示, 汽車(chē)變化影響較為巨大(1 331 px變化為3 074 px), 而高度則變化范圍相對(duì)較小(1 038 px變化為1 262 px), 所導(dǎo)致的誤差在視覺(jué)可接受范圍之類.其他類別如自行車(chē)及摩托車(chē)的情況亦是如此.因此, 本實(shí)驗(yàn)采取較為不受視角影響的高度進(jìn)行測(cè)距, 以提高測(cè)距算法的魯棒性.
圖5 正面與側(cè)面角度圖片的標(biāo)注示例(拍攝距離: 6 m)Fig.5 Example of side angle image with ground truth boxes (shoot distance: 6 m)
將訓(xùn)練集中各類別的標(biāo)定框的高度與距離進(jìn)行回歸擬合, 從而實(shí)現(xiàn)多目標(biāo)同時(shí)測(cè)距, 采用的回歸模型為:
y=f(x,β)+ε
(6)
其中:y為距離;x為標(biāo)定框高度,x=(x1,x2, …,xm)T;m=1;β=(β0,β1, …,βp)T是未知數(shù)參數(shù)向量;ε為隨機(jī)誤差.現(xiàn)對(duì)模型做n次觀測(cè), 得到觀測(cè)數(shù)據(jù)為(xi1,xi2, …,xim,yi)T, 即:
yi=f(x(i),β)+εi
x(i)=(xi1,xi2, …,xim)T(i=1, 2, …,n)
(7)
(8)
(9)
步驟1給出β的初值β0;
步驟3計(jì)算β*:β*=β0+(xTX)-1xTY*;
步驟4迭代: 以β*代替β0重復(fù)步驟2, 3, 直至|β*-β0|或|Q(β*)-Q(β0)|結(jié)果達(dá)到預(yù)先精度為止.
提取2.1節(jié)中已標(biāo)記好的訓(xùn)練集中標(biāo)注框的高度, 記為xtrain/px, 距離記為ytrain/m, 顯著值α=0.05, 訓(xùn)練擬合出測(cè)距模型.以下以汽車(chē)為例, 旨在利用訓(xùn)練集擬合出回歸方程, 并用測(cè)試集數(shù)據(jù)(xtext,ytext)對(duì)模型進(jìn)行驗(yàn)證.訓(xùn)練集與測(cè)試集部分?jǐn)?shù)據(jù)列于表1中.
表1 標(biāo)注框高度與實(shí)測(cè)距離數(shù)據(jù)(汽車(chē))
受圖像成像原理的影響, 圖像拍攝距離(x)與物體高度(y)之間的關(guān)系并非完全線性的.畫(huà)出x,y的散點(diǎn)圖, 如圖6所示.根據(jù)其趨勢(shì), 采用指數(shù)模型對(duì)其進(jìn)行回歸擬合:y=β0eβ1x.
考慮到高度與距離量綱區(qū)別較大, 為了消除其影響, 首先對(duì)數(shù)據(jù)進(jìn)行預(yù)處理, 采用min-max歸一化到0~1范圍.
(10)
其中:xmax、xmin和ymax、ymin分別為樣本中最大值與最小值.
y=0.969 5e-3.666x
(11)
做出回歸曲線, 如圖7所示, 回歸結(jié)果如表2所示.
圖6 訓(xùn)練集與測(cè)試集散點(diǎn)圖Fig.6 Scatter plot of training data and testing data
圖7 回歸方程擬合回帶圖Fig.7 Diagram of fitting curve of regression equation
回歸方程指數(shù)類型y=0.9695e-3.666x統(tǒng)計(jì)量n=38, 自變量數(shù)m=1, SE=2.6089, SR=31.6045, ST=34.2134, 統(tǒng)計(jì)量F=437.600769??, F0.05=4.121方程檢驗(yàn)結(jié)論因?yàn)榻y(tǒng)計(jì)量F>F0.05, 所以認(rèn)為方程線性相關(guān)性顯著
由表3可知, 訓(xùn)練好的模型能夠較好地?cái)M合測(cè)試集, 并且對(duì)于側(cè)邊角度也能夠較好地反應(yīng)高度和距離的關(guān)系, 距離測(cè)量結(jié)果基本符合盲人視覺(jué)輔助需求.
圖8 回歸方程測(cè)試數(shù)據(jù)擬合回帶圖Fig.8 Diagram of fitting curve of regression equation for testing data
回歸方程指數(shù)類型 y=0.9695e-3.666x測(cè)試集統(tǒng)計(jì)量n=20, 自變量數(shù)m=1, SE=2.6713, SR=17.2539, ST=19.9252, 統(tǒng)計(jì)量F1=116.261820??, F0.05=4.41側(cè)邊測(cè)試集統(tǒng)計(jì)量n=20, 自變量數(shù)m=1, SE=3.5318, SR=22.2950, ST=25.8269統(tǒng)計(jì)量F2=113.627612??, F0.05=4.41方程檢驗(yàn)結(jié)論因?yàn)榻y(tǒng)計(jì)量F1>F0.05, F2>F0.05. 所以認(rèn)為方程線性相關(guān)性顯著
針對(duì)盲人現(xiàn)實(shí)使用需求場(chǎng)景, 本實(shí)驗(yàn)通過(guò)對(duì)不同剖面的物體、 復(fù)雜背景及多目標(biāo)情況下的識(shí)別檢出效果及距離估算精度進(jìn)行驗(yàn)證, 并對(duì)識(shí)別測(cè)量速率進(jìn)行驗(yàn)證.實(shí)驗(yàn)平臺(tái)環(huán)境配置為: CPU為i7-6700k、 RAM為16 GB、 顯卡為GTX1070, 顯存為8 GB, 運(yùn)行環(huán)境為Ubuntu16.04, PyCharm2016.3.3集成開(kāi)發(fā)環(huán)境, 搭載Keras、 TensorFlow框架.
測(cè)距結(jié)果如圖9所示.其中括號(hào)中數(shù)值為距離估計(jì)值(汽車(chē)估計(jì)值, 自行車(chē)/電動(dòng)車(chē)估計(jì)值), 括號(hào)前為真實(shí)值.
圖9 測(cè)距結(jié)果(單位: m)Fig.9 Result of measured distance(unit: m)
在圖9不同距離的測(cè)試環(huán)境中, 汽車(chē)相對(duì)于其他兩類有著較好的距離測(cè)量精確度, 但總體而言, 測(cè)量的距離精度基本可以滿足盲人的視覺(jué)輔助需求, 且在距離較遠(yuǎn)時(shí)由于目標(biāo)較小, 自行車(chē)可能存在漏檢情況, 如圖9(b)當(dāng)距離為7.5 m時(shí)自行車(chē)被漏檢, 圖9(c)中當(dāng)距離為9.3 m時(shí)摩托車(chē)及自行車(chē)都被漏檢.出現(xiàn)上述情況有如下3種原因: 1) 尺度變化導(dǎo)致物體特征減弱.為了保證實(shí)時(shí)性, SSD輸入圖片尺寸為300 px × 300 px, 則原圖(3 264 px×2 448 px)經(jīng)過(guò)尺寸變化(雙線性插值法[11])導(dǎo)致物體尺寸變小, 從而使得較小的目標(biāo)(自行車(chē)、 摩托車(chē))的特征減弱, 產(chǎn)生精度降低甚至漏檢情況.2) 背景干擾.圖9(a)中自行車(chē)把手與背景相似, 在物體尺寸較小時(shí), 只能檢測(cè)出特征較為明顯的輪子.因此出現(xiàn)“半截”的檢測(cè)框, 從而導(dǎo)致測(cè)距誤差較大.3) 人工標(biāo)注框與SSD檢測(cè)框具有一定的區(qū)別.如圖5(c)所示, 在人工標(biāo)注摩托車(chē)標(biāo)注框時(shí), 為精確定義車(chē)的大小, 摩托車(chē)上邊框被標(biāo)注為右側(cè)倒視鏡的一半, 而圖9(b)中SSD檢測(cè)框明顯未包含鏡子, 從而導(dǎo)致精度下降, 這將在下一步的工作中進(jìn)行改進(jìn).通常情況下汽車(chē)、 摩托車(chē)和自行車(chē)的行駛速度依次遞減, 因此在可檢出距離上有一定的遞減是符合實(shí)際應(yīng)用需求的.
將基于SSD及回歸擬合的物體識(shí)別測(cè)距模型應(yīng)用于側(cè)面測(cè)試集, 測(cè)試結(jié)果如圖10所示.
圖10 側(cè)面測(cè)距結(jié)果(實(shí)際距離為4 m)Fig.10 Result of measured distance(actual distance is 4 m)
從圖10可以看出, 側(cè)面測(cè)量結(jié)果與正面測(cè)量結(jié)果基本一致, 攝像頭從不同角度拍攝對(duì)物體檢測(cè)框高度影響較小, 因而本算法對(duì)不同角度有較好的適應(yīng)能力.對(duì)自行車(chē)進(jìn)行測(cè)距時(shí), 由于側(cè)面的物體特征更加明顯, 距離測(cè)量也較為精確, 但在檢測(cè)摩托車(chē)時(shí)出現(xiàn)檢測(cè)框未包括整個(gè)摩托車(chē)從而造成測(cè)距誤差明顯的情況, 這有待進(jìn)一步研究改進(jìn).通過(guò)上述分析可得出, 對(duì)于較大的物體, 由于特征較為明顯, 測(cè)距結(jié)果較好; 而對(duì)于較小物體, 或者物體未被檢測(cè)框正確框注, 會(huì)導(dǎo)致精度差距較大, 甚至存在漏檢情況.
本方法有較好的遷移性, 且在本實(shí)驗(yàn)平臺(tái)環(huán)境下能夠進(jìn)行實(shí)時(shí)測(cè)距.利用普通智能手機(jī)錄制的視頻(Iphone6, 分辨率為3 264 px × 2 448 px)進(jìn)行識(shí)別測(cè)距, 如圖11所示.圖11(a)為將本方法應(yīng)用于行人檢測(cè)與測(cè)距, 其能夠保持大約25 幀 ·s-1的實(shí)時(shí)多類物體識(shí)別測(cè)距, 并且測(cè)距精度符合盲人實(shí)際使用需求.圖11(b)為在復(fù)雜馬路識(shí)別與測(cè)距, 從圖中可以看出, 大多數(shù)行人以及車(chē)輛都被檢出, 雖有一些物體被遮擋而未被檢出, 但盲人所最關(guān)心的, 最接近盲人的幾個(gè)目標(biāo)都被檢出, 因此本方法是符合實(shí)際使用需求的.
圖11 復(fù)雜環(huán)境測(cè)距結(jié)果Fig.11 Result of complex environment ranging
最后以ETA系統(tǒng)中的障礙物檢測(cè)模塊與本方法進(jìn)行比較, 如表4所示.本方法相對(duì)于上述三種方法, 主要優(yōu)勢(shì)在于: 其一, 能夠識(shí)別障礙物.“前方有車(chē)”和“前方有人”更加值得警惕, 能夠讓盲人知道自己周邊環(huán)境, 在一定程度上增加了安全性, 并且相比于WMA識(shí)別數(shù)量更多.其二, 多個(gè)物體同時(shí)測(cè)距.上述幾個(gè)方法僅僅能夠?qū)ψ羁拷と说恼系K物進(jìn)行測(cè)距, 但盲人往往眼前景物是不斷變化的, 多目標(biāo)測(cè)距可以一定程度上對(duì)即將靠近盲人的物體做到實(shí)時(shí)監(jiān)測(cè)作用.其三, 將識(shí)別與測(cè)距同步進(jìn)行, 本方法將上述幾個(gè)系統(tǒng)原本獨(dú)立的兩個(gè)模塊合并在一起, 從而能夠?qū)崿F(xiàn)多物體同時(shí)測(cè)距, 并避免了可能造成的不同步問(wèn)題, 并使多類物體同時(shí)測(cè)距成為可能.受限于深度學(xué)習(xí)算法的復(fù)雜度, 本算法所需功耗較高, 但鑒于深度學(xué)習(xí)算法處在飛速發(fā)展中, 關(guān)于深度學(xué)習(xí)算法的優(yōu)化及其權(quán)重二值化的研究獲得了越來(lái)越多的關(guān)注[12], 因此我們相信本方法具有較大發(fā)展?jié)摿εc實(shí)用性.
表4 與經(jīng)典ETA系統(tǒng)的性能比較
針對(duì)盲人視覺(jué)輔助需求提出一種基于深度學(xué)習(xí)的多運(yùn)動(dòng)目標(biāo)快速識(shí)別并同時(shí)測(cè)距方法.該方法使用攝像頭, 利用SSD目標(biāo)檢測(cè)算法識(shí)別障礙物, 并利用SSD所生成的檢測(cè)框高度輸入測(cè)距模型, 從而能夠?qū)Χ嗄繕?biāo)快速識(shí)別并同步測(cè)距.本方法相比于其他ETA系統(tǒng)的障礙物檢測(cè)模塊而言, 能夠識(shí)別多類物體且識(shí)別類別數(shù)量可供拓展, 并能夠?qū)y(cè)距模塊和障礙物識(shí)別模塊同步執(zhí)行, 從而實(shí)現(xiàn)對(duì)多個(gè)物體實(shí)時(shí)地同步識(shí)別測(cè)距.以車(chē)輛為例, 通過(guò)采集數(shù)據(jù)、 人工標(biāo)注、 擬合等步驟, 并以實(shí)驗(yàn)證明: 本方法對(duì)于本實(shí)驗(yàn)的車(chē)輛類別測(cè)距達(dá)到盲人現(xiàn)實(shí)可供使用的精度, 且未出現(xiàn)識(shí)別錯(cuò)誤情況, 并且檢測(cè)速度在本實(shí)驗(yàn)條件下(GTX1070)達(dá)到20~25 幀·s-1, 滿足現(xiàn)實(shí)使用需求.雖在其他較小物體上檢測(cè)效果不理想, 但其主要誤差是由目標(biāo)檢測(cè)算法SSD導(dǎo)致的, 隨著目標(biāo)檢測(cè)算法的發(fā)展[12], 本方法將越來(lái)越適用.