国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于遷移學習和顯著性檢測的盲道識別

2018-06-01 10:50李小舜吳少智
計算機工程與應用 2018年11期
關(guān)鍵詞:盲道卷積像素

李 林,李小舜,吳少智

LI Lin1,LI Xiaoshun2,WU Shaozhi3

1.成都師范學院 計算機科學學院,成都 611130

2.四川大學 電子信息學院,成都 610065

3.電子科技大學 計算機科學與工程學院,成都 611731

1.School of Computer Science,Chengdu Normal University,Chengdu 611130,China

2.College of Electronics and Information Engineering,Sichuan University,Chengdu 610065,China

3.School of Computer Science and Engineering,University of Electronic Science andTechnology of China,Chengdu 611731,China

1 引言

中國是世界上盲人最多的國家,視力障礙或全盲者,約占全世界盲人總數(shù)的18%左右[1]?,F(xiàn)如今隨著科技的不斷發(fā)展,出現(xiàn)了很多新型的電子盲杖。盲人以及視力障礙人士雖然患有眼部殘疾,但卻擁有正常人的智力以及同樣的出行需求。盲道障礙物識別實際上是圖像場景識別,相關(guān)研究非常之多。圖像場景分類是基于圖像內(nèi)容信息檢索的基礎(chǔ),根據(jù)視覺信息將其劃歸為某一類別,比如判斷圖像中是否包含飛機,若有則可以將其歸為飛機類別[2]。

近年,基于自動特征提取的深度學習技術(shù)在場景分類取得了積極進展,比如深度學習模型在大型數(shù)據(jù)集如ILSVRC[3]上獲得巨大成功。此外,Angelova等[4]的研究表明圖像場景分類的關(guān)鍵是找到圖像的顯著性區(qū)域,這對提升精確度很有幫助。Chai等[5]認為圖像場景分類的重點是判別性區(qū)域的定位以及背景區(qū)域的剔除,Krause等[6-8]指出判別性區(qū)域檢測對圖像場景分類的重要作用。

為了適應嵌入式應用場景的特殊需求,人們提出了不少高效模型。Rastegari等[9]提出的XNOR網(wǎng)絡簡單、高效并且有較好的準確率。SqueezeNet模型[10]則通過采用模型壓縮網(wǎng)絡,大大降低模型大小,以使其能在內(nèi)存受限的嵌入式場景使用,且分類精度都還不錯。Jin等[11]則對網(wǎng)絡前向加速進行了探討,提出的新方案更高效。Mobilenet模型[12]是Google提出的適合移動環(huán)境下的深度學習場景分類模型,證明在多種場景效果較好。

由于直接深度學習模型的訓練將非常耗時,如何使用已經(jīng)非常成功訓練得到的模型,充分利用其在大數(shù)據(jù)集獲得的良好特征表示,將這些特征描述子應用于個性化數(shù)據(jù)集上是值得深入研究的[13]。

為此,結(jié)合深度遷移學習和圖像的判別區(qū)域集成顯著性檢測,設(shè)計一套智能盲道障礙物識別系統(tǒng),提出了一種新的深度遷移學習盲道場景識別方法。整個方法最大優(yōu)點在于簡單,計算性能好,場景類別適應度大,尤其適合于實時狀態(tài)的自然盲道場景分類。

同時結(jié)合嵌入式開發(fā),設(shè)計了一套導盲器。導盲器的設(shè)計國內(nèi)案例非常多[14-16],但是基于深度學習提高識別效率的系統(tǒng)還沒有,提出的信息導盲系統(tǒng)是對現(xiàn)有產(chǎn)品的一個創(chuàng)新和補充。

2 基于判別區(qū)域集成顯著性檢測和深度遷移學習的盲道場景識別方法

2.1 模型框架

本文提出的基于顯著性檢測和遷移學習模型整體架構(gòu),如圖1所示,實現(xiàn)步驟如下:

(1)提取圖像的判別區(qū)域顯著性檢測特征表示。

(2)通過轉(zhuǎn)移學習,采用Mobilenet模型,提取在ImageNet上得到的模型參數(shù)和瓶頸特征描述子,將判別區(qū)域顯著性檢測表示與瓶頸特征描述子融合。

(3)將融合特征和Mobilenet結(jié)合,針對盲道數(shù)據(jù)集進行訓練,得到實際可使用的新模型。

(4)最后將生產(chǎn)的模型應用于自動導盲儀上進行道路實時檢測。

圖1 基于顯著性檢測和遷移學習的盲道場景識別方法

2.2 Mobilenet模型

Mobilenet是一系列為移動設(shè)備設(shè)計,用在Tensor-Flow中的場景分類模型,它們的設(shè)計目標是在手持或者嵌入式設(shè)備有限資源下能高效運行,提供較高的準確率。Mobilenet中的一系列模型都是小型、低延遲、低耗能模型,它們?yōu)槎喾N不同使用場景的有限資源進行了針對性的參數(shù)優(yōu)化。

Mobilenet模型核心操作是基于深度可分解的卷積,可以理解成將標準卷積分解成一個深度卷積和一個點卷積即采用1×1卷積核。深度卷積將每個卷積核應用到每一個通道,而1×1卷積用來組合通道卷積的輸出,這樣可以有效減少計算量和降低模型規(guī)模。

首先是標準卷積,假定輸入F的維度是DF×DF×M,經(jīng)過標準卷積核K得到輸出G的維度DG×DG×N,卷積核參數(shù)數(shù)量表示為DK×DK×M×N,如果計算代價也用數(shù)量表示應該是 DK×DK×M×N×DF×DF。將卷積核進行分解深度卷積DK×DK×M×DF×DF,而點卷積的計算代價是M×N×DF×DF。

Mobilenet使用了大量的3×3的卷積核,極大地減少模型規(guī)模,相比其他模型優(yōu)勢明顯。Mobilenet結(jié)構(gòu)建立在上述深度可分卷積上,以及通過減小網(wǎng)絡的寬度而不是減少層數(shù)來選擇壓縮的模型。

Mobilenet總共27個卷積層和Maxpool層,外加1個Softmax層和最后全連接層。

為了構(gòu)建更小和更少計算量的網(wǎng)絡,不同應用場景會采用兩個重要參數(shù):模型寬度乘數(shù)(with multiplier)α和分辨率乘數(shù)(resolution multiplier)ρ。調(diào)整α和 ρ值,可將Mobilenet應用于許多不同的任務。

α和ρ分別可以為(0,1]之間的系數(shù),這樣可以有效壓縮模型。

2.3 判別區(qū)域集成顯著性檢測算法

根據(jù)文獻[17]評估,判別區(qū)域集成[18]方法具有最好的綜合性能,為此選擇該方法作為顯著性檢測的方法。判別區(qū)域集成方法將顯著性對象檢測看作回歸問題,可直接將區(qū)域特征向量直接映射為顯著性區(qū)域值,主要包含三個步驟:

(1)多級分割,將圖像分成多個分割區(qū)域[19]。由于很難保證一次性就能正確分割出顯著性對象,為了健壯性,需要多次分割,得到一定數(shù)量的訓練樣本。

(2)執(zhí)行區(qū)域顯著性計算,通過隨機森林回歸器,區(qū)域特征向量直接映射為顯著性區(qū)域值。分別計算三種區(qū)域特征:區(qū)域?qū)φ眨╮egional contrast)、區(qū)域特性(regional property)和區(qū)域背景(regional background)。設(shè)區(qū)域特征向量為x,隨機深林回歸器通過訓練樣本和集成特征,采用判別策略即可給出顯著性評估值即:輸入x到隨機深林回歸器 f,輸出則為顯著性評估值。

(3)顯著性特征圖通過融合多級分割得到。通過區(qū)域顯著性計算后,每個區(qū)域都有一個評估值。對每個層級,根據(jù)每個區(qū)域所含像素點對每一區(qū)域賦一個顯著性值,這樣會生成M 個顯著性圖{A1,A2,…,AM},然后融合它們即:A=g{A1,A2,…,AM}得到顯著性圖A。

2.4 遷移學習實現(xiàn)盲道障礙物新特征學習

遷移學習是指將一個領(lǐng)域上訓練好的模型通過適當?shù)姆椒▽⑵湔{(diào)整到一個新的領(lǐng)域中。本方案中采用在ImageNet上訓練好的Mobilenet模型,保留模型中所有的卷積層參數(shù),替換最后一層全連接。最后一層之前的網(wǎng)絡層稱之為瓶頸層。

將新的圖像通過訓練好的卷積神經(jīng)網(wǎng)絡直接送到瓶頸層的過程可以看作是對圖像進行特征提取的過程,在訓練好的Mobilenet模型中,因為將瓶頸層的輸出再通過一個全連接層神經(jīng)網(wǎng)絡可以很好地區(qū)分1 000種類別的圖像,所以有理由認為瓶頸層輸出的節(jié)點向量可以被作為任何圖像的一個更加精簡且表達能力更強的特征向量。

因此,在新數(shù)據(jù)集上,可以直接利用這個訓練好的神經(jīng)網(wǎng)絡對圖像進行特征提取,然后再將提取得到的特征向量作為輸入來訓練一個新的單層全連接神經(jīng)網(wǎng)絡處理新的分類問題。

2.5 遷移學習和顯著性特征融合成新特征學習

如圖1所示,通過區(qū)域?qū)ο髾z測顯著性特征需要和遷移學習模型的瓶頸特征算子進行融合。受文獻[17]啟發(fā),設(shè)是獲得的瓶頸描述子Bi和顯著性特征BS的集合,目標是尋找融合函數(shù) f(B1,B2,…,BK,BS)。實驗中可以采用線性組合的方式:

采用最小方差估計,最小化損失函數(shù)進行新模型訓練。

2.6 學習訓練和推理算法

因為面對的是實時應用場景,使用Mobilenet預訓練模型,在ImageNet(128萬幅圖像)上68%Top-5準確率。移除最后一分類層,重新采用本文數(shù)據(jù)集訓練模型,調(diào)優(yōu)各層的參數(shù)。在訓練中,調(diào)整圖像大小為224像素×224像素或128像素×128像素,以保持與使用的預訓練模型一致,并平衡通過ImageNet訓練得到的自然圖像特征并與顯著性檢測特征融合,整個過程即是轉(zhuǎn)移特征學習過程,得到給定特殊數(shù)據(jù)集上的最優(yōu)特征表示。

假定輸入一幅圖像,進行變形,添加翻轉(zhuǎn),圖像色彩調(diào)整,再隨機裁剪出224像素×224像素或128像素×128像素大小的輸入圖像,提取瓶頸描述算子,同時提取判別區(qū)域集成顯著性描述子,并融合兩個特征描述算子。使用訓練好的新模型進行推理,模型輸出:

此處,B是任意一幅圖像融合特征描述算子,m(B)是輸出每幅圖像B的前N個類別的判斷概率。

在Tensorflow中,softmax是一個額外的處理層,將神經(jīng)網(wǎng)絡的輸出變成一個概率分布。

3 實驗設(shè)計

3.1 數(shù)據(jù)集簡介

實驗在自己手動采集的數(shù)據(jù)集上測試提出的方案,針對不同參數(shù)場景,并進行了分析。數(shù)據(jù)集統(tǒng)計如表1所示。

表1 盲道周邊障礙物數(shù)據(jù)集

為了適應真實街道情況,采集了成都市區(qū)盲道周圍障礙物的實景,共采集了六種基本盲道障礙物,外加正常道路,共計七個類別,7 071幅圖像。

其中,(1)正常盲道,指可以通行的正常道路;(2)草坪,指盲道周圍可能有草地,不宜通行,是障礙物;(3)路邊坎,包括綠化護坎、路邊休息椅子凳,屬于障礙物;(4)自行車,由于共享單車的普及,道路周邊停放自行車現(xiàn)象很普遍,屬于障礙物類別;(5)框架圍欄,道路通行的邊緣,屬于障礙物;(6)階梯,道路通行中的階梯,屬于要特別注意的地方;(7)樹木,道路旁邊的樹木,屬于障礙物。

3.2 實驗設(shè)置

實驗判別區(qū)域集成顯著性檢測在OpenCV 3上進行分割和實現(xiàn)。實驗在谷歌的TensorFlow 1.3深度學習框架上進行模型的轉(zhuǎn)移訓練、驗證和測試。數(shù)據(jù)集合采用隨機方式選取80%訓練集、10%驗證集合、10%測試集進行實驗。

本文的模型通過反向傳播算法進行訓練,所有層通過相同的學習率0.001,每30個輪次一個退化因子進行調(diào)優(yōu)。

原始圖像像素是320×240,調(diào)整到224×224或128×128。每幅圖像采用隨機方式選擇0°到359°,以增加模型樣本的旋轉(zhuǎn)適應度。

模型精度計算方法如公式(4)所示:

其中,A是精度,Nerror是錯檢測圖像個數(shù),Ntotal是總的圖像個數(shù)。

4 實驗結(jié)果及分析

為了實驗數(shù)據(jù)的嚴謹、準確和一致,本研究中分類準確率保留四位有效數(shù)字,時間保留三位有效數(shù)字或小數(shù)點后兩位。

4.1 模型各階段仿真效果及分析

4.1.1 判別區(qū)域集成顯著性檢測過程仿真

判別區(qū)域集成顯著性檢測采用文獻[19]的方法。

如圖2所示,實驗中,設(shè)置分割數(shù)為15,通過多級融合為顯著性檢測描述子。第一行是原始圖像,第二行到第五行是15個多級分割得到的中間圖像。然后通過隨機深林回歸器訓練樣本和集成特征,最后形成判別區(qū)域集成顯著性檢測圖。

圖2 判別區(qū)域集成顯著性檢測生成圖

4.1.2 顯著性檢測描述子和瓶頸描述子融合過程仿真

在圖3中,(1)是原始圖像;(2)是顯著性檢測描述子;(3)是融合后的圖像;(4)是瓶頸描述子;(5)是新的模型特征。

實驗中首先通過原始圖像進行判別區(qū)域集成顯著性檢測,通過與原始圖像融合,生成新的顯著性驅(qū)動的新圖像。

結(jié)合現(xiàn)有成熟的Mobile模型通過遷移學習生成的瓶頸描述子生成新盲道數(shù)據(jù)集上的模型,得到新的模型特征。

圖3 顯著性檢測描述子和瓶頸描述子融合

4.1.3 模型類別概率

模型中圖像類別概率通過公式(3)計算得到,實驗測試如圖4所示。

圖4 圖像Top-5類別測試實驗

本實驗中列出前5個類別的概率,以分別測試表1中7幅圖像為例,如表2所示。

結(jié)合圖2和表2,可以看到,基于深度學習的模型在類別TOP5評價中,這7個測試圖像第一類別即正確分類的概率很高,說明分類正確率高。這跟圖像在訓練中已經(jīng)作為訓練樣本參與訓練有關(guān)。

表2 數(shù)據(jù)集上不同模型和參數(shù)測試集的分類結(jié)果

4.1.4 遷移學習訓練過程仿真

整個遷移學習模型在Tensorflow平臺運行訓練過程如圖5所示。

圖5中右邊根據(jù)顯著性檢測描述子和MobilenetV1模型的瓶頸特征描述子,融合生成新的中間特征,然后循環(huán)進行訓練、驗證和評估,最后輸出訓練總的檢測準確率。

圖5 遷移學習訓練過程圖

圖5 中左邊是圖像基本處理,包括圖像旋轉(zhuǎn)解碼等過程。

4.2 模型精度的比較

實驗中,模型的分類準確率性能比較,如表3所示。也測試了Mobilenet模型在不同縮放比例和圖像尺度下的精度。Mobilenet_v1是模型名稱版本,1.0或0.25是寬度乘數(shù)。224指圖像分辨率尺寸是224像素×224像素;128指圖像尺寸是128像素×128像素。從表3中可以看出:

(1)直接訓練在增加顯著性檢測時模型在縮放乘數(shù)1.0時效果最好;但總體而言,在本次實驗中,直接學習的效果,沒有遷移學習得到的效果好,這與文獻[12]的結(jié)論有出入,分析原因,很有可能是數(shù)據(jù)集的差異,或者是數(shù)據(jù)集數(shù)量還顯不足導致。

(2)增加顯著性特征檢測在每類測試比較中對精度都有提升。在遷移學習中大約有1個百分點的精度提升。

(3)采用0.25的寬度乘數(shù)相對于乘數(shù)1而言,精確度略有下降,但幅度不大。

(4)采用224和128的分辨率乘數(shù),得到的結(jié)果基本一致,影響不大。

表3 數(shù)據(jù)集上不同模型和參數(shù)測試集的分類結(jié)果 %

4.3 模型訓練時間比較

實驗中為了比較模型的訓練時間的差異,通過循環(huán)代碼,對結(jié)果連續(xù)循環(huán)5次,然后求平均值如表4所示,時間單位為s,生成模型大小以KB計。

從表4中可以看出:

(1)模型在寬度乘數(shù)為1時,模型的大小是一樣的,和精度系數(shù)沒有關(guān)系。寬度乘數(shù)為1時,模型大小是16 714 KB約等于16 MB。寬度乘數(shù)為0.25時,模型大小是1 952 KB約等于2 MB。模型壓縮比高。

(2)直接模型訓練耗時遠遠大于通過遷移學習的時間,而且精度不一定好。

(3)直接遷移學習時間基本一致,平均差別主要是系統(tǒng)運行誤差所致,寬度乘數(shù)為1時比為0.25時要長,主要是計算量大的原因。

(4)添加顯著性檢測后整個訓練時間將略有增加,主要是圖像顯著性檢測需要一定時間,不過通過C++優(yōu)化,基本對模型訓練整體影響較小,比不用顯著性檢測要多出約1 min左右。

表4 數(shù)據(jù)集上不同比例測試集的訓練時間和模型大小比較

4.4 模型訓練時間比較

在嵌入式系統(tǒng)中實現(xiàn)了提出的模型,如圖6所示。

圖6 導盲器設(shè)計功能圖

系統(tǒng)核心開發(fā)板采用迅為-i.MX6核心板,是Freescale Cortex-A9四核i.MX6Q。核心由硬件ARM芯片組成,軟件采用Android 6.0系統(tǒng),TensorFlow 1.3,OpenCV 3.3 for Android和百度地圖數(shù)據(jù),系統(tǒng)主要包括以下模塊:

(1)語言模塊:自動識別語音輸入,并給出各種提示信息回饋。

(2)GPS模塊:實現(xiàn)當前位置信息,結(jié)合高德地圖實現(xiàn)當前位置,并利用電子地圖實現(xiàn)自動建議下一步路線的功能。

(3)攝像頭模塊:獲取圖像信息,供障礙物檢測和報警使用。

(4)超聲波測距模塊:感知障礙物距離,通過對障礙物類型的鑒別,并報警距離。距離,通過對障礙物類型的鑒別,并報警距離。

(5)LED顯示屏,報錯或檢測信息輸出,供調(diào)試使用。

(6)操作鍵模塊:供盲人手動控制檢測時間,根據(jù)需要強制檢測。

核心開發(fā)板基于ARM Cortex?-A9架構(gòu),包含單核、雙核、四核高延展性的嵌入式處理器,每個內(nèi)核的運行速率可達1.2 GHz。i.MX6系列應用處理器提供高能效低功耗的處理性能,同時內(nèi)建卓越的3D圖像引擎,支持3D成像的立體圖像傳感器,支持1080P編解碼和高清3D視頻播放的高清視頻引擎以及獨立的UI界面2D引擎。導盲器實物圖如圖7所示。將訓練好的模型文件上傳導盲器,通過OpenCV+Tensorflow的C++接口編寫檢測程序,使用者根據(jù)需要按下開啟和檢測鍵,實現(xiàn)對周圍場景的檢測。

圖7 導盲器實物圖

整個導盲系統(tǒng)特點:(1)針對盲人行為特點設(shè)計,經(jīng)調(diào)查國內(nèi)還無此類應用;(2)采用主流的控制技術(shù)與通信技術(shù),保證了產(chǎn)品的通用性及先進性;(3)產(chǎn)品還可以進行進一步的功能完善和成本降低,如添加地理信息存儲器(卡),使盲人可以即時了解自己所處位置而不用求助于第三方平臺。

當盲人要出行時,輸入目的地名稱,百度電子地圖就會為盲人自動設(shè)置路線,并在行走的過程中,通過TTS語音播報導航,指引盲人到達目的地。

表5是模型在自動導盲嵌入式設(shè)備上的實時單次檢測時間,是5次測試的平均值和極值范圍,單位是s。

表5 模型在嵌入式設(shè)備上的實時單次檢測時間比較

從表5中可以看出:

(1)實時狀態(tài)單幅圖像檢測主要和模型大小有關(guān)系。

(2)寬度乘數(shù)為1時,檢測時間都在1.5 s左右,而當乘數(shù)為0.25時,檢測時間在0.5 s多一點。

(3)加入顯著性檢測對模型檢測影響不是很大,大約多0.1 s左右。

(4)訓練時間和檢測時間的規(guī)律基本相似。

5 結(jié)束語

本文分析了嵌入式圖像場景識別的一般原理、步驟及其評價方法,并提出了一種簡單高效的圖像場景識別方法,由于顯著性檢測和基于遷移學習的Mobilenet分類器的優(yōu)點,該方法實現(xiàn)盲道場景的實時高效分類和提醒。

(1)本文實驗表明在盲道場景識別中,融合顯著性檢測特征將有助于場景分類精度的提升,同時對訓練和執(zhí)行性能影響較小,說明提出方案的有效性。

(2)遷移學習的重要優(yōu)點是能夠很好地利用現(xiàn)有大規(guī)模數(shù)據(jù)集訓練得到的成功特征表達,同時結(jié)合自身特殊數(shù)據(jù)集性質(zhì)進行有針對性的再訓練,既有效節(jié)約了訓練時間,又保持相對較高的準確率,是值得深入研究的方向。

(3)數(shù)據(jù)集的構(gòu)建還需加強和優(yōu)化,盡管采集了7 000余幅圖像,但是都深感數(shù)據(jù)集代表性和廣泛性還存在不足,下一步考慮結(jié)合實際應用,采用增量學習的方式,不斷增強和完善數(shù)據(jù)集,改進模型性能。

(4)嵌入深度學習模型優(yōu)化涉及方面多,如何做到既高效又精準是一個難題,本文在這方面進行了一些探索,下一步,還將探討模型結(jié)構(gòu)和特征融合的其他影響因素,以期達到更優(yōu)效果。

參考文獻:

[1]李姝穎.基于超聲波傳感器陣列的導盲系統(tǒng)研究[D].重慶:重慶理工大學,2013.

[2]Iwan U,Johann B.The guide cane-applying mobile robot technologies to assist the visually impaired[J].IEEE Transactions on Systems,Man and Cybernetics,2001,31(2):131-136.

[3]Russakovsky O,Deng J,Su H,et al.ImageNet large scale visual recognition challenge[J].International Journal of Computer Vision,2014,115(3):211-252.

[4]Angelova A,Zhu S.Efficient object detection and segmentation for fine-grained recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,Portland,OR,USA,2013:110-118.

[5]Chai Y,Lempitsky V,Zisserman A.Symbiotic segmentation and part localization for fine-grained categorization[C]//Proceedings of the IEEE International Conference on Computer Vision,Sydney,Australia,2013:331-339.

[6]Krause J,Jin H,Yang J,et al.Fine-grained recognition withoutpartannotations[C]//Proceedings ofthe 2015 IEEE Conference on Computer Vision and Pattern Recognition,Boston,MA,USA,2015.

[7]Zhang N.Pose pooling kernels for sub-category recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,Providence,RI,USA,2012:563-572.

[8]Yang S,Wang J,Wang J,et al.Unsupervised template learning for fine-grained object recognition[C]//Proceedings of the International Conference on Neural Information Processing Systems,Lake Tahoe,USA,2012:892-901.

[9]Rastegari M,Ordonez V,Redmon J,et al.XNOR-Net:ImageNet classification using binary convolutional neural networks[C]//Proceedings ofthe European Conference on Computer Vision,Amsterdam,The Netherlands,2016:786-794.

[10]Iandola F N,Han S,Moskewicz M W,et al.SqueezeNet:AlexNet-level accuracy with 50x fewer parameters and <0.5 MB model size[J].arXiv:1602.07360v4,2016.

[11]Jin J,Dundar A,Culurciello E.Flattened convolutional neural networks for feedforward acceleration[J].arXiv:1412.5474v4,2014.

[12]Howard A G,Zhu M,Chen B,et al.Mobilenets:Efficient convolutional neural networks for mobile vision applications[J].arXiv:1704.04861v1,2017.

[13]Donahue J,Jia Y,Vinyals O,et al.DeCAF:A deep convolutional activation feature for generic visual recognition[C]//Proceedings of the 31st International Conference on Machine Learning,Beijing,China,2014:786-794.

[14]張?zhí)m.基于ARM的超聲波導盲系統(tǒng)[D].濟南:山東師范大學,2010.

[15]姜瑾.具有定位導航和障礙規(guī)避功能的電子盲杖設(shè)計[D].北京:北方工業(yè)大學,2013.

[16]姬盼盼.基于RFID和語音合成的導盲系統(tǒng)研究[D].南京:南京理工大學,2013.

[17]Borji A,Cheng M,Jiang H,et al.Salient object detection:A benchmark[J].IEEE Transactions on Image Processing,2015,24(12):5706-5722.

[18]Jiang H,Wang J,Yuan Z,et al.Salient object detection:A discriminative regional feature integration approach[C]//Proceedings of the Computer Vision and Pattern Recognition,Portland,OR,USA,2013:215-223.

[19]Achanta R,Shaji A,Smith K,et al.SLIC superpixels compared to state-of-the-art superpixel methods[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(11):2274-2281.

[20]Liu T,Yuan Z,Sun J,et al.Learning to detect a salient object[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(2):353-367.

猜你喜歡
盲道卷積像素
像素前線之“幻影”2000
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
盲道
“像素”仙人掌
從濾波器理解卷積
基于傅里葉域卷積表示的目標跟蹤算法
éVOLUTIONDIGAE Style de vie tactile
高像素不是全部
盲道上的思考
請為盲人留出一條道
博爱县| 偏关县| 吉林市| 东辽县| 巴中市| 扎赉特旗| 望城县| 定结县| 于田县| 石楼县| 濮阳县| 咸丰县| 红原县| 米林县| 鲁甸县| 县级市| 南川市| 项城市| 舒城县| 通化县| 芷江| 洛隆县| 上林县| 双辽市| 库车县| 荆州市| 西丰县| 南木林县| 泰州市| 梓潼县| 阿勒泰市| 永城市| 无极县| 石狮市| 儋州市| 新津县| 黄大仙区| 读书| 普格县| 黄山市| 台安县|