国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

多尺度特征融合的二維編碼圖像識(shí)別

2020-10-19 04:41:02續(xù)曉麗劉從峰范廣宇
關(guān)鍵詞:背景圖卷積編碼

續(xù)曉麗 ,劉從峰 ,范廣宇

1.中國(guó)科學(xué)院 上海技術(shù)物理研究所 紅外成像材料與器件重點(diǎn)實(shí)驗(yàn)室,上海 200083

2.中國(guó)科學(xué)院 上海技術(shù)物理研究所 傳感技術(shù)國(guó)家重點(diǎn)實(shí)驗(yàn)室,上海 200083

3.中國(guó)科學(xué)院大學(xué),北京 100049

4.常州光電技術(shù)研究所,江蘇 常州 213100

1 引言

標(biāo)識(shí)和感知是物聯(lián)網(wǎng)實(shí)現(xiàn)的關(guān)鍵環(huán)節(jié),目前二維碼和RFID技術(shù)是信息識(shí)別領(lǐng)域的關(guān)鍵技術(shù),雖然RFID具有容量高、可重復(fù)讀寫、可作用于高速運(yùn)動(dòng)物體以及可同時(shí)識(shí)別多個(gè)標(biāo)簽的技術(shù)優(yōu)勢(shì),但與RFID相比,二維碼具有發(fā)布快捷和成本低廉的優(yōu)勢(shì)[1],目前使用的二維條碼標(biāo)準(zhǔn)有二十幾種,比較常用的有QR Code、Data Matrix Code 等[2],這些二維條碼都是采用黑白色塊來存儲(chǔ)信息,這種編碼方式的特點(diǎn)在于編碼本身即是一幅圖像,其本身是不透明的,因而無法將編碼與可以表示編碼所包含內(nèi)容的圖像相融合,編碼適合機(jī)器讀識(shí),但不適合人進(jìn)行讀識(shí)和理解,為了達(dá)到二維碼與圖像同時(shí)顯示的目的,目前采用的方法是利用二維碼的容錯(cuò)能力,將圖像嵌入二維碼當(dāng)中,此種方法嵌入的圖像很小,一般只能用于顯示如圖標(biāo)之類的一些簡(jiǎn)單圖形。為實(shí)現(xiàn)二維編碼圖像相結(jié)合的目標(biāo),先后有Content Idea of ASIA公司的CL code 技術(shù)、韓國(guó)延世大學(xué)的彩碼技術(shù)、微軟公司的Microsoft tag 技術(shù)以及以色列Visualead 的公司開發(fā)的二維碼美化技術(shù)等技術(shù)被提出。綜上所述,人們對(duì)于二維編碼圖像結(jié)合方案有著強(qiáng)烈的需求并一直在尋求更好的解決方案,以達(dá)到機(jī)器和人均適合識(shí)讀的二維編碼圖像結(jié)合的最佳效果。

以上二維編碼方案的共同特點(diǎn)是采用色塊來存儲(chǔ)編碼信息,這也是導(dǎo)致編碼本身會(huì)對(duì)背景圖像造成全部或部分遮擋的主要原因,由于此類編碼方案均是開發(fā)于幾年甚至幾十年以前,當(dāng)時(shí)便攜設(shè)備的拍攝能力仍然較弱,考慮到十萬像素級(jí)別的攝像頭的編碼識(shí)別能力,必須采用易于識(shí)別的色塊編碼方式,而如今隨著硬件水平的飛速發(fā)展,幾百萬甚至千萬像素的攝像頭已經(jīng)在移動(dòng)設(shè)備上普及,這使得基于線條或圖像邊緣的編碼方法具備了技術(shù)上的可行性。本文主要工作如下:

(1)提出了基于圖像邊緣的二維編碼方案。將信息編碼于標(biāo)簽的邊緣形狀當(dāng)中,適用于機(jī)器和人同時(shí)識(shí)別。

(2)將深度學(xué)習(xí)應(yīng)用于編碼圖像識(shí)別。與QR 碼等編碼不同,基于圖像邊緣的二維編碼圖像沒有定位標(biāo)記,在復(fù)雜背景中定位二位編碼圖像比較困難,因此提出將深度學(xué)習(xí)應(yīng)用到二維編碼圖像相結(jié)合的新技術(shù)當(dāng)中,通過采用改進(jìn)的SSD算法,利用多尺度特征復(fù)用,在復(fù)雜的背景中將二維編碼圖像識(shí)別出來。

(3)數(shù)據(jù)集創(chuàng)建與增廣。由于深度學(xué)習(xí)是建立在大量數(shù)據(jù)的基礎(chǔ)上,本文提出通過電腦生成相應(yīng)的數(shù)據(jù)集,利用生成的數(shù)據(jù)集去訓(xùn)練網(wǎng)絡(luò),通過合成的數(shù)據(jù)集進(jìn)行驗(yàn)證,最后用真實(shí)的圖片去測(cè)試。在數(shù)據(jù)集中,除了包括將二維編碼圖像旋轉(zhuǎn)粘貼在背景圖上生成的數(shù)據(jù)集圖片,還有在背景圖上直接粘貼無編碼的二維圖像的數(shù)據(jù)集圖片作為負(fù)樣本以及直接在背景圖上加入相應(yīng)的編碼部分特征的數(shù)據(jù)集圖片作為正樣本,從而增加了網(wǎng)絡(luò)的適應(yīng)性和魯棒性。

2 原理和方法

主流圖像識(shí)別和定位的方法大概可以分為兩類,其一是基于濾波的圖像特征提取,常用的濾波算法有小波變換、傅里葉變換、加博變換等;其二是基于人工智能類的學(xué)習(xí)算法,通過對(duì)已有的圖像特征學(xué)習(xí)來完成圖像識(shí)別,常用算法有SVM(支持向量機(jī))和深度學(xué)習(xí)[3]。為了在復(fù)雜的大背景下識(shí)別無傳統(tǒng)定位標(biāo)識(shí)的二維編碼圖像,提出將深度學(xué)習(xí)中的目標(biāo)識(shí)別算法應(yīng)用到二維編碼圖像結(jié)合的新技術(shù)當(dāng)中。目標(biāo)識(shí)別是指一個(gè)特殊目標(biāo)(或一種類型的目標(biāo))從其他目標(biāo)(或其他類型的目標(biāo))中被區(qū)分出來的過程,它既包括兩個(gè)非常相似目標(biāo)的識(shí)別,也包括一種類型的目標(biāo)同其他類型目標(biāo)的識(shí)別[4]。目前主流的基于深度學(xué)習(xí)模型的目標(biāo)檢測(cè)算法,可以分成兩大類[5]:(1)二階段檢測(cè)算法,其將檢測(cè)問題劃分為兩個(gè)階段,首先產(chǎn)生候選區(qū)域,然后對(duì)候選區(qū)域進(jìn)行分類和位置修正,這類算法的典型代表是基于候選區(qū)域的R-CNN[6]系算法,如R-CNN、Fast R-CNN、Faster RCNN 等[7];(2)一階段檢測(cè)算法,其不需要候選區(qū)域階段,直接產(chǎn)生物體的類別概率和位置坐標(biāo)值,比較典型的算法如YOLO和SSD[8]。

本文采用SSD 目標(biāo)識(shí)別算法,利用多尺度特征復(fù)用,在復(fù)雜的背景中將二維編碼圖像識(shí)別出來。

2.1 目標(biāo)檢測(cè)模型(SSD)

SSD(Single Shot Multibox Detector)算法是一階段端到端的圖像目標(biāo)檢測(cè)方法,和兩階段目標(biāo)檢測(cè)模型對(duì)比,最明顯的區(qū)別是不再需要在一階段生成候選區(qū)域然后再進(jìn)行分類,SSD 算法從訓(xùn)練數(shù)據(jù)輸入開始,會(huì)直接在網(wǎng)絡(luò)中提取特征來預(yù)測(cè)物體分類和位置,降低了網(wǎng)絡(luò)訓(xùn)練成本,能夠很好地提高檢測(cè)速度[9]。針對(duì)不同大小的目標(biāo)檢測(cè),傳統(tǒng)的做法是先將圖像轉(zhuǎn)換成不同大?。▓D像金字塔),然后分別檢測(cè),最后將結(jié)果用非極大值抑制的方法綜合起來。而SSD 算法能夠利用不同卷積層的特征層進(jìn)行綜合檢測(cè),并能達(dá)到同樣的效果。

如圖1所示,SSD算法的主網(wǎng)絡(luò)結(jié)構(gòu)是VGG16,前5層為VGG16的基礎(chǔ)網(wǎng)絡(luò),并將VGG16最后兩個(gè)全連接層FC6和FC7改成卷積層,做空洞卷積,增大感受視野,并隨后增加了4個(gè)卷積層來構(gòu)造網(wǎng)絡(luò)結(jié)構(gòu),生成不同尺寸的特征圖[10]。對(duì)其中5種不同卷積層的輸出(特征層)分別用兩個(gè)不同的3×3 的卷積核進(jìn)行卷積,分別為:一個(gè)輸出分類用的置信度(每個(gè)默認(rèn)框生成類別置信度),一個(gè)輸出回歸用的位置,每個(gè)默認(rèn)框生成4 個(gè)坐標(biāo)值(x,y,w,h)[11]。

2.2 改進(jìn)模型

在圖像分割領(lǐng)域,圖像輸入到卷積神經(jīng)網(wǎng)絡(luò)中,會(huì)先對(duì)圖像進(jìn)行卷積操作然后再池化[12],可以在降低圖像尺寸的同時(shí)達(dá)到增強(qiáng)感受野的效果,但是由于圖像分割預(yù)測(cè)是基于像素級(jí)的輸出,所以要將池化后較小的圖像尺寸上采樣到原始的圖像尺寸進(jìn)行預(yù)測(cè)(一般采用反卷積操作),之前的池化操作使得每個(gè)像素預(yù)測(cè)都能看到較大感受野信息[13]。因此,圖像分割中有兩個(gè)關(guān)鍵,一個(gè)是池化減小圖像尺度,增大感受野,另一個(gè)是上采樣擴(kuò)大圖像尺度。在先減小再增大圖像尺度的過程中,會(huì)損失掉圖像的一部分信息,為解決上述過程中信息丟失的問題,提出了空洞卷積[14]??斩淳矸e就是在標(biāo)準(zhǔn)的卷積核里注入空洞,不需要通過池化以及上采樣就能達(dá)到增加感受野的效果,減少信息的損失[15],有利于較大目標(biāo)的識(shí)別。但是,空洞卷積并不能完全地保留原始信息,也會(huì)導(dǎo)致局部信息丟失。主要原因是由于空洞卷積的計(jì)算方式類似于棋盤格式,某一層得到的卷積結(jié)果來自上一層獨(dú)立的集合,這些集合之間沒有相互依賴,導(dǎo)致該層的卷積結(jié)果之間也就沒有相關(guān)性。此外,空洞卷積是一種稀疏采樣,這使得底層的卷積與高層空洞卷積之間的信息沒有相關(guān)性,信息受損,影響分類結(jié)果[16]。由于本次檢測(cè)目標(biāo)的特征都是局部小特征,因此,此次的網(wǎng)絡(luò)框架去掉了原來第六層空洞卷積層。

圖1 SSD框架圖[8]

淺層的特征圖感受視野較小,圖像的細(xì)節(jié)信息保留較好,深層特征圖感受視野較大,更適合于大目標(biāo)的檢測(cè)[17]。本次檢測(cè)要求目標(biāo)是具有編碼邊框特征的二維編碼圖像,關(guān)注的是編碼邊框的特征,該特征只占二維編碼圖像本身的10%,并且在實(shí)際應(yīng)用情況下,二維編碼圖像占據(jù)整張檢測(cè)圖片的比例不會(huì)過大,所以只是選擇了淺層的圖層Con4-3、FC7以及Conv8-2進(jìn)行特征融合。改進(jìn)的SSD模型框架如圖2,為了驗(yàn)證該模型的有效性,本文研究了改進(jìn)前后的SSD模型以及網(wǎng)絡(luò)深度的選擇對(duì)二維編碼圖像識(shí)別準(zhǔn)確性的影響。

2.3 數(shù)據(jù)集

目標(biāo)檢測(cè)常用的數(shù)據(jù)集有Pascal VOC[18]、ImageNet[19]以及Microsoft公司建立的MS COCO[20](Common Objects in Context)數(shù)據(jù)集。為獲得適用于本次編碼識(shí)別網(wǎng)絡(luò)訓(xùn)練的數(shù)據(jù)集,采用Visual Studio 2017 為工具,基于MFC和opencv設(shè)計(jì)了批量生成二維編碼圖像與背景合成圖像的軟件,并采用VOC 標(biāo)記模式生成訓(xùn)練集和驗(yàn)證集。

圖2 改進(jìn)的SSD模型框

2.3.1 邊框顏色選擇

在二維編碼圖像生成的過程中,需要考慮復(fù)雜背景對(duì)識(shí)別的影響,由于生成的二維編碼圖像中只有邊緣部分作為特征,因此二維編碼圖像的顏色對(duì)有效識(shí)別是至關(guān)重要的。對(duì)于二維編碼圖像顏色的選取,要與圖像本身的顏色有明顯差異,這樣二維編碼圖像的信息才能避免被圖像侵蝕和掩蓋,從而達(dá)到更好的識(shí)別效果。通過直方圖統(tǒng)計(jì)方法對(duì)如圖3(a)所示的圖像邊緣1/10 寬度內(nèi)的局部顏色信息進(jìn)行分析,由于圖像原始的RGB 顏色空間過多,在直方圖統(tǒng)計(jì)以及二維編碼圖像邊框顏色選取上會(huì)導(dǎo)致信息的冗余,而二維編碼圖像邊框的顏色只要達(dá)到與該二維編碼圖像內(nèi)部的顏色存在明顯差異的效果即可,所以在分析圖像顏色信息時(shí)采用降維的思想將原有的256×256×256 色變成按照0~15,16~31,…,240~255進(jìn)行分組降維成16×16×16色,然后統(tǒng)計(jì)出每個(gè)通道顏色值最少的顏色,并生成如圖4 所示的直方圖,從圖中可以看出,顏色值最少的區(qū)間為RGB(128~143,0~16,0~16),取區(qū)間中間值RGB(136,8,8)為二維編碼圖像的顏色值,最終所生成的二維編碼圖像如圖3(b)所示。

圖3 數(shù)據(jù)集顏色選取

圖4 顏色分布直方圖

與傳統(tǒng)的二維碼如QR 碼不同的是,所生成的二維編碼圖像僅在圖像邊緣10%的范圍內(nèi)有編碼信息,圖像本身的信息并沒有被掩蓋,不影響人對(duì)圖像內(nèi)容的理解,適用于機(jī)器和人同時(shí)識(shí)別。

2.3.2 數(shù)據(jù)集生成

由于需要在復(fù)雜場(chǎng)景下有效識(shí)別生成的二維編碼圖像,并且考慮到實(shí)際應(yīng)用情況,本次用于訓(xùn)練和驗(yàn)證的數(shù)據(jù)集圖片是將經(jīng)過縮放及旋轉(zhuǎn)的二維編碼圖像疊加至背景圖相應(yīng)位置所生成的,同時(shí)也生成了相應(yīng)的XML標(biāo)記文件。具體的數(shù)據(jù)集生成流程如圖5所示,所得到的數(shù)據(jù)集樣本如圖6所示。在圖7所示的生成數(shù)據(jù)集的界面中,批處理界面下的加邊框選項(xiàng)是指批次生成二維編碼圖像,再通過旋轉(zhuǎn)加插入背景選項(xiàng)可以將生成的二維編碼圖像旋轉(zhuǎn)并插入到相應(yīng)的背景圖中,在如圖8所示的彈出對(duì)話框選項(xiàng)中進(jìn)行設(shè)置,可以實(shí)現(xiàn)對(duì)二維編碼圖像的任意角度旋轉(zhuǎn)以及相應(yīng)位置的疊加,最終生成的xml標(biāo)記文件如圖9所示。

圖5 數(shù)據(jù)集生成流程圖

圖6 數(shù)據(jù)集圖片

圖7 批處理界面

圖8 旋轉(zhuǎn)加插入背景對(duì)話框

圖9 XML標(biāo)記文件

2.3.3 數(shù)據(jù)增廣

識(shí)別帶有邊框的二維編碼圖像與圖像內(nèi)容無關(guān),在建立數(shù)據(jù)集時(shí),需考慮如何抵消內(nèi)部圖片特征對(duì)識(shí)別二維編碼圖像的影響,因此在數(shù)據(jù)集的背景圖上人為嵌入了無邊框的圖片作為負(fù)樣本背景圖(圖10(a))以及直接在背景圖上加框(圖10(b))作為正樣本圖片,以此增加網(wǎng)絡(luò)的適應(yīng)性和魯棒性。

圖10 增廣數(shù)據(jù)集圖片

3 實(shí)驗(yàn)結(jié)果與分析

3.1 實(shí)驗(yàn)環(huán)境與參數(shù)選擇

3.1.1 實(shí)驗(yàn)環(huán)境

硬件配備:Intel i7-8700k,Nvidia Titan X。

軟件配備:ubantu Linux,Tensorflow 1.9。

3.1.2 錨框

改進(jìn)模型的錨框是由圖2 所示的Conv4_3、FC7、Conv8_2 這3 個(gè)特征層卷積層輸出的特征圖所產(chǎn)生,特征圖的大小分別為38×38、19×19、10×10。每個(gè)n×n大小的特征圖中有n×n個(gè)中心點(diǎn),每個(gè)中心點(diǎn)產(chǎn)生k個(gè)錨框,每層的k值分別為4、6、6,最終生成了7 098個(gè)錨框。

每層錨框的尺度列表可由公式(1)獲得,由于實(shí)際計(jì)算過程中需要進(jìn)行取整,所以采用公式(2)。其中Sk為錨框與原始圖片的大小之比,該原始圖片是指經(jīng)過預(yù)處理輸入到網(wǎng)絡(luò)的圖片,大小為300×300[8]。Smax和Smin分別為最大和最小的比值,本次二維編碼圖像的最大與最小比值分別為0.90和0.15,m為網(wǎng)絡(luò)特征層的層數(shù),本次模型的特征層數(shù)為3層。其中第一層特征圖的錨框尺度比例一般設(shè)置為Smin/2=0.07 ,最大為S1=Smin=0.15,故第一層預(yù)設(shè)尺寸最小值為300×0.07=21,最大尺寸為300×0.15=45。同理可得第二層錨框的尺度最小為45,最大為157,第三層的尺度最小為157,最大為270。但是,本次檢測(cè)的目標(biāo)是二維編碼圖像,其特征只在目標(biāo)的邊緣部分,且考慮到后續(xù)編碼提取等實(shí)際問題,目標(biāo)不宜過小,且目標(biāo)的整體部分特征基本在第一層特征圖上有所體現(xiàn),故第一層特征圖如果按照上述公式計(jì)算,錨框偏小,會(huì)集中檢測(cè)目標(biāo)中間的特征,故將錨框尺度列表改為:[(21,91),(91,161),(161,231)]。

3.2 測(cè)試結(jié)果與分析

3.2.1 顏色測(cè)試結(jié)果及分析

本次網(wǎng)絡(luò)訓(xùn)練共使用訓(xùn)練集圖片53 581張,由用來生成二維編碼圖像的原始圖片以及原始背景圖合成,標(biāo)記的目標(biāo)包括二維編碼圖像以及直接在背景圖上生成的二維編碼圖像邊框,如圖10所示。測(cè)試集由8 043張圖片組成,在背景以及生成的二維編碼圖像的選擇上,測(cè)試集與訓(xùn)練集具有完全不同的圖像內(nèi)容,以保證測(cè)試效果的準(zhǔn)確性。其中圖10的測(cè)試結(jié)果如圖11,1表示所屬類別,由于本次檢測(cè)的目標(biāo)只有二維編碼圖像,即代表所識(shí)別的二維編碼圖像,1.000 為其置信度。圖12 為圖10(a)經(jīng)過神經(jīng)網(wǎng)絡(luò)各個(gè)卷積層的輸出結(jié)果。圖13為神經(jīng)網(wǎng)絡(luò)訓(xùn)練的收斂曲線。

圖11 圖10測(cè)試結(jié)果

圖12 圖10(a)經(jīng)過各個(gè)卷積層的輸出

圖13 神經(jīng)網(wǎng)絡(luò)的收斂曲線

在目標(biāo)識(shí)別中,利用多尺度的特征進(jìn)行融合是提高識(shí)別的一個(gè)重要手段[21-22]。其中位于低層的特征,其分辨率更高,包含更多位置、細(xì)節(jié)信息,但是由于經(jīng)過的卷積更少,其語義性更低,噪聲更多,如圖12(a)、(b)、(c)所示,低層的特征圖除了提取了所需識(shí)別目標(biāo)圖像的邊緣信息、位置信息以外,還提取了不需要識(shí)別部分的信息,雖然細(xì)節(jié)信息多,但是信息過于冗雜,不適合做特征提取層。高層特征具有更強(qiáng)的語義信息,但是分辨率很低,對(duì)細(xì)節(jié)的感知能力較差,如圖12(f)、(g),特征圖準(zhǔn)確地提取了所標(biāo)記位置二維編碼圖像的整體特征,但是對(duì)于二維編碼圖像邊緣的局部特征并不敏感。因此本次改進(jìn)的SSD 算法選擇了淺層的圖層Con4-3,與較深層的圖層FC7和Conv8-2進(jìn)行特征融合,也即如圖12(d)以及(f)、(g)所示,是特征提取層的輸出圖像,其中Conv4-3 提取二維編碼圖像的細(xì)節(jié)信息,如邊緣輪廓的細(xì)粒信息等等,F(xiàn)C7 和Conv8-2 提取了二維編碼的整體信息,而更高圖層的特征由于其分辨率更低,丟失的信息更多,對(duì)于識(shí)別該類具有邊緣細(xì)節(jié)信息的目標(biāo)不適用。

對(duì)改進(jìn)的網(wǎng)絡(luò)進(jìn)行訓(xùn)練,由圖13收斂曲線可知,該網(wǎng)絡(luò)能夠很好地收斂,達(dá)到穩(wěn)定的效果。測(cè)試結(jié)果表明,標(biāo)準(zhǔn)mAP(mean Average Precision)為70%,低于預(yù)期水平。其中mAP 為所有類別AP(Average Precision)的平均,AP是PR曲線下覆蓋的面積,其中P為Precision,計(jì)算方法如公式(3)所示。R為Recall,計(jì)算方式如公式(4)所示。其中TP為正樣本又被預(yù)測(cè)為正樣本的個(gè)數(shù),F(xiàn)P為負(fù)樣本被預(yù)測(cè)為了正樣本的個(gè)數(shù),F(xiàn)N為正樣本被預(yù)測(cè)為了負(fù)樣本的個(gè)數(shù)。

為了分析其原因,將如圖14 所示的無法識(shí)別的二維編碼圖像篩選出來,統(tǒng)計(jì)未識(shí)別二維編碼圖像邊緣10%的顏色信息表如表1 所示,發(fā)現(xiàn)所選取的顏色值(88,88,88)雖然在RGB 通道上統(tǒng)計(jì)出來最少,但是仍會(huì)出現(xiàn)二維編碼圖像邊框的顏色與圖像邊緣處顏色相近的情況,如B通道上所示,最少的顏色值為降維后的5,最多的顏色值為降維后的顏色值6,兩個(gè)顏色值在空間上相鄰,顏色信息相近,從而導(dǎo)致了網(wǎng)絡(luò)無法對(duì)該二維編碼圖像有效識(shí)別。因此,在二維編碼圖像邊框的顏色選取上需要額外考慮相近顏色值的干擾,避免此類情況的發(fā)生。改進(jìn)后的顏色選取流程如圖15所示。

圖14 初始測(cè)試集中未識(shí)別的二維編碼圖像

圖15 改進(jìn)后的顏色選取流程圖

顏色值相近意味著在顏色空間上距離相近,所以在統(tǒng)計(jì)顏色直方圖時(shí),不僅要統(tǒng)計(jì)出RGB 每個(gè)通道顏色最少的顏色值,還要統(tǒng)計(jì)出每個(gè)通道顏色值最多的顏色值,對(duì)于圖14 中的二維編碼圖像邊緣10%區(qū)域,由表1可知其RGB 最少值和最多值分別為(5,5,5)和(10,3,6)。通過計(jì)算分別得出R、G、B三個(gè)通道中最多與最少的顏色值之間的距離,當(dāng)顏色差值小于3 時(shí),意味著該通道上兩個(gè)顏色值相近,則直接選取在距離上與最多顏色值相差為3的顏色值為新的顏色值。由于此區(qū)域中B通道與G 通道計(jì)算所得顏色差值均小于3,故新的顏色值選定為(5,0,3),從而保證該顏色值與圖像邊緣處最多顏色值之間具有顯著差異,有利于網(wǎng)絡(luò)對(duì)二維編碼圖像的有效識(shí)別。此外,為了便于人眼識(shí)別,以及考慮到二維編碼圖像的實(shí)際應(yīng)用場(chǎng)景,應(yīng)避免在顏色空間上選取在R、G、B三個(gè)通道上顏色值相等或相近的顏色。當(dāng)出現(xiàn)顏色值相等或相近情況時(shí),直接將其中兩個(gè)通道的顏色值在距離上加5(避免與前面排除選取顏色相近的值抵消)重新生成易于識(shí)別的二維編碼圖像,新選取的顏色值并未出現(xiàn)上述情況,故最終選取的顏色值為(5,0,3),對(duì)應(yīng)到256×256×256 顏色空間中,顏色值為(88,8,56),重新生成二維編碼圖像如圖16所示。對(duì)于采用該方法重新生成的測(cè)試集,所測(cè)得的標(biāo)準(zhǔn)mAP 達(dá)到100%,表明二維編碼圖像的顏色對(duì)有效識(shí)別是至關(guān)重要的,改進(jìn)后的顏色選取方法能夠有效提高機(jī)器對(duì)二維編碼圖像的識(shí)別率。

圖16 重新生成的二維編碼圖像

3.2.2 模型驗(yàn)證結(jié)果及分析

為了進(jìn)一步驗(yàn)證改進(jìn)模型的有效性,本文研究了改進(jìn)前后的SSD 模型以及網(wǎng)絡(luò)深度的選擇對(duì)二維編碼圖像識(shí)別準(zhǔn)確性的影響。圖17給出了改進(jìn)前后的SSD模型對(duì)不符合上述編碼規(guī)則的二維編碼圖像的識(shí)別結(jié)果,該類圖像的絕大部分與所要識(shí)別的目標(biāo)一致,只有邊框不連通。其中,四層特征圖所選取的特征層是Conv4_3、FC7、Conv8_2和Conv9_2。結(jié)果表明,除無空洞卷積的三層特征圖網(wǎng)絡(luò)外,其余三種網(wǎng)絡(luò)模型對(duì)該類圖像均存在誤識(shí)別現(xiàn)象。為進(jìn)一步研究改進(jìn)前后的模型對(duì)此類圖像的誤識(shí)別情況,使用由1 000 張?jiān)擃悎D像組成的驗(yàn)證集圖片進(jìn)行驗(yàn)證。

表1 圖14中未能識(shí)別二維編碼圖像邊緣10%顏色信息表

圖17 不同模型對(duì)不符合編碼規(guī)則的二維編碼圖像識(shí)別結(jié)果

由表2 四種不同網(wǎng)絡(luò)對(duì)不符合編碼規(guī)則的二維編碼圖像的誤識(shí)別率可知,帶有空洞卷積的網(wǎng)絡(luò)對(duì)于邊框處存在較小差異的二維編碼圖像易出現(xiàn)誤識(shí)別情況,尤其是四層特征圖帶空洞卷積的網(wǎng)絡(luò)的誤識(shí)別率高達(dá)96.04%,這說明使用空洞卷積會(huì)使局部信息丟失,尤其是在小目標(biāo)的檢測(cè)當(dāng)中,如本文檢測(cè)目標(biāo)的特征只占本體的10%,且集中在目標(biāo)的邊緣部分,因此帶有空洞卷積的網(wǎng)絡(luò)不適用于所設(shè)計(jì)二維編碼圖像的檢測(cè)。此外,與三層特征圖的網(wǎng)絡(luò)相比,增加一層更深的網(wǎng)絡(luò)特征圖Conv9_2會(huì)增大誤識(shí)別率,不利于目標(biāo)的識(shí)別。綜上,改進(jìn)后的SSD 模型能夠有效避免對(duì)不符合二維編碼規(guī)則圖像的誤識(shí)別,同時(shí)減少了網(wǎng)絡(luò)參數(shù),提高了檢測(cè)效率。

表2 不同模型對(duì)不符合編碼規(guī)則二維編碼圖像誤識(shí)別率

3.2.3 改進(jìn)SSD模型與其他模型對(duì)比分析

為了進(jìn)一步地表征改進(jìn)SSD 模型對(duì)二維編碼圖像識(shí)別的可靠性以及有效性,對(duì)其他現(xiàn)有的重要改進(jìn)模型進(jìn)行訓(xùn)練、測(cè)試對(duì)比分析,其中訓(xùn)練集為改進(jìn)SSD 模型的訓(xùn)練集,測(cè)試集為重新生成的12 187張與訓(xùn)練集完全不同的圖片(背景圖以及二維編碼圖像均不同),其中在430張背景圖上增加了不符合編碼規(guī)則的二維編碼圖像作為負(fù)樣本處理,得到的對(duì)比結(jié)果如表3所示。

由表3可知,經(jīng)過改進(jìn)SSD網(wǎng)絡(luò)訓(xùn)練出來的模型在測(cè)試集上的召回率明顯高于Yolov3、SSD_Mobilenet 在測(cè)試集上的召回率,其高達(dá)100%,達(dá)到了預(yù)期效果。而其中SSD_Mobilenet 的召回率最低,僅為62.03%,其選擇的特征圖層是基于Conv11 開始的,特征圖的大小為19×19,分辨率為改進(jìn)SSD 模型特征圖開始選擇的Conv4-3 的38×38 的一半,低分辨率的特征圖不利于小目標(biāo)的識(shí)別,尤其是針對(duì)二維編碼圖像類的特征集中在目標(biāo)的邊緣部分的小目標(biāo),其特征只占目標(biāo)的很小部分,當(dāng)提取的特征圖分辨率過低時(shí),細(xì)節(jié)信息提取不充分,從而無法達(dá)到較好的識(shí)別效果。而Yolov3 采用Darknet-53網(wǎng)絡(luò)結(jié)構(gòu),特征圖最大的為52×52,針對(duì)只存在輪廓等特征的小目標(biāo),如飛機(jī)、風(fēng)箏等,檢測(cè)效果顯著,但是針對(duì)二維編碼圖像,其特征只在邊緣部分,且內(nèi)部圖像為整體的干擾特征,過大的特征圖會(huì)帶來特征信息的冗余,不利于二維編碼圖像的識(shí)別。與改進(jìn)前的SSD 相比,由于只增加了430 個(gè)負(fù)樣本去計(jì)算其準(zhǔn)確率,但是可以看到,改進(jìn)后的SSD 模型的準(zhǔn)確率有顯著增強(qiáng)。綜上,本文通過去掉原有SSD 模型的空洞卷積層,減少了細(xì)節(jié)信息的損失,使深層特征提取層能夠保留更多的細(xì)節(jié)信息,有利于細(xì)節(jié)信息豐富的圖像識(shí)別。此外,通過對(duì)所要識(shí)別的目標(biāo)進(jìn)行分析,發(fā)現(xiàn)目標(biāo)所占整張照片的比例不會(huì)太大,且目標(biāo)的特征集中在目標(biāo)的邊緣部分,去掉了視野范圍更廣深層的特征圖,選取合適的淺層特征圖提取細(xì)節(jié)進(jìn)行特征融合,可以更加準(zhǔn)確地提取目標(biāo)的特征。通過與其他重要改進(jìn)模型的對(duì)比分析可知,本文的改進(jìn)方法適用于特征集中在目標(biāo)邊緣且局部小特征占比很大,目標(biāo)較小的二維編碼圖像的識(shí)別。

表3 改進(jìn)SSD模型與其他模型在測(cè)試集上的對(duì)比結(jié)果%

3.2.4 真實(shí)圖片測(cè)試結(jié)果與分析

將彩印的二維編碼圖像放到多個(gè)真實(shí)場(chǎng)景中進(jìn)行拍攝,所獲取的真實(shí)照片構(gòu)成了本文的驗(yàn)證集。圖18給出了正常視角和傾斜視角下拍攝的二維編碼圖像,與正常視角相比,傾斜視角下的二維編碼圖像具有明顯的形變。結(jié)果表明,由改進(jìn)后SSD模型對(duì)真實(shí)場(chǎng)景中兩種視角的二維編碼圖像均能有效識(shí)別,達(dá)到了理想的識(shí)別效果。

圖18 真實(shí)場(chǎng)景中的二維編碼圖像

4 總結(jié)

為實(shí)現(xiàn)機(jī)器和人眼均適讀二維碼,提出了一種二維編碼圖像結(jié)合的新型二維圖像編碼技術(shù),并介紹了用來識(shí)別此類二維編碼的方法——SSD 算法。前期通過Visual studio 2017 來創(chuàng)建數(shù)據(jù)集,在創(chuàng)建的過程中,將直接粘貼于背景圖上的無編碼二維圖像的數(shù)據(jù)集圖片作為負(fù)樣本,直接在背景圖上加入相應(yīng)的編碼部分特征的數(shù)據(jù)集圖片作為正樣本,原始的數(shù)據(jù)集得到增廣,以此增加網(wǎng)絡(luò)的適應(yīng)性和魯棒性。后期在模型的改進(jìn)、驗(yàn)證與測(cè)試中發(fā)現(xiàn)二維編碼圖像邊框的顏色、空洞卷積以及網(wǎng)絡(luò)的深度對(duì)二維編碼圖像的識(shí)別有很大的影響,并最終改進(jìn)SSD算法讓其適用于二維編碼圖像的識(shí)別,使其對(duì)具有良好拍照條件的真實(shí)圖片的編碼識(shí)別準(zhǔn)確率達(dá)到100%。

猜你喜歡
背景圖卷積編碼
種樹學(xué)問大
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
基于SAR-SIFT和快速稀疏編碼的合成孔徑雷達(dá)圖像配準(zhǔn)
《全元詩》未編碼疑難字考辨十五則
子帶編碼在圖像壓縮編碼中的應(yīng)用
電子制作(2019年22期)2020-01-14 03:16:24
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
Genome and healthcare
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
清華院系手機(jī)背景圖
大學(xué)生(2016年7期)2016-04-29 10:12:06
運(yùn)用背景圖提高學(xué)生的能力
江门市| 澜沧| 塘沽区| 上虞市| 新河县| 北碚区| 邵东县| 尚义县| 云梦县| 会泽县| 东乌| 平阳县| 遂宁市| 阜城县| 曲沃县| 夏邑县| 项城市| 尉氏县| 竹溪县| 晋江市| 曲沃县| 涞源县| 延边| 拜城县| 西畴县| 商城县| 武乡县| 南江县| 罗源县| 阿合奇县| 罗山县| 禄丰县| 吉林市| 衡山县| 尉犁县| 盘锦市| 盈江县| 通道| 融水| 巴楚县| 册亨县|