王棟 蔡斌斌 宰昶豐
摘? 要: 針對(duì)城市停車(chē)難,車(chē)位檢測(cè)環(huán)境復(fù)雜等情況,研究了一種基于Inception-V4算法的車(chē)位狀態(tài)檢測(cè)方法。在Inception-V4網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)上使用Leaky_ReLU代替ReLU作為激活函數(shù),解決ReLU激活函數(shù)引起的神經(jīng)元失活問(wèn)題;在網(wǎng)絡(luò)分類(lèi)層前添加FReLU激活函數(shù)層和多個(gè)全連接層,使其獲得有更豐富語(yǔ)義信息的特征向量,防止了網(wǎng)絡(luò)過(guò)擬合問(wèn)題,提高車(chē)位狀態(tài)檢測(cè)模型的整體性能?;赑KLot停車(chē)場(chǎng)數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果表明,該方法對(duì)車(chē)位狀態(tài)檢測(cè)準(zhǔn)確率較原模型有較大程度的提升。
關(guān)鍵詞: 車(chē)位檢測(cè); 深度學(xué)習(xí); Inception-V4; Leaky_ReLU; FReLU
中圖分類(lèi)號(hào):TP181? ? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A? ? ?文章編號(hào):1006-8228(2022)03-05-06
Abstract: Due to the difficulty of parking in cities and the complex detection environment of parking spaces, a parking space state detection method based on Inception-V4 algorithm is studied in this paper. On the basis of the Inception-V4 network structure, Leaky_ReLU is used instead of ReLU as the activation function to solve the problem of neuron inactivation caused by the ReLU activation function; the FReLU activation function layer and multiple fully connected layers are added before the network classification layer to obtain feature vectors with richer semantic information, which prevents network over-fitting problems and improves the overall performance of the parking space state detection model. The experimental results on PKLot parking lot data set show that the accuracy of the parking space state detection of this method is greatly improved compared with the original model.
Key words: parking space detection; deep learning; Inception-V4; Leaky_ReLU; FReLU
0 引言
隨著城市規(guī)模與機(jī)動(dòng)車(chē)數(shù)量的不斷增長(zhǎng),城市道路越來(lái)越擁擠,許多學(xué)者提出使用車(chē)位信息共享緩解城市交通擁堵,而車(chē)位狀態(tài)檢測(cè)是實(shí)現(xiàn)車(chē)位信息共享的重要前提。
目前車(chē)位狀態(tài)檢測(cè)主要分為基于傳感器和基于計(jì)算機(jī)視覺(jué)兩種?;趥鞲衅鞯能?chē)位狀態(tài)檢測(cè)方法主要通過(guò)計(jì)算紅外線(xiàn)、超聲波、雷達(dá)等傳感器到目標(biāo)車(chē)輛的距離來(lái)判斷車(chē)位是否在指定車(chē)位上,如,何偉[1]使用車(chē)載超聲波傳感器及輪速傳感器聯(lián)合測(cè)得垂直泊車(chē)工況下車(chē)位,曾凱[2]使用基于NB-IoT技術(shù)的地磁傳感器車(chē)位檢測(cè)系統(tǒng)獲取車(chē)位狀態(tài)信息,但該方法需要大量的傳感器裝置覆蓋停車(chē)場(chǎng)或安裝至目標(biāo)車(chē)內(nèi),且安裝鋪設(shè)繁瑣,成本高,維護(hù)困難?;谟?jì)算機(jī)視覺(jué)的檢測(cè)方法主要通過(guò)圖像采集設(shè)備對(duì)場(chǎng)景進(jìn)行拍攝獲取圖像,并結(jié)合統(tǒng)計(jì)模式識(shí)別或者深度學(xué)習(xí)等方法對(duì)車(chē)位狀態(tài)進(jìn)行檢測(cè)。圖像采集設(shè)備覆蓋范圍廣,成本低,且基于停車(chē)場(chǎng)現(xiàn)有的監(jiān)控設(shè)備就可實(shí)現(xiàn)檢測(cè),基于視覺(jué)的檢測(cè)方法成為目前主要的研究方向。如,Dan[3]等人使用支持向量機(jī)(Support Vector Machine,SVM)的方法實(shí)現(xiàn)了對(duì)空車(chē)位的檢測(cè),實(shí)驗(yàn)結(jié)果顯示檢測(cè)速度較慢;Wu[4]等人通過(guò)將SVM與馬爾可夫隨機(jī)場(chǎng)框架結(jié)合及Paulo[5]等人將SVM與高斯初始化的局部二值化模式結(jié)合來(lái)提高檢測(cè)效率。該技術(shù)解決了光照變化對(duì)車(chē)位檢測(cè)的影響,但需要根據(jù)具體數(shù)據(jù)調(diào)整分類(lèi)器,泛化能力較弱,對(duì)天氣和陰影條件干擾的圖像識(shí)別率較低。而深度學(xué)習(xí)可以學(xué)習(xí)海量數(shù)據(jù),解決數(shù)據(jù)中高維、高噪聲等SVM難以處理的問(wèn)題,提高檢測(cè)準(zhǔn)確率。
近年來(lái),卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)由于大量的訓(xùn)練標(biāo)記數(shù)據(jù)和連續(xù)多層卷積過(guò)程,已被廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)任務(wù)中[6],隨著深度學(xué)習(xí)不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)到更抽象、更高級(jí),更具辨別性的特征,AlexNet[7],ZFNet[8],VGGNet[9],GoogLeNet[10],ResNet[11],SENet[12]等網(wǎng)絡(luò)結(jié)構(gòu)的相繼出現(xiàn),在圖像分類(lèi)任務(wù)上效果出眾。如,karakaya[13]等人在嵌入式系統(tǒng)上運(yùn)行循環(huán)神經(jīng)網(wǎng)絡(luò)來(lái)對(duì)停車(chē)場(chǎng)圖像進(jìn)行處理,獲取停車(chē)場(chǎng)可用性信息,檢測(cè)停車(chē)位占用率,但沒(méi)有在空車(chē)位檢測(cè)信息方面做更多研究;安旭驍[14]等人提出使用迷你卷積神經(jīng)網(wǎng)絡(luò)(Mini Convolutional Neural Network,MCNN)進(jìn)行車(chē)位檢測(cè),通過(guò)減小網(wǎng)絡(luò)參數(shù),使用小卷積核,局部響應(yīng)歸一化等方法提高網(wǎng)絡(luò)訓(xùn)練速度和識(shí)別時(shí)間,但對(duì)存在陰影干擾的車(chē)位圖像識(shí)別效果不佳,易受到光照變化,物體運(yùn)動(dòng)陰影,遮擋等復(fù)雜環(huán)境因素干擾,準(zhǔn)確率較低。
上述方法均存在對(duì)陰影干擾下的車(chē)位圖像檢測(cè)效果差,容易出現(xiàn)誤檢的問(wèn)題,為了更適用于車(chē)位檢測(cè),減弱陰影條件對(duì)車(chē)位狀態(tài)檢測(cè)的干擾,本文研究一種基于Inception-V4模型的車(chē)位檢測(cè)方法。該方法以Inception-V4為基礎(chǔ)網(wǎng)絡(luò)構(gòu)架并進(jìn)行結(jié)構(gòu)調(diào)整、添加和替換FReLU,Leaky ReLU激活函數(shù),使改進(jìn)后的算法Inception-FN更加適用于車(chē)位狀態(tài)檢測(cè),增加陰影條件下車(chē)位狀態(tài)檢測(cè)的魯棒性。
1 Inception-V4結(jié)構(gòu)基本原理
對(duì)于卷積網(wǎng)絡(luò)來(lái)說(shuō),獲取高效的網(wǎng)絡(luò)性能的有效方法就是增加網(wǎng)絡(luò)的廣度及深度,但是盲目的增加會(huì)導(dǎo)致網(wǎng)絡(luò)參數(shù)的急劇增加,很容易引起過(guò)擬合,GoogLeNet[10]在經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)LeNet-5的基礎(chǔ)上,針對(duì)上述問(wèn)題設(shè)計(jì)了Inception模塊,引入多尺度卷積提取多尺度局部特征,增加了網(wǎng)絡(luò)寬度和深度,克服因深度和寬度增加帶來(lái)的參數(shù)量爆炸和優(yōu)化計(jì)算量劇增問(wèn)題,提高深度神經(jīng)網(wǎng)絡(luò)模型質(zhì)量。從Incetpion-V1到Inception-V4[15-18]版本,每個(gè)版本的網(wǎng)絡(luò)都在原有基礎(chǔ)上進(jìn)行了部分改進(jìn),以提高網(wǎng)絡(luò)性能。本文使用Inception-V4算法進(jìn)行車(chē)位狀態(tài)檢測(cè),其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,主要包括Stem模塊、Inception-A模塊、Inception-B模塊、Inception-C模塊、Reduction-A模塊、Reduction-B模塊。
Inception-V4模型在保證模型性能的同時(shí),增加模型結(jié)構(gòu)、使用更少的參數(shù)、保留特征、并提高計(jì)算效率。但在小型數(shù)據(jù)集模型上容易過(guò)擬合,在車(chē)位狀態(tài)檢測(cè)過(guò)程中,對(duì)陰影條件下的車(chē)位圖像容易出現(xiàn)漏檢、誤檢等問(wèn)題,因此針對(duì)此不足之處進(jìn)行改進(jìn)。使用leaky_ReLU激活函數(shù)代替原網(wǎng)絡(luò)中的ReLU函數(shù),解決ReLU激活函數(shù)引起的神經(jīng)元失活問(wèn)題;并對(duì)Inception-v4的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行調(diào)整,在網(wǎng)絡(luò)分類(lèi)層前添加FReLU激活函數(shù)層,自適應(yīng)捕獲圖像像素空間相關(guān)性,豐富提取的車(chē)位圖像特征和高等級(jí)的抽象語(yǔ)義信息;添加批量歸一化層和全連接層,加強(qiáng)模型正則化,減少信息傳遞損失和過(guò)擬合影響,從而提高模型性能以及泛化能力。
2 基于Inception-V4的車(chē)位檢測(cè)
2.1 激活函數(shù)改進(jìn)
Inception-V4神經(jīng)網(wǎng)絡(luò)用線(xiàn)性修正單元ReLU[19]作為激活函數(shù),ReLU激活函數(shù)及其導(dǎo)數(shù)表達(dá)式為:
ReLU激活函數(shù)在[x>0]時(shí)輸出為[x],可以避免梯度消失,計(jì)算速度快,能使網(wǎng)絡(luò)快速收斂,[x≤0]時(shí),輸出為0,使部分神經(jīng)元處于非激活狀態(tài),其后向傳導(dǎo)權(quán)重?zé)o法更新。
為了解決ReLU激活函數(shù)輸入值為負(fù)時(shí)神經(jīng)元會(huì)失活的問(wèn)題,使用Leaky_ReLU[20]函數(shù)作為網(wǎng)絡(luò)主體的激活函數(shù),其表達(dá)式為:
其中,[x]為上層輸出特征,[α]為一個(gè)較小的常數(shù),一般取值為0.01。當(dāng)[x>0]時(shí)輸出為[x],[x<0]時(shí),得到[αx],保證輸入信息不會(huì)丟失,防止神經(jīng)元失活,保證訓(xùn)練梯度正常傳播。
為了減少圖像在網(wǎng)絡(luò)傳遞中的信息損失,提高網(wǎng)絡(luò)性能,在分類(lèi)層前增加FReLU[21]激活函數(shù)層,擴(kuò)大感受野,使網(wǎng)絡(luò)獲取更豐富的語(yǔ)義信息。
其表達(dá)式為:
其中:[Pωc]表示此窗口上在同一通道中共享的系數(shù);[xωc,i,j]是以二維空間位置[(i,j)]上第C個(gè)通道上的非線(xiàn)性激活函數(shù)[f(?)]的輸入像素為中心的參數(shù)池化窗口,使用參數(shù)池化窗口在創(chuàng)建空間依賴(lài)性。
FReLU激活函數(shù)通過(guò)增加可忽略不計(jì)的空間條件計(jì)算開(kāi)銷(xiāo)將ReLU和PReLU擴(kuò)展為具有像素級(jí)建模能力的視覺(jué)參數(shù)化2D激活函數(shù)。通常的做法是在卷積層創(chuàng)建空間依賴(lài)性,并分別進(jìn)行非線(xiàn)性變換,該方法使得網(wǎng)絡(luò)可以在每個(gè)像素的非線(xiàn)性激活中產(chǎn)生空間條件,非線(xiàn)性變換時(shí)也產(chǎn)生空間依賴(lài)性,在使用網(wǎng)絡(luò)訓(xùn)練車(chē)位狀態(tài)檢測(cè)時(shí),增加網(wǎng)絡(luò)上下層空間依賴(lài)性,豐富網(wǎng)絡(luò)中的高級(jí)語(yǔ)義信息,有利于區(qū)分陰影條件干擾,提高車(chē)位檢測(cè)的魯棒性。
2.2 網(wǎng)絡(luò)結(jié)構(gòu)調(diào)整
由于Inception-V4模型復(fù)雜,為減少模型參數(shù)過(guò)多導(dǎo)致車(chē)位狀態(tài)檢測(cè)模型過(guò)擬合,影響其泛化能力,本文對(duì)Inception-v4的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行調(diào)整,在網(wǎng)絡(luò)末端分類(lèi)層添加FReLU激活函數(shù)層、批歸一化層和全連接層,減少信息傳遞損失,加強(qiáng)模型正則化,減少過(guò)擬合影響,提高模型泛化能力。圖2為結(jié)構(gòu)調(diào)整后的Inception-v4模型網(wǎng)絡(luò)結(jié)構(gòu)圖(改進(jìn)模型稱(chēng)為Inception-FN),其中方框內(nèi)為結(jié)構(gòu)調(diào)整的部分。
3 實(shí)驗(yàn)與結(jié)果分析
3.1 實(shí)驗(yàn)數(shù)據(jù)
本文使用PKLot數(shù)據(jù)集[5]中的車(chē)位圖像作為實(shí)驗(yàn)數(shù)據(jù)。使用PKLot數(shù)據(jù)集中UFPR05停車(chē)場(chǎng)場(chǎng)景數(shù)據(jù)子集,包括停車(chē)場(chǎng)不同天氣下的場(chǎng)景圖像和場(chǎng)景中分割出的各車(chē)位圖像,場(chǎng)景如圖3所示。
PKLot停車(chē)場(chǎng)數(shù)據(jù)集中包含三種天氣情況下的車(chē)位圖像,分別是晴天、多云和下雨,實(shí)驗(yàn)主要選取陰影干擾較嚴(yán)重的晴天天氣圖像作為研究對(duì)象,文獻(xiàn)[13-14]對(duì)停車(chē)場(chǎng)車(chē)位狀態(tài)檢測(cè)結(jié)果均表明,陰影條件下的車(chē)位圖像狀態(tài)檢測(cè)效果
最差,是影響檢測(cè)準(zhǔn)確率的重要因素之一。針對(duì)該問(wèn)題,在PKLot停車(chē)場(chǎng)數(shù)據(jù)集的所有晴天環(huán)境的車(chē)位圖像中隨機(jī)選擇了18000多張車(chē)位圖像作為車(chē)位檢測(cè)模型的數(shù)據(jù)集,其數(shù)據(jù)分布如表1所示,總數(shù)據(jù)集的45%作為訓(xùn)練集,20%作為驗(yàn)證集,35%作為測(cè)試集,其中占用車(chē)位和非占用車(chē)位圖像在各數(shù)據(jù)集中均占50%,另選擇未參與模型訓(xùn)練的6541張陰影條件下的車(chē)位圖像作為陰影數(shù)據(jù)集。
3.2 車(chē)位檢測(cè)模型訓(xùn)練
本文使用PaddlePaddle深度學(xué)習(xí)框架實(shí)現(xiàn)Inception-V4和改進(jìn)的Inception-V4模型Inception-FN,并在百度AI Studio云深度學(xué)習(xí)平臺(tái)測(cè)試運(yùn)行調(diào)試,GPU實(shí)驗(yàn)環(huán)境為L(zhǎng)inux操作系統(tǒng),32G顯存和GPU-TeslaV100。
輸入圖像尺寸為(3,299,299),使用ImageNet數(shù)據(jù)集訓(xùn)練的Inception-V4預(yù)訓(xùn)練模型對(duì)網(wǎng)絡(luò)對(duì)應(yīng)的層進(jìn)行權(quán)重初始化,每批次處理的圖像為32張,最大訓(xùn)練輪次為30輪,每輪訓(xùn)練500批次,PKLot數(shù)據(jù)集的所有車(chē)位圖像三通道均值RGB分別為(91.5,90.7,85.5),采用SGD優(yōu)化器優(yōu)化梯度,初始學(xué)習(xí)率為0.0001,學(xué)習(xí)率衰減策略為每訓(xùn)練10輪學(xué)習(xí)率減半,每20個(gè)批次記錄一次訓(xùn)練結(jié)果,每輪記錄一次測(cè)試結(jié)果。
由圖4可見(jiàn),當(dāng)訓(xùn)練輪次迭代至4000次左右時(shí),準(zhǔn)確率率收斂至98%附近,之后趨于穩(wěn)定,Inception-V4模型準(zhǔn)確率最高為98.7%。Inception-FN模型在訓(xùn)練輪次7534次左右準(zhǔn)確率最高為99.2%。
圖4中帶星號(hào)的曲線(xiàn)為準(zhǔn)確率最優(yōu)曲線(xiàn)。由圖4可見(jiàn),在相同的迭代次數(shù)下,改進(jìn)的Inception-FN模型較原模型收斂速度更快,且準(zhǔn)確率得到了保證。
3.3 實(shí)驗(yàn)分析
3.3.1 模型評(píng)估指標(biāo)
停車(chē)位狀態(tài)檢測(cè)包括占用和非占用兩種情況,屬于二分類(lèi)問(wèn)題。針對(duì)該模型,實(shí)驗(yàn)選取驗(yàn)證集準(zhǔn)確率和受試者工作特征(receiver operating characteristic,ROC)曲線(xiàn)及曲線(xiàn)下面積(Area Under Curve,AUC)作為模型性能評(píng)估指標(biāo)。
ROC曲線(xiàn)橫坐標(biāo)為假陽(yáng)性率FPR,縱坐標(biāo)為真陽(yáng)性率TPR,見(jiàn)式7-8,是反映靈敏性和特效性連續(xù)變量的綜合指標(biāo)。AUC(為ROC曲線(xiàn)下的面積,取值范圍在0.5和1之間,對(duì)應(yīng)AUC更大的分類(lèi)模型效果更好。
3.3.2 晴天條件下車(chē)位狀態(tài)檢測(cè)分析
使用Inception-V4模型和改進(jìn)的Inception-FN模型對(duì)驗(yàn)證數(shù)據(jù)集進(jìn)行10000次訓(xùn)練,對(duì)比晴天條件下車(chē)位占用狀態(tài)檢測(cè)結(jié)果,并畫(huà)出相應(yīng)的ROC曲線(xiàn),其結(jié)果如圖5所示。
圖5中橫坐標(biāo)為假陽(yáng)性率(False Positive Rate,F(xiàn)PR),縱坐標(biāo)為真陽(yáng)性率(True Positive Rate,TPR)。原Inception-V4模型的AUC值為0.9891,準(zhǔn)確率為98.7%,改進(jìn)的Incception-FN模型的AUC值為0.9903,準(zhǔn)確率99.2%,AUC值提高了0.0012,準(zhǔn)確率提高了0.5%,且在圖5中改進(jìn)模型的AOC曲線(xiàn)包裹著原模型ROC曲線(xiàn),其模型分類(lèi)能力表現(xiàn)更佳。
3.3.3 陰影條件下車(chē)位狀態(tài)檢測(cè)分析
為了驗(yàn)證改進(jìn)方法針對(duì)陰影車(chē)位檢測(cè)的有效性,選取陰影車(chē)位圖像數(shù)據(jù)進(jìn)行對(duì)比實(shí)驗(yàn)。
由圖6可知,改進(jìn)后的Inception-FN模型在陰影車(chē)位數(shù)據(jù)集中的AUC值為0.9126,原模型AUC值為0.8791,改進(jìn)后提高了0.0335;準(zhǔn)確率從原模型的87.5%提高到92.3%。改進(jìn)后的Inception-FN對(duì)于陰影車(chē)位檢測(cè)的準(zhǔn)確率明顯高于原算法,表明改進(jìn)后的模型提取到更豐富的細(xì)節(jié)特征和語(yǔ)義信息,改善了陰影車(chē)位誤檢、檢測(cè)率低等現(xiàn)象。
圖7中選取三組不同陰影條件下的UFPR05停車(chē)場(chǎng)圖像,其中(a)為空停車(chē)場(chǎng),(b)為滿(mǎn)停車(chē)場(chǎng)和(c)為半滿(mǎn)停車(chē)場(chǎng)圖像,并采用檢測(cè)框表示當(dāng)前車(chē)位占用狀態(tài),深色框表示車(chē)位占用,淺色框表示車(chē)位非占用。由圖7中三組車(chē)位檢測(cè)結(jié)果顯示,改進(jìn)模型Inception-FN在陰影條件下的車(chē)位檢測(cè)效果優(yōu)于原模型。
4 結(jié)束語(yǔ)
本文為解決陰影干擾對(duì)車(chē)位檢測(cè)的影響,研究一種改進(jìn)Inception-V4的車(chē)位狀態(tài)檢測(cè)方法,以Inception-V4算法為基礎(chǔ),通過(guò)借助Leaky_ReLU和FReLU激活函數(shù)的特點(diǎn),將原網(wǎng)絡(luò)的激活函數(shù)替換,使之能夠獲取更豐富的信息特征,并減弱神經(jīng)元失活情況,更好的應(yīng)用于車(chē)位狀態(tài)檢測(cè),在PKLot停車(chē)場(chǎng)數(shù)據(jù)集和從中篩選出的陰影條件下的車(chē)位數(shù)據(jù)集上,對(duì)Inception-V4算法改進(jìn)前后模型進(jìn)行對(duì)比試驗(yàn),并得到相應(yīng)的驗(yàn)證結(jié)果。實(shí)驗(yàn)表明,改進(jìn)后Inception-FN算法在車(chē)位狀態(tài)檢測(cè)任務(wù)中檢測(cè)精度可達(dá)99.2%,較原算法提高了0.5%,并驗(yàn)證在有陰影干擾的復(fù)雜背景下,Inception-FN算法也能取得更準(zhǔn)確的檢測(cè)結(jié)果,可滿(mǎn)足在陰影干擾條件下對(duì)車(chē)位狀態(tài)檢測(cè)的要求,在室外停車(chē)場(chǎng)智能化管理中有一定的應(yīng)用參考。下一步計(jì)劃將該車(chē)位檢測(cè)方法應(yīng)用于手機(jī)中,輔助用戶(hù)進(jìn)行停車(chē)定位等操作。
參考文獻(xiàn)(References):
[1] 何偉.基于超聲波傳感器的自動(dòng)泊車(chē)車(chē)位補(bǔ)償檢測(cè)法[J].中國(guó)儀器儀表,2016(2):47-50
[2] 曾凱.基于NB-IoT技術(shù)的地磁車(chē)位檢測(cè)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D].合肥:安徽大學(xué),2020:29-36
[3] DAN N.Parking management system and method:US,200301448980AI[P].2002-01-31
[4] WU Q,HUANG C,WANG S Y,et al.Robust parking space detection considering inter-space correlation [C]. ICME 2007: Proceedings of the 2007 IEEE International Conference on Multimedia &Ex-po. Piscataway,NJ:IEEE,2007:659-662
[5] DEAlMEIDA P R L, OLIVEIRA L S, BRITTO A S J, et al.PKLot-Arobust dataset for parking lot classification[J]. Expert Systems With Applications,2015,42(11):4937-4949
[6] 盧宏濤,張秦川.深度卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺(jué)中的應(yīng)用研究綜述[J].數(shù)據(jù)采集與處理,2016,31(1):1-17
[7] DANG Y, ZHANG J X, DENG K Z, et al.Classification and?evaluation of surface coverage of remote sensing images based on deep learning AlexNet[J].Jourmal of Geoinformatics,2017,19(11):1530-1537
[8] KRIZHEVSKY A, SUTSKEVER I, HINTON G E.ImageNet classification with deep convolutional nature networks[C].Advances in Neural Information Processing Systems,2012:1097-1105
[9] SIMONYANK, ZISSERMAN A.Very deep convolutional networks for large-scale image recognition [EB/0L].(2014-12-23) [2019-11-06].https://arxiv.org/abs/1409.1556.
[10] SZEGEDY C, LIUW, JIA Y, et al. Going deeper with convolutions[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. IEEE,2015:1-9
[11] HE K, ZHANG X, RENS, et al. Deep residual learning?for image recognition[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. IEEE,2016:770-778
[12] HU J, SHEN L, SUN G. Squeeze-and-Excitation Networks[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.IEEE, 2018:7132-7141
[13] KARAKAYA M, AKINC F C. Parking space occupancy detection using deep learning methods[C]. Signal Processing and Communications Applications Conference (SIU),2018:1-4
[14] 安旭驍,鄧洪敏,史興宇.基于迷你卷積神經(jīng)網(wǎng)絡(luò)的停車(chē)場(chǎng)空車(chē)位檢測(cè)方法[J].計(jì)算機(jī)應(yīng)用,2018,38(4):935-938
[15] SZEGEDY C, LIU W, JIA Y Q, et al.Going deeper with?convolutions[C]. Conference on Computer Vision and Pattern Recognition.2015:1-9
[16] IOFFE S,SZEGEDY C. Batch normalization: accelerating deep network training by reducing internal covariate shift[J].2015:448-456
[17] SZEGEDY C,VANHOUSKE V, IOFFE S, et al.?Rethinking the inception architecture for computer vision[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, IEEE,2016:2818-2826
[18] SZEGEDY C, IOFFE S, VANHOUSKE V, et al.Inception-V4,Inception-Res Net and the impact of residual connections on learning[EB/OL].[2019-11-25].https://arxiv.org/abs/1602.07261.
[19] KRIZHEVSKY A, SUTSKEVER I, HINTION G. ImageNet Classification with Deep Convolutional Neural Networks[J].Advances in Neural Information Processing Systems,2012,25(2):1097-1105
[20] XU B, WANG N, CHEN T, et al. Empirical Evaluation of?Rectified Activations in Convolutional Network[J]. Communications and Computer Sciences,2015
[21] MA N, ZhANGX, SUN J. Funnel Activation for Visual Recognition[C]. In Computer Vision-ECCV 2020,2020:351-368