国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于全卷積網(wǎng)絡(luò)的圖像語義分割方法綜述①

2021-10-11 06:46李夢怡朱定局
關(guān)鍵詞:池化卷積語義

李夢怡,朱定局

(華南師范大學(xué) 計(jì)算機(jī)學(xué)院,廣州 510631)

圖像語義分割是計(jì)算機(jī)視覺領(lǐng)域的核心任務(wù)之一,語義分割從微觀的角度可以理解為將圖像中的每一個(gè)像素點(diǎn)進(jìn)行分類,是一種像素級的空間密集型預(yù)測任務(wù).換句話說,語義分割試圖在語義上理解圖像中每個(gè)像素的所代表的含義,比如識別它是汽車、樓房還是行人等;從宏觀的角度則可以將語義分割看作是將一致的語義標(biāo)簽分配給一類事物[1],而不是每個(gè)像素.

與其他計(jì)算機(jī)視覺任務(wù)一樣,卷積神經(jīng)網(wǎng)絡(luò)在圖像語義分割領(lǐng)域發(fā)揮了重大作用,目前許多性能優(yōu)異的圖像分割模型都以卷積神經(jīng)網(wǎng)絡(luò)作為基礎(chǔ).語義分割對于場景理解的重要性日漸突出,被廣泛應(yīng)用到無人駕駛技術(shù)、地理信息系統(tǒng)和醫(yī)療影像檢測與分析等任務(wù)中.

1 卷積神經(jīng)網(wǎng)絡(luò)

近些年來,隨著深度學(xué)習(xí)領(lǐng)域研究的不斷發(fā)展和進(jìn)步,卷積神經(jīng)網(wǎng)絡(luò)也在許多學(xué)者的努力下得到了不斷地發(fā)展和進(jìn)步.2012年,卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展取得了歷史性的突破,Kkrizhevsky 等人提出了經(jīng)典的AlexNet模型[2],一種更深更寬的卷積神經(jīng)網(wǎng)絡(luò).AlexNet的提出,奠定了深度卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺領(lǐng)域的核心地位,成為圖像分類、對象檢測、目標(biāo)跟蹤和圖像分割等計(jì)算機(jī)視覺領(lǐng)域任務(wù)中性能優(yōu)異、應(yīng)用廣泛的深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)模型,推動(dòng)了深度學(xué)習(xí)在語音識別、機(jī)器翻譯等其他領(lǐng)域的拓展.

卷積神經(jīng)網(wǎng)絡(luò)主要由輸入層(input layer)、卷積層(convolution layer)、池化層(pooling layer)、全連接層(fully connected layer)和輸出層(output layer)組成,如圖1所示.通過堆疊多層卷積層和池化層,可以得到更深的網(wǎng)絡(luò)結(jié)構(gòu),如VGGNet[3]、ResNet[4]等,其后的全連接層也可以是多層的.

圖1 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

卷積神經(jīng)網(wǎng)絡(luò)的核心概念是卷積操作(convolution),卷積操作則可以看作是輸入樣本和卷積核的內(nèi)積運(yùn)算.除了卷積層之外,常用的卷積網(wǎng)絡(luò)中通常還包含池化層,作用是減小卷積層產(chǎn)生的特征圖的尺寸.最常用的池化操作主要包括:最大池化(max-pooling)、平均池化(avg-pooling)和全局池化(global-pooling).

此外,卷積神經(jīng)網(wǎng)絡(luò)在輸出層之前會(huì)連接全連接層,通過全連接層完成分類輸出.在全連接層中通常使用激活函數(shù)計(jì)算輸出值,激活函數(shù)通常包括Sigmoid、tanh、ReLU 等函數(shù).

卷積神經(jīng)網(wǎng)絡(luò)的出現(xiàn)和發(fā)展使得人工智能領(lǐng)域攀登上了一個(gè)新的臺階,但是卷積神經(jīng)網(wǎng)絡(luò)存在自身的缺陷,如何更好的完善和改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)仍然任重而道遠(yuǎn).

2 經(jīng)典深度學(xué)習(xí)分類網(wǎng)絡(luò)

許多性能優(yōu)越的語義分割模型都是在一些經(jīng)典的深層網(wǎng)絡(luò)基礎(chǔ)上提出和改進(jìn)的,例如AlexNet、VGGNet、GoogLeNet和ResNet 等,因此在本節(jié)主要回顧一下這些經(jīng)典的分類網(wǎng)絡(luò).

2.1 AlexNet

卷積神經(jīng)網(wǎng)絡(luò)受到學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注和研究得益于AlexNet的提出和應(yīng)用.2012年,Krizhevsky 等人提出了有重要影響力的卷積神經(jīng)網(wǎng)絡(luò)模型AlexNet[2],并用該模型參加了ImageNet ILSVRC 比賽,在比賽中得到了top-1 中37.5%和top-5 中17.0%的錯(cuò)誤率,遠(yuǎn)超于當(dāng)時(shí)其他人所提出的模型結(jié)果,比賽成績斐然.

AlexNet 模型的結(jié)構(gòu)圖如圖2所示,從圖中可以看出AlexNet 模型包含輸入層、5 個(gè)卷積層和3 個(gè)全連接層,其中有3 個(gè)卷積層進(jìn)行了最大池化,并且首次采用修正線性單元(Rectified Linear Unit,ReLU)作為激活函數(shù).

圖2 AlexNet 模型結(jié)構(gòu)示意圖

AlexNet 模型的出現(xiàn),為人們在提取特征進(jìn)行圖像檢索、圖像分類、圖像識別等方面提供了一種深度卷積神經(jīng)網(wǎng)絡(luò)的思路,也為后來的研究學(xué)者在設(shè)計(jì)卷積神經(jīng)網(wǎng)絡(luò)模型提供了啟發(fā):

(1)模型的深度與寬度可決定網(wǎng)絡(luò)的能力;

(2)使用強(qiáng)大的GPU 以及大規(guī)模的數(shù)據(jù)量可以進(jìn)一步提高網(wǎng)絡(luò)的訓(xùn)練能力;

(3)數(shù)據(jù)增強(qiáng)可以有效地人工增大數(shù)據(jù)集,減少過擬合;

(4)ReLU 作為激活函數(shù)不需要對輸入進(jìn)行標(biāo)準(zhǔn)化處理來防止飽和現(xiàn)象;

(5)采用LRN、Dropout 層和重疊池化等訓(xùn)練技巧可以減少過擬合,提高精度和模型的泛化能力,提升了特征的豐富性;

(6)網(wǎng)絡(luò)結(jié)構(gòu)具體相關(guān)性,不可輕易移除某一層.

2.2 VGGNet

AlexNet的成功極大地推進(jìn)了卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展,越來越多的研究者開始紛紛將注意力轉(zhuǎn)向卷積神經(jīng)網(wǎng)絡(luò)的研究中,許多人嘗試改進(jìn)AlexNet 模型,以得到更好的準(zhǔn)確率[5-7].2014年Simonyan 等人[3]發(fā)現(xiàn)通過增加網(wǎng)絡(luò)的深度可以達(dá)到提升網(wǎng)絡(luò)的性能,提出了新的模型——VGGNet.VGGNet的核心思想是利用較小的卷積核,通過反復(fù)堆疊的方式來增加網(wǎng)絡(luò)的深度,有兩種基本類型:VGGNet-16和VGGNet-19.由此卷積神經(jīng)網(wǎng)絡(luò)也開始不斷向縱深化方向發(fā)展,相繼出現(xiàn)了GoogLeNet[8]和ResNet[4]等深層網(wǎng)絡(luò)模型.

VGGNet 網(wǎng)絡(luò)根據(jù)其核心思想可知在模型結(jié)構(gòu)中網(wǎng)絡(luò)全部采用3×3 這類較小的卷積核,以及2×2的池化核,其模型結(jié)構(gòu)圖如圖3所示.VGGNet 模型開啟了小卷積核的時(shí)代,3×3的卷積核成為主流模型的關(guān)鍵,同時(shí)VGGNet的成功也相繼成為了各類圖像任務(wù)的骨干網(wǎng)絡(luò)結(jié)構(gòu),應(yīng)用在包括圖像分類、目標(biāo)定位、對象檢測和圖像分割等一系列圖像大型任務(wù)中.

圖3 VGGNet 模型結(jié)構(gòu)示意圖

2.3 GoogLeNet

VGGNet在2014年的ImageNet 大規(guī)模視覺識別挑戰(zhàn)賽(ILSVRC14)中,通過采用堆疊小卷積核以擴(kuò)大感受域的方式贏得了目標(biāo)定位(object localization)比賽的冠軍,圖像分類(classification)的亞軍,驗(yàn)證了加深模型結(jié)構(gòu)有助于提升網(wǎng)絡(luò)的性能.同年,Szegedy 等人提出的GoogLeNet[8]則是專注于如何構(gòu)建更深的網(wǎng)絡(luò)結(jié)構(gòu),在這場比賽中,GoogLeNet 通過引入新型的基本結(jié)構(gòu)——降維Inception 模塊,以增加網(wǎng)絡(luò)的寬度,該模型贏得了圖像分類和目標(biāo)檢測(object detection)的冠軍,目標(biāo)定位的亞軍.

GoogLeNet 提出了降維Inception 模塊,即Inception V1 模塊,如圖4所示.Inception V1 最大的優(yōu)點(diǎn)就是控制了計(jì)算量和參數(shù)量的同時(shí),獲得了非常好的分類性能.GoogLeNet V1是一種卷積層、池化層和Inception V1 模塊的堆疊模型,GoogLeNet V1 共包含9 個(gè)Inception V1 模塊,其中,所有卷積層均采用ReLU 激活函數(shù).自2014年之后,Inception V1 模塊經(jīng)過不斷的改進(jìn),現(xiàn)已經(jīng)發(fā)展到GoogLeNet V4 版本,GoogLeNet 也成為一代經(jīng)典的分類卷積神經(jīng)網(wǎng)絡(luò).

圖4 降維Inception 模塊(Inception V1 模塊)

2.4 ResNet

VGGNet和GoogLeNet的提出,無疑給許多研究者提供了一個(gè)猜想:是不是網(wǎng)絡(luò)越深越好,那么是否可以無止境地加深網(wǎng)絡(luò)層數(shù)? 然而事實(shí)卻恰恰相反,隨著網(wǎng)絡(luò)層數(shù)的增加,網(wǎng)絡(luò)將越來越難訓(xùn)練.如果只是簡單地對網(wǎng)絡(luò)進(jìn)行加深或加寬,并不一定能帶來網(wǎng)絡(luò)性能的提升.相反,網(wǎng)絡(luò)的加深或加寬,會(huì)導(dǎo)致網(wǎng)絡(luò)的參數(shù)數(shù)量變大,計(jì)算量增大.在不斷增加網(wǎng)絡(luò)深度時(shí),會(huì)出現(xiàn)精度下降和梯度消失或梯度爆炸的問題,而這些問題并不是由過擬合引起的,僅因?yàn)榫W(wǎng)絡(luò)增加了更多的層數(shù)[9].

深度殘差(deep residual learning)模塊[4]的提出,主要是為了解決上述提出的兩個(gè)問題,以便能夠成功訓(xùn)練成百上千層的殘差網(wǎng)絡(luò)(ResNet).在ResNet 網(wǎng)絡(luò)中引入了跨層連接(shortcut connection),構(gòu)造了殘差模塊,如圖5所示.基于殘差模塊,可以構(gòu)建非常深的深度殘差網(wǎng)絡(luò),深度甚至可達(dá)1000 層以上.文獻(xiàn)[4]中大量的實(shí)驗(yàn)表明ResNet 網(wǎng)絡(luò)可以有效地降低深層網(wǎng)絡(luò)在訓(xùn)練集上誤差增大的現(xiàn)象.

圖5 殘差模塊結(jié)構(gòu)示意圖

ResNet為卷積神經(jīng)網(wǎng)絡(luò)往縱深化方向發(fā)展奠定了基礎(chǔ),從理論上證明了加深網(wǎng)絡(luò)比加寬網(wǎng)絡(luò)更加有效[10],也相繼在ResNet 網(wǎng)絡(luò)基礎(chǔ)上產(chǎn)生了一些新的變種模型,比如ResNeXt[11],特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network,FPN)[12]、寬度殘差網(wǎng)絡(luò)(Wide Residual Network,WRN)[13].

3 全卷積網(wǎng)絡(luò)FCN

2015年,加州大學(xué)伯克利分校的Long 等人在經(jīng)典分類網(wǎng)絡(luò)的基礎(chǔ)上提出了全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolution Network,FCN)[14],該模型摒棄了全連接層,加入了上采樣層和反卷積層這類具有空間平移不變形式的層.不同于傳統(tǒng)的基于圖像塊的分割方法,FCN 證明了端到端、像素到像素訓(xùn)練方式下的卷積神經(jīng)網(wǎng)絡(luò)可以顯著提高語義分割的計(jì)算效率和預(yù)測性能,端到端訓(xùn)練為后續(xù)語義分割算法的發(fā)展鋪平了道路.

FCN的構(gòu)造方法是,把傳統(tǒng)卷積網(wǎng)絡(luò)的所有全連接層都改編成相應(yīng)大小的密集卷積層.例如,在VGGNet基礎(chǔ)上,FCN 把VGGNet 網(wǎng)絡(luò)后面3 層全部改編為1×1的卷積核所對應(yīng)等同向量長度的多通道卷積層,整個(gè)網(wǎng)絡(luò)模型全部都是由卷積層組成,沒有全連接層產(chǎn)生的向量,改編過程如圖6所示.從圖中可以看出,FCN的輸入為224×224×3的圖片,輸出層仍為同尺寸大小的熱力圖.

圖6 FCN在VGGNet的基礎(chǔ)上的改編過程

在改編全連接層之后,FCN 通過兩種方式產(chǎn)生密集輸出,一種是直接放大,通過放大變化(上采樣和反卷積),直接把特征圖放大成一個(gè)與輸入大小相同的輸出圖像,如圖7所示.在圖中,FCN-32s 直接把池化層pool5 通過上采樣或反卷積方式放大32 倍,產(chǎn)生一個(gè)密集輸出(dense output),但是直接放大32 倍得到的結(jié)果不夠精確,一些細(xì)節(jié)無法恢復(fù).

另一種方法是通過設(shè)計(jì)一個(gè)跳躍連接,將全局信息和局部信息連接起來,相互補(bǔ)償來產(chǎn)生更加準(zhǔn)確和精細(xì)的分割結(jié)果.在圖7中,FCN-16s 把池化層pool4和2 倍的池化層pool5 進(jìn)行拼接,再通過上采樣或反卷積放大16 倍,得到另一個(gè)密集輸出;此外,FCN-8s 中先把池化層pool4和2 倍的pool5 進(jìn)行拼接后的結(jié)果通過上采樣或反卷積進(jìn)行2 倍放大,然后,與池化層pool3 進(jìn)行拼接,最后通過上采樣或反卷積放大8 倍,產(chǎn)生一個(gè)密集輸出.

圖7 FCN 產(chǎn)生密集輸出的方式示意圖

FCN在PASCAL VOC 等大型數(shù)據(jù)集上都得到了state-of-the-art的出色結(jié)果,可以說,FCN是語義分割領(lǐng)域的開山之作,為后續(xù)許多經(jīng)典的語義分割模型的提出奠定了思想基礎(chǔ),推動(dòng)了圖像語義分割任務(wù)的進(jìn)一步發(fā)展.

4 FCN的衍生—主流分割框架

目前,許多最成功的,最先進(jìn)的深度學(xué)習(xí)圖像語義分割模型思想都來源于2015年Long 等人提出的全卷積神經(jīng)網(wǎng)絡(luò)(FCN)模型[14].全卷積神經(jīng)網(wǎng)絡(luò)可以說是深度學(xué)習(xí)在圖像語義分割領(lǐng)域的基石,也是深度學(xué)習(xí)技術(shù)應(yīng)用于圖像語義分割的一個(gè)里程碑,它展示了如何端到端訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)來進(jìn)行圖像語義分割,分割精度比傳統(tǒng)方法有了顯著的提高.

盡管全卷積神經(jīng)網(wǎng)絡(luò)模型具有強(qiáng)大功能和足夠的靈活性,它仍然存在某些不足,阻礙了它在某些問題和情況下的應(yīng)用:卷積網(wǎng)絡(luò)所具有的平移不變性使其沒有考慮有用的全局上下文信息.研究表明,全局特征信息或上下文信息相互作用有助于正確地分類像素進(jìn)行語義分割[15,16].在本節(jié)中將介紹4 種基于FCN的卷積神經(jīng)網(wǎng)絡(luò)分割框架,它們利用上下文信息進(jìn)行語義分割.

4.1 編碼器-解碼器

編碼器-解碼器:該模型由兩部分組成:編碼器和解碼器.其中編碼器主要有卷積層和下采樣層組成,通過卷積操作逐漸減小特征圖大小并捕獲更高層次的語義信息;而解碼器主要由上采樣層或反卷積、卷積層和融合層組成,通過上采樣或反卷積的方式逐漸恢復(fù)對象細(xì)節(jié)信息和空間維度來進(jìn)行分割.整個(gè)結(jié)構(gòu)利用來自編碼器模塊的多尺度特征,并從解碼器模塊恢復(fù)空間分辨率[17].U-Net 模型[18]和SegNet 模型[19]就是編碼器-解碼器結(jié)構(gòu)的典型代表之一.

U-Net 模型結(jié)構(gòu)如圖8所示,該結(jié)構(gòu)主要包括一個(gè)捕獲上下文信息的收縮路徑和一個(gè)用以精確定位的對稱拓展路徑.因此,該模型左側(cè)可視為編碼器部分,編碼器中主要由4 個(gè)子模塊組成,每個(gè)子模塊包含兩個(gè)卷積層,每個(gè)子模塊之后通過最大池化層(max-pool)實(shí)現(xiàn)的下采樣;模型的右側(cè)可視為解碼器部分,解碼器同樣由4 個(gè)子模塊組成,通過上采樣操作恢復(fù)對象細(xì)節(jié)和空間維度,直到與輸入圖像的分辨率一致.此外,U-Net 網(wǎng)絡(luò)還設(shè)計(jì)了一個(gè)跳躍連接,將上采樣結(jié)果與編碼器中具有相同分辨率的子模塊的輸出進(jìn)行連接,作為解碼器中下一個(gè)子模塊的輸入.U-Net 模型提出,成功實(shí)現(xiàn)了使用非常少的數(shù)據(jù)完成端到端的訓(xùn)練,并獲得了出色的醫(yī)學(xué)圖像分割效果,成為大多數(shù)醫(yī)療影像語義分割任務(wù)的基線.

圖8 U-Net 模型結(jié)構(gòu)示意圖

SegNet 模型如圖9所示,該模型主要由編碼網(wǎng)絡(luò)(encoder network)、解碼網(wǎng)絡(luò)(decoder network)和逐像素分類層(pixel-wise classification layer)組成.其中編碼網(wǎng)絡(luò)是將高維向量轉(zhuǎn)換成低維向量,同時(shí)在池化過程中記錄最大池化索引信息,保存了最大特征值所在的位置,以保存邊界信息.解碼網(wǎng)絡(luò)與編碼網(wǎng)絡(luò)是相對稱的,通過解碼網(wǎng)絡(luò)可以將低分辨率的特征圖映射到高空間分辨率的特征圖,實(shí)現(xiàn)了低維向量到高維向量的重構(gòu),最后通過Softmax 激活函數(shù)用于輸出與輸入圖像具有相同分辨率的像素級標(biāo)簽.SegNet 模型的提出,使得編碼器-解碼器網(wǎng)絡(luò)結(jié)構(gòu)普適化.

圖9 SegNet 模型結(jié)構(gòu)示意圖

基于編碼器-解碼器結(jié)構(gòu)的網(wǎng)絡(luò)模型還包括LRR[20]、Refine Net[21]和DeepLab v3_plus[22]等.這些模型的提出證明了該結(jié)構(gòu)在圖像語義分割領(lǐng)域的高效性,此外,該結(jié)構(gòu)也廣泛應(yīng)用于對象檢測方面并取得了一定的成果[23,24].

4.2 特征融合

特征融合模型通常采用空間金字塔池化在多個(gè)范圍內(nèi)捕獲上下文信息,然后進(jìn)行多尺度特征融合.該模型結(jié)構(gòu)在一定程度上克服了用全卷積網(wǎng)絡(luò)(FCN)進(jìn)行圖像語義分割時(shí)沒有考慮全局上下文信息的主要缺點(diǎn).其中比較具有代表性的模型是金字塔場景分析網(wǎng)絡(luò)(Pyramid Scene Parsing Network,PSPNet)[25]和DeepLab v2 網(wǎng)絡(luò)[26].

PSPNet 網(wǎng)絡(luò)在FCN的基礎(chǔ)上通過對不同區(qū)域的上下文信息進(jìn)行聚合,充分利用了全局上下文信息來提高最終預(yù)測的可靠性,其總體結(jié)構(gòu)如圖10所示,它的特點(diǎn)在于使用了金字塔池化模塊 (pyramid pooling module),將4 個(gè)不同的粗細(xì)尺度進(jìn)行特征融合.在金字塔模塊中,不同尺度級別的輸出包含不同大小的特征圖,通過采用1×1 卷積層把上下文表示的維數(shù)降低為原來的l/N,以保證全局權(quán)重.然后,通過雙線性插值對低維特征圖進(jìn)行上采樣以獲得相同大小的特征,不同級別的特征被拼接為最終的金字塔池化全局特征.最后再經(jīng)過一個(gè)卷積層輸出最終的逐像素預(yù)測結(jié)果.

圖10 PSPNet的總體結(jié)構(gòu)

DeepLab v2 網(wǎng)絡(luò)中提出了基于空洞卷積的空間金字塔池化(Atrous Spatial Pyramid Pooling,ASPP)模塊,其思想來源于SPPNet[27],主要是為了解決目標(biāo)的多尺度問題.通過設(shè)計(jì)不同的空洞率的多個(gè)并行卷積核,組成類似金字塔方式在給定的特征層上進(jìn)行有效的重采樣,空洞卷積可以保證在參數(shù)量的不變的情況下,通過有效地增大卷積核尺寸來擴(kuò)大感受域的大小,如圖11所示.在這個(gè)基礎(chǔ)上,DeepLab v3_plus 提出了包含ASPP模塊的編碼器-解碼器模型,并在幾個(gè)語義分割基準(zhǔn)數(shù)據(jù)集上表現(xiàn)出優(yōu)異的性能.空間金字塔池化不僅僅應(yīng)用于圖像分割領(lǐng)域,也應(yīng)用于目標(biāo)檢測領(lǐng)域[28].

圖11 基于空洞卷積的空間金字塔池化

4.3 上下文模塊

上下文模塊包含級聯(lián)的其他模塊,以對長距離上下文進(jìn)行編碼.語義分割需要對多種空間尺度的信息進(jìn)行整合,同時(shí)也需要對局部信息與全局上下文信息進(jìn)行平衡.其原因在于,一方面,局部信息對于提高像素級別的標(biāo)注的正確率是非常重要的;另一方面,整合圖像全局的上下文信息對于解決局部模糊性問題來說也同樣重要的.然而,普通的卷積神經(jīng)網(wǎng)絡(luò)具有的平移不變性容易造成其忽略了高分辨率的特征圖,會(huì)導(dǎo)致邊緣信息的丟失.一種常見的改進(jìn)是使用條件隨機(jī)場(Conditional Random Field,CRF)作為后處理過程來調(diào)優(yōu)結(jié)果.

其中一種有效的方法是將全連接CRF 與DCNN[29]結(jié)合,通過計(jì)算任意兩個(gè)像素之間的概率值來判斷它們之間的相似性從而達(dá)到判斷它們是否屬于同一個(gè)類.通過這種方式來實(shí)現(xiàn)利用全局上下文信息,而不是局部信息來進(jìn)行語義分割.全連接 CRF 可以捕獲物體的邊緣信息,彌補(bǔ)了DCNN 帶來的邊界平滑問題.

4.4 圖像金字塔

圖像金字塔是圖像中多尺度表達(dá)的一種,最主要用于圖像分割,是一種通過提取多分辨率圖像以對圖像進(jìn)行解釋的有效但概念簡單的結(jié)構(gòu).圖像金字塔最初用于機(jī)器視覺和圖像壓縮,將圖像以不同的分辨率以金字塔形狀進(jìn)行排列從而形成圖像的金字塔,其通過梯次向下采樣獲得,直到達(dá)到某個(gè)終止條件才停止采樣.在圖像金字塔中,金字塔的頂層圖像分辨率最低,底層圖像分辨率最高.常見的圖像金字塔有高斯金字塔和拉普拉斯金字塔兩種[30].

典型的例子是Farabet 等人[31]通過Laplacian 金字塔轉(zhuǎn)換輸入圖像,以多尺度的方式輸入到DCNN 中,并從所有尺度中合并特征圖.但是這類模型的主要缺點(diǎn)是計(jì)算機(jī)量大,對于較深的DCNNs不能很好地進(jìn)行縮放,因此通常應(yīng)用在理論分析.

5 圖像分割的評價(jià)指標(biāo)

目前已經(jīng)有許多專注于圖像語義分割的模型與基準(zhǔn)數(shù)據(jù)集,這些基準(zhǔn)數(shù)據(jù)集為評價(jià)模型的性能提供了一套統(tǒng)一的標(biāo)準(zhǔn).通常對分割模型進(jìn)行評價(jià)會(huì)從執(zhí)行時(shí)間、內(nèi)存使用率和算法精度等方面進(jìn)行考慮.在這節(jié)中,我們主要介紹語義分割模型的算法精度評價(jià)指標(biāo).

類比二分類問題[32],在圖像分割中,我們也引入“混淆矩陣”,用PA和IoU[33]的值來評估語義分割技術(shù)的準(zhǔn)確性.假設(shè):共有k+1 個(gè)類,Pij表示本屬于類i但被預(yù)測為類j的像素?cái)?shù)量.即,Pii表示真正的數(shù)量(TP+TN,TP:真正例,TN:真反例),而Pij和Pji則分別被解釋為假正例(FP)和假負(fù)例(FN),當(dāng)i≠j時(shí),Pii表示TP,Pjj表示TN,Pij表示FP,Pji表示FN.

PA像素精度(Pixel Accuracy):標(biāo)記正確的像素占總像素的比例,等價(jià)于準(zhǔn)確率,公式如下:

Intersection over Union (IoU):模型對某一類別預(yù)測結(jié)果和真實(shí)值的交集與并集的比值,一種測量在特定數(shù)據(jù)集中檢測相應(yīng)物體準(zhǔn)確度的一個(gè)標(biāo)準(zhǔn),如式(2):

MPA均像素精度(Mean Pixel Accuracy):計(jì)算每個(gè)類內(nèi)被正確分類像素?cái)?shù)的比例,再求所有類的平均,公式如式(3):

均交并比(Mean Intersection over Union,MIoU):計(jì)算真實(shí)值和預(yù)測值的交集和并集,公式如式(4):

頻權(quán)交并比 (Frequency Weighted Intersection over Union,FWIoU):是根據(jù)每一類出現(xiàn)的頻率設(shè)置權(quán)重,權(quán)重乘以每一類的IoU并進(jìn)行求和,公式如式(5):

利用混淆矩陣計(jì)算:每個(gè)類別的真實(shí)數(shù)目為TP+FN,總數(shù)為TP+FP+TN+FN,其中每一類的權(quán)重和其IoU的乘積計(jì)算公式如下,在將所有類別的求和即可,公式如式(6):

在上面描述的所有度量中,MIoU由于其代表性和簡單性而脫穎而出,成為最常用的度量.大多數(shù)挑戰(zhàn)和研究人員利用這一指標(biāo)來展示他們的結(jié)果.

6 語義分割的常用實(shí)驗(yàn)數(shù)據(jù)集

6.1 常用實(shí)驗(yàn)數(shù)據(jù)集

PASCAL VOC 挑戰(zhàn)賽主要是為圖像分類、目標(biāo)檢測和圖像分割3 類任務(wù)的基準(zhǔn)測試比賽,主要有4 個(gè)大類別,分別是人、常見動(dòng)物、交通車輛、室內(nèi)家具用品,數(shù)據(jù)集標(biāo)注質(zhì)量高、場景復(fù)雜、目標(biāo)多樣、檢測難度大、數(shù)據(jù)量小但是場景豐富,相比ImageNet等更加考驗(yàn)人工智能算法的設(shè)計(jì)和創(chuàng)新能力[34].其官方網(wǎng)址:http://host.robots.ox.ac.uk/pascal/VOC/.

Cityscapes 數(shù)據(jù)集專注于對城市街道場景的語義理解,共包含來自50 個(gè)城市的不同場景、不同背景、不同街道的24 998 張圖片,以及包含30 種類別涵蓋地面、建筑、交通標(biāo)志、自然、天空、人和車輛等物體標(biāo)注,以關(guān)注真實(shí)場景下的環(huán)境理解著稱,任務(wù)難度大.此外,圖像根據(jù)標(biāo)記質(zhì)量分為兩組,其中5000 個(gè)是精細(xì)注釋,其余19 998 個(gè)是粗注釋.將5000 張精細(xì)標(biāo)注的圖像進(jìn)一步分組為2975 張訓(xùn)練圖像,500 張驗(yàn)證圖像和1525 張測試圖像,其官方網(wǎng)站:https://www.cityscapesdataset.com/.

CamVid是第一個(gè)具有目標(biāo)類別語義標(biāo)簽的視頻集合.該數(shù)據(jù)庫提供32 個(gè)ground truth 語義標(biāo)簽,將每個(gè)像素與32 個(gè)語義類之一相關(guān)聯(lián).數(shù)據(jù)主要通過在固定位置架設(shè)CCTV 式攝像機(jī)進(jìn)行拍攝和從駕駛汽車的角度拍攝的兩種方式進(jìn)行獲取,駕駛場景增加了觀察目標(biāo)的數(shù)量和異質(zhì)性.其官方網(wǎng)站:http://mi.eng.cam.ac.uk/research/projects/VideoRec/Cam-Vid/.

SUN RGB-D 數(shù)據(jù)集是普靈斯頓大學(xué)的Vision &Robotics Group 公開的一個(gè)有關(guān)場景理解的數(shù)據(jù)集[35],擁有5285 張訓(xùn)練圖像和5050 張測試圖像.這些圖像是由不同的傳感器捕獲的,因此具有不同的分辨率.在圖像類別中涵蓋37 個(gè)室內(nèi)場景類,包括墻,地板,天花板,桌子,椅子,沙發(fā)等.由于對象類具有不同的形狀、大小和不同的姿態(tài),因此對這些圖像進(jìn)行語義分割的任務(wù)是十分困難和復(fù)雜的,極具有挑戰(zhàn)性,官方網(wǎng)站:http://rgbd.cs.princeton.edu.

NYUD 同樣是關(guān)于室內(nèi)場景的數(shù)據(jù)集,該數(shù)據(jù)集分為兩大類型:NYU Depth V1和NYU Depth V2.其中NYU-Depth V2 數(shù)據(jù)集通過攝像機(jī)記錄的各種室內(nèi)場景的視頻序列組成,它包含來自3 個(gè)城市的464 種不同的室內(nèi)場景和26 種場景類型,407 024 個(gè)未標(biāo)記的幀以及1449 個(gè)密集標(biāo)記的幀.而NYU-Depth V1 包含64 種不同的室內(nèi)場景和7 種場景類型,108 617 張未標(biāo)記的幀和2347 個(gè)密集標(biāo)記的幀.其官方網(wǎng)站:https://cs.nyu.edu/~silberman/datasets/.

最后,通過表1來對PASCAL VOC、CityScapes、Camvid、SUN RGB-D和NYUDV2 這些常用語義分割數(shù)據(jù)集做簡單的歸納總結(jié).除此之外,大規(guī)模圖像分割數(shù)據(jù)集還包括Semantic Boundaries Dataset(SBD)、Microsoft Common Objects in COntext (COCO)、KITTI、Adobe’s Portrait Segmentation、Youtube-Objects、Materials IN Context (MINC)、Densely-Annotated VIdeo Segmentation (DAVIS)、Stanford background、SiftFlow 以及3D 數(shù)據(jù)集,包括ShapeNet Part、Stanford 2D-3D-S、A Benchmark for 3D Mesh Segmentation、Sydney Urban Objects Dataset、Large-Scale Point Cloud Classification Benchmark 等.

表1 常見語義分割數(shù)據(jù)集歸納總結(jié)

6.2 實(shí)驗(yàn)結(jié)果分析與對比

為了更好地說明網(wǎng)絡(luò)的性能,本節(jié)選取其中一個(gè)具有挑戰(zhàn)性的數(shù)據(jù)集:CamVid,主要針對FCN[14]、UNet[18]、PSPNet[26]和DeepLab v3_Plus[22]模型進(jìn)行實(shí)驗(yàn),并對實(shí)驗(yàn)結(jié)果進(jìn)行分析對比.CamVid 數(shù)據(jù)集主要是道路場景,物體涉及行人、路牌、路燈、車輛、建筑物、樹木等,物體種類豐富,背景復(fù)雜多變,共包含701 張圖像,其中367 張圖像用于訓(xùn)練,101 張用于驗(yàn)證,233 張用于測試.在訓(xùn)練CamVid 數(shù)據(jù)集時(shí),沒有考慮類別之間的平衡問題,所以沒有做類別不平衡修正.

我們的實(shí)驗(yàn)系統(tǒng)包括預(yù)訓(xùn)練網(wǎng)絡(luò)都是基于PyTorch框架實(shí)現(xiàn),所有實(shí)驗(yàn)都是基于NVIDIA-RTX 2070S (8 G)顯卡和Python3.7 版本上完成.為了加快網(wǎng)絡(luò)收斂速度和根據(jù)計(jì)算機(jī)配置,將循環(huán)次數(shù)設(shè)置為50,初始學(xué)習(xí)率設(shè)置為1×10-4,學(xué)習(xí)率隨訓(xùn)練次數(shù)的增加而線性遞減,mini-batch size 設(shè)置為4,優(yōu)化器采用SGD,且動(dòng)量設(shè)置為0.9,輸入圖像大小為512×512.我們在類別像素上采用Negative Log Liklihood Loss (NLLLoss)損失函數(shù),該函數(shù)適用于二分類和多分類任務(wù),也適用于訓(xùn)練數(shù)據(jù)集類別不平衡任務(wù).將通過Mean-IoU 記錄模型的性能表現(xiàn).CamVid 數(shù)據(jù)集上的實(shí)驗(yàn)對比如表2所示,主要比較因素包括基礎(chǔ)網(wǎng)絡(luò)、核心技術(shù)和評價(jià)指標(biāo)MIoU.

表2 基于CamVid 數(shù)據(jù)集實(shí)驗(yàn)對比

從表2中可以看到U-Net、PSPNet、DeepLab v3_plus 三種模型在CamVid 數(shù)據(jù)集上MIoU與FCN相比均有所提升.其中,PSPNet、DeepLab v3_plus 兩種模型的MIoU均達(dá)到了50%左右,能夠識別圖像中不同尺度的物體,分割結(jié)果對比其他模型,更加接近真實(shí)分割,邊界信息更為準(zhǔn)確,是性能出色,具有代表性的圖像語義分割模型.DeepLab v3_plus 集成了DeepLab v2、DeepLab v3 等眾多網(wǎng)絡(luò)的優(yōu)點(diǎn),通過逐漸恢復(fù)空間信息來捕獲更清晰的邊界信息;而PSPNet 通過空間金字塔池化模塊,利用多尺度的方式對圖像特征進(jìn)行融合,有效地捕獲了圖像豐富的上下文信息,二者均提高了圖像的識別效果.此外,U-Net 通過跳躍連接將高級和低級圖像特征進(jìn)行融合,最大化提取了細(xì)節(jié)信息,更常用在數(shù)據(jù)量少、邊界模糊,需要高分辨率信息用于精準(zhǔn)分割的醫(yī)學(xué)圖像.實(shí)驗(yàn)結(jié)果進(jìn)一步闡釋了語義分割需要豐富的上下文信息才能產(chǎn)生高質(zhì)量的分割結(jié)果.

7 圖像分割的應(yīng)用

圖像語義分割技術(shù)越來越受到計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)研究者的關(guān)注.許多正在興起的產(chǎn)業(yè)應(yīng)用需要精確有效的分割技術(shù),包括自動(dòng)駕駛、室內(nèi)導(dǎo)航,醫(yī)療影像分析等.這些需求與深度學(xué)習(xí)技術(shù)在計(jì)算機(jī)視覺領(lǐng)域的基本任務(wù)中研究不謀而合,包括語義分割或場景理解[33],下面介紹主要的語義分割的3 個(gè)方面的應(yīng)用.

7.1 醫(yī)療影像分割

醫(yī)學(xué)圖像是臨床診斷與醫(yī)學(xué)研究中不可缺少的工具,在醫(yī)學(xué)圖像處理與分析領(lǐng)域,醫(yī)學(xué)圖像分割是對醫(yī)學(xué)圖像進(jìn)一步分析和處理的基礎(chǔ)[36].醫(yī)學(xué)圖像分割的目的就是通過提取描述對象的特征,把感興趣對象從周圍環(huán)境中分離出來,分析和計(jì)算分割對象的解裁、病理、生理和物理等方面的信息[37].醫(yī)學(xué)圖像分割對醫(yī)學(xué)研究、臨床診斷、病例分析、手術(shù)計(jì)劃、影像信息處理和計(jì)算機(jī)輔助手術(shù)等醫(yī)學(xué)研究與實(shí)踐領(lǐng)域有著廣泛的應(yīng)用和研究價(jià)值.

然而,構(gòu)建自動(dòng)分割框架一直是醫(yī)學(xué)界極具挑戰(zhàn)性的課題.隨著深度學(xué)習(xí)的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)應(yīng)用于醫(yī)學(xué)圖像分割成為主流趨勢,極大地提高了醫(yī)療診斷的準(zhǔn)確性和可靠性.在基于深度學(xué)習(xí)的醫(yī)學(xué)圖像分割方法中,最具代表性的模型是U-Net[17],其通過含有跳躍連接的編碼—解碼結(jié)構(gòu)的網(wǎng)絡(luò)結(jié)構(gòu),有效地適用于醫(yī)學(xué)圖像分割,在此基礎(chǔ)上也涌現(xiàn)了許多適合醫(yī)學(xué)圖像分割的模型并且得到了廣泛的應(yīng)用.

7.2 地理信息系統(tǒng)

遙感圖像是人們獲取地球表層各類地物信息的重要數(shù)據(jù)來源.遙感圖像語義分割,是指對遙感圖像進(jìn)行處理、分析,目的是像素級地識別圖像,即標(biāo)注遙感圖像中每個(gè)像素所屬的對象類別,是圖像分析的第一步.通過圖像語義分割技術(shù),可以同時(shí)提取遙感圖像中的多種地物,可以在土地利用調(diào)查、自然災(zāi)害探測、環(huán)境監(jiān)測、精確植被、城市規(guī)劃等一系列潛在的實(shí)際應(yīng)用中發(fā)揮重要作用.

然而,由于遙感影像的成像特征,地物之間可能會(huì)因“同物異譜,同譜異物”造成類內(nèi)光譜差異大,類間光譜特征相互重疊,使得物體之間難以區(qū)分.因此,很難提出一種從遙感圖像中以合理的精度和可靠性定位多個(gè)目標(biāo)的方法.隨著深度學(xué)習(xí)的發(fā)展,目前已經(jīng)有大量文獻(xiàn)證明了神經(jīng)網(wǎng)絡(luò)在遙感圖像語義分割中取得了顯著進(jìn)展[38,39].

7.3 無人車駕駛

自動(dòng)駕駛汽車作為人工智能和汽車工業(yè)結(jié)合的產(chǎn)物,毫無疑問是當(dāng)今的研究熱點(diǎn).對于無人駕駛汽車而言,最重要的是自動(dòng)駕駛的汽車對行駛道路上環(huán)境的感知與物體的識別,車輛行駛在過程中,通過車載攝像頭采集車輛所處的位置以及車輛周圍的物體.在目前的自動(dòng)駕駛技術(shù)中,處理好圖像感知到的信息,將有助于提高車輛行駛決策的準(zhǔn)確度.圖像語義分割是將圖像中每一個(gè)像素按照標(biāo)簽進(jìn)行分類,從而從圖像中提取出豐富的駕駛環(huán)境信息,輔助決策[40].目前已經(jīng)有許多對城市景觀的語義分割開源數(shù)據(jù)集,這些數(shù)據(jù)集可以幫助語義分割模型的訓(xùn)練與測試.

與圖像分類或目標(biāo)檢測相比,語義分割使我們對圖像有更加細(xì)致的了解.這種了解在諸如自動(dòng)駕駛、醫(yī)療影像分析、機(jī)器人以及圖像搜索引擎等許多領(lǐng)域都是非常重要的.

8 總結(jié)與展望

2015年,FCN的提出極大地推動(dòng)了圖像分割的發(fā)展,所取得的成就已經(jīng)使圖像分割任務(wù)邁入盛況空前的新階段.

盡管如此,圖像語義分割方面仍然存在挑戰(zhàn),可以從兩個(gè)角度出發(fā)看待這些挑戰(zhàn):

(1)從深度卷積神經(jīng)網(wǎng)絡(luò)的角度看待語義分割面臨的挑戰(zhàn)[26]:

① 特征分辨率降低:主要是由深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中設(shè)計(jì)重復(fù)采用最大池化操作和下采樣操作,重復(fù)池化和下采樣降低了空間分辨率.其中一種解決方法是采用轉(zhuǎn)置卷積(deconvolutional layer),但是該方法需要額外的空間的同時(shí)也增大了計(jì)算量.另一種解決方法是采用將最大池化層用空洞卷積來替代下采樣,保證了不增加參數(shù)量的同時(shí)有效地?cái)U(kuò)大了感受域的大小,以更高的采樣密度計(jì)算特征圖;

②對象在多尺度的存在:主要是目標(biāo)在多尺度圖像中的狀態(tài)造成的,因?yàn)樵谕环N尺度下,不同目標(biāo)的特征往往響應(yīng)并不相同.已有的解決該問題的一個(gè)方法是將圖片縮放成不同尺寸,匯總特征得到結(jié)果.這種方法可以提高性能,但是增加了計(jì)算成本.除此之外,受SPPNet 啟發(fā),DeepLab v2 提出一個(gè)ASPP 模塊,對給定輸入使用不同采樣率的空洞卷積并行采樣,以多比例捕捉圖像上下文;

③ 深度卷積神經(jīng)網(wǎng)絡(luò)的空間不變性造成定位精度的下降:現(xiàn)存的解決該問題的一個(gè)方法是使用跳躍連接結(jié)構(gòu),通過融合不同層的特征圖從而計(jì)算最終的分割結(jié)果.此外,另一種高效的方法是采用條件隨機(jī)場增強(qiáng)模型捕捉細(xì)節(jié)的能力.

(2)從分割結(jié)果的角度看待語義分割面臨的挑戰(zhàn):

語義分割可以看成是一個(gè)逐像素分類的任務(wù),它包含分類和定位兩個(gè)挑戰(zhàn)[41].

① 分類:對于分類任務(wù),模型必須具有空間不變性的,以適應(yīng)目標(biāo)的各種形式,如平移和旋轉(zhuǎn),因此在設(shè)計(jì)網(wǎng)絡(luò)時(shí)可以采用全卷積的結(jié)構(gòu),去掉全連接層或全局池化層;

② 定位:對于定位任務(wù),模型必須是對圖像變換足夠的敏感的,即能夠精確定位語義類別的每個(gè)像素,因此在涉及網(wǎng)絡(luò)時(shí)可以采用較大的卷積核,使得像素與特征圖的結(jié)合更加緊密,增強(qiáng)處理不同變換的能力,采用較大卷積核可以保證感受野足夠大,可以覆蓋了較大的目標(biāo),有利于分類.

在現(xiàn)有研究成果的基礎(chǔ)上,展望未來,圖像語義分割技術(shù)的研究可能會(huì)從以下幾個(gè)方面展開[33,42]:

(1)應(yīng)用于3D 數(shù)據(jù)的語義分割.

(2)應(yīng)用于場景解析任務(wù)的圖像語義分割.

(3)實(shí)例級圖像語義分割.

(4)實(shí)時(shí)圖像語義分割.

(5)應(yīng)用于序列數(shù)據(jù)集的語義分割.

猜你喜歡
池化卷積語義
基于高斯函數(shù)的池化算法
基于全卷積神經(jīng)網(wǎng)絡(luò)的豬背膘厚快速準(zhǔn)確測定
真實(shí)場景水下語義分割方法及數(shù)據(jù)集
基于圖像處理與卷積神經(jīng)網(wǎng)絡(luò)的零件識別
卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
一種基于卷積神經(jīng)網(wǎng)絡(luò)的地磁基準(zhǔn)圖構(gòu)建方法
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
用于手寫漢字識別的文本分割方法
漢語依憑介詞的語義范疇