鞏 萍,王姍姍,羅舉建
基于稀疏自編碼神經網絡的肺結節(jié)特征提取及良惡性分類
鞏 萍,王姍姍,羅舉建
目的:針對目前計算機輔助診斷中肺結節(jié)特征提取單純依靠人工設計,分類結果存在很大差異這一問題,提出一種新的肺結節(jié)特征自動提取及良惡性分類方法。方法:首先通過閾值概率圖從肺部CT圖像中分割肺結節(jié)圖像,然后通過一個2層的稀疏自編碼神經網絡自動提取肺結節(jié)圖像的特征,最后利用Logistic回歸分類器對提取到的特征進行良惡性分類。結果:肺部圖像數據庫聯(lián)盟(lung image database consortium,LIDC)數據庫上的實驗結果表明,與目前基于人工設計的特征提取方法相比,該提取方法獲得了最高的分類精度與曲線下面積(area under curve,AUC)值。結論:稀疏自編碼神經網絡能夠直接從肺結節(jié)圖像本身自動提取肺結節(jié)特征,避免了人工提取及選擇的差異性,提高了肺結節(jié)良惡性分類的準確度,能夠為臨床診斷提供參考依據。
肺結節(jié);特征提取;稀疏自編碼神經網絡;良惡性分類
肺癌被認為是對人類健康與生命威脅最大的惡性腫瘤[1],如何有效地診斷肺癌成為全人類關心的課題。早期發(fā)現與診斷是提高肺癌患者存活率的關鍵。臨床研究表明,肺癌早期的表現形式是肺結節(jié)。在醫(yī)學上,最終確定肺結節(jié)良惡性的方法是通過組織切片檢查,也稱活檢。據統(tǒng)計,大約有70%~90%做活檢的病例檢查結果是良性,這給患者帶來了不必要的手術風險、身體傷害和心理負擔。因此,研究肺結節(jié)的計算機輔助診斷(computer aided diagnosis,CAD)良惡性分類方法對肺癌的早期發(fā)現與診斷具有重要意義[2]。
目前,CAD肺結節(jié)良惡性分類主要是利用各種機器學習的方法通過提取肺結節(jié)CT圖像的形狀、大小、紋理、密度等底層特征進行的。如Iwano[3]利用結節(jié)的充實度與二階中心矩通過判別分析對CT圖像進行了良惡性分類。Shen[4]利用結節(jié)的密度特征通過多變量回歸分析進行了分類研究;Krewer[5]利用結節(jié)的紋理與幾何特征通過支持向量、近鄰等分類器對良惡性結節(jié)進行了分類。這種基于底層特征的分類方法在提高肺結節(jié)診斷準確率、減輕醫(yī)生勞動強度、減少漏診等方面起到了積極作用,但底層特征的提取一般是人工設計,而不是機器自動學習的。因此,選取什么樣的特征來表示肺結節(jié)圖像對于分類結果影響很大,很大程度上靠經驗和運氣,且底層特征與醫(yī)生描述肺結節(jié)的語言存在很大差異,只能被計算機理解,不能被人理解。如果能通過無監(jiān)督的方式讓機器自動地從肺結節(jié)圖像中學習到表征肺結節(jié)的特征,會使人們更好地利用計算機來進行輔助診斷。
近年來,深度學習(deep learning,DL)被廣泛關注,成為機器學習與模式識別領域的一個研究熱點。深度學習是2006年由Hinton等人[6]提出的,主要是通過神經網絡來模擬人類大腦的學習過程,希望借鑒人腦的多層抽象機制來實現對對象或數據的抽象表達,使學習到的特征相似于生物視覺的特征,從而最終提升分類的準確性。相對于傳統(tǒng)的神經網絡,深度學習可以讓機器自主學習特征,從而簡化了煩瑣的人工提取特征的步驟。常見的DL模型有深度神經網絡(deep neural networks,DNNs)、受限玻爾茲曼機(restricted Boltzmann machine,RBM)、自動編碼器(auto-encoders,AE)、卷積神經網絡(convolutional neural networks,CNNs)等。這些模型在語音識別[7]、手寫體分類[8]、車標識別[9]、疲勞狀態(tài)識別[10]等方面都不同程度地提升了分類準確率,取得了優(yōu)于過去的方法,這證明了深度學習作為特征提取及分類方案是非常成功的。目前,深度學習在醫(yī)學圖像方面的[11]研究應用還很少,在肺結節(jié)的特征提取及分類上未見研究報道。
針對目前計算機輔助診斷中,肺結節(jié)特征提取單純依靠人工設計,分類結果存在差異性這一問題,提出一種肺結節(jié)特征自動提取及良惡性分類方法。首先,從肺部CT圖像中分割肺結節(jié)感興趣區(qū)域,得到肺結節(jié)圖像;其次,利用2個稀疏自編碼神經網絡的堆疊提取肺結節(jié)圖像的深層特征;最后,利用Logistic回歸分類器對提取到的特征進行良惡性分類。肺結節(jié)特征提取及良惡性分類流程如圖1所示。本文所有肺部CT圖像來自于美國肺部圖像數據庫聯(lián)盟(lung image database consortium,LIDC)[12]。
圖1 基于深度學習的肺結節(jié)特征提取與良惡性分類圖
為了給各種圖像處理和CAD技術的相互比較和測評提供一個參考數據庫,美國國家癌癥研究會(National Cancer Institute,NCI)于2001年4月起陸續(xù)頒布了LIDC。數據庫中的每個病例對應一個文件夾,包括完整的肺部CT掃描圖像100~300張以及一個注釋文件。注釋文件中對直徑大于3 mm的結節(jié)給出了由4名放射學專家標注的結節(jié)輪廓上每個點的坐標。如何由專家標注分割肺結節(jié)區(qū)域,目前最常用的方法有閾值概率圖(threshold probibility maps,TPM)[13]和STAPLE(simultaneous truth and performance level estimation)[14]2種。STAPLE方法認為圖像分割算法的敏感性和特異性以及真實的分割結果都是未知參數,它使用最大期望算法同時對算法的敏感性、特異性及金標準進行估計。TPM方法根據專家的專業(yè)經驗為每名專家的標注設置一個權重值來表示該專家標注的可信程度,將相應專家標注的肺結節(jié)區(qū)域中的每個像素設置為相同的權重值,最后各像素值為所有專家對該像素標記的權重值之和。相對于STAPLE方法,閾值概率圖方法實現更為簡單方便。因此,采用閾值概率圖方法來分割肺結節(jié)圖像。假設專家經驗一樣,每個專家的權重值為0.25,如果區(qū)域中的某個像素被4名專家標記為結節(jié)的組成部分,則該像素為結節(jié)像素的概率值為1;如果只被1名專家標注,則該像素為結節(jié)像素的概率值為0.25。這樣將肺結節(jié)區(qū)域轉化為一個值在0~1之間的概率映射圖,分割肺結節(jié)區(qū)域時只要設置一個閾值T,低于T的像素設置為0,高于T的像素設置為1,就生成了相應的二值圖像。此二值圖像與原始圖像進行與運算,即得到肺結節(jié)圖像。
自編碼神經網絡(auto-encoder neural network,AENN)是一種輸入層與隱含層“全連接”的神經網絡,其基本結構如圖2所示。包括輸入層、隱含層和輸出層,其中+1為偏置項系數。由圖2可以看出,輸出層跟輸入層的神經元個數是一樣的,即AENN嘗試學習一個hW,b(x)≈x的函數,使輸出x?接近于輸入x。如果隱含層單元個數比輸入層少的話,AENN學到的是輸入數據的壓縮表示,相當于對輸入數據進行降維。AENN是一種數據驅動的無監(jiān)督地學習數據特征的神經網絡。
圖2 自編碼神經網絡的基本結構圖
對一個包含N個樣本的圖像集(x1,x2,…,xi,…,xN)。AENN的代價函數可表示為
研究表明,人腦在感知視覺信號的時候每次只有一部分神經元被激活,即神經元的響應是稀疏的[15]。因此,稀疏的表達更符合人的視覺系統(tǒng),具有更好的學習數據特征的能力。在自編碼神經網絡隱含層神經元數目較多的情況下,通過加入稀疏性限制能夠更好地表達數據的特性。當神經元輸出接近于1,表示被激活,接近于0則表示被抑制,要使數據盡量稀疏就要使被抑制的值遠多于被激活的值。設aj為神經元j的激活度,則隱含層中每個神經元j的稀疏程度可表示為
假設期望的隱含層稀疏性程度為ρ,ρ是一個接近于0的較小的常數值。對于所有的節(jié)點j,希望ρ?j= ρ。采用相對熵[16]來衡量二者之間的差別,相對熵定義如下:
在目標函數(1)的基礎上加上懲罰因子相對熵即可進行稀疏性限制。加入相對熵懲罰因子后,目標函數(1)變?yōu)椋?/p>
式(4)中,β是控制相對熵懲罰因子的權重,s是隱含層中神經元的數量。
通過多個稀疏自編碼的堆疊可以構成棧式稀疏自編碼(stacked sparse auto encoder,SSAE)。棧式稀疏自編碼可以逐層地提取圖像的特征,得到深層更抽象、更具可分性的特征[17]。本文將2個稀疏自編碼神經網絡堆疊在一起,結構如圖3所示。其中輸入層為肺結節(jié)圖像,h與h分別表示第一個稀疏自編碼神經網絡與第二個稀疏自編碼神經網絡學習到的特征。隱含層2的輸出作為分類器的輸入,標簽L= {0,1},其中“0”代表良性,“1”代表惡性。采用梯度下降法更新每層的參數,并利用反向傳播算法進行參數微調。
圖3 基于稀疏自編碼神經網絡的肺結節(jié)特征提取圖
LIDC數據庫中,專家把結節(jié)的惡性度量化為1、2、3、4、5 5個等級,其中1表示極不可能,2表示適度不可能,3表示不確定,4表示適度懷疑,5表示高度懷疑,對5個等級進行良惡性劃分時,選取閾值T,肺結節(jié)的良惡性判別如下:
選用邏輯回歸(logistic regression,LR)對稀疏自編碼神經網絡提取到的肺結節(jié)圖像特征進行良惡性分類。LR主要用于二分類問題,它是從訓練數據特征學習一個0/1的分類模型。假設稀疏自編碼神經網絡提取到的肺結節(jié)的特征LR模型以樣本特征的線性組合作為自變量,使用Logistic函數將自變量映射到(0,1)上,通過求解權值θ1,θ2,…,θm,構造預測函數。Logistic函數表達式如下:
肺結節(jié)為惡性和良性的概率分別為:
當對測試樣本進行類別判斷時,首先求出新樣本的gθ(H)值,然后根據該值的大小來判斷良惡性。
4.1 肺結節(jié)圖像分割
從LIDC數據庫中選取結節(jié)直徑大于或等于3mm的且惡性度至少由3名放射學專家定義一致的肺部CT圖像。采用多專家標注的閾值概率圖法提取閾值大于0.75的像素分割肺結節(jié)圖像,分割過程如圖4所示。
4.2 肺結節(jié)特征提取
由于肺結節(jié)大小不一致,本文把4.1得到的所有肺結節(jié)圖像統(tǒng)一轉化為32像素×32像素的大小,然后通過2個稀疏自編碼神經網絡進行肺結節(jié)圖像深層特征提取。稀疏自編碼神經網絡的輸入數據為32×32=1 024維,設置第一個稀疏自編碼神經網絡的隱含層節(jié)點數為200,第二個稀疏自編碼神經網絡的隱含層節(jié)點數為100,β=2,神經元的平均激活度設為0.1。圖5(a)與(b)分別為第一個與第二個稀疏自編碼神經網絡提取到的肺結節(jié)特征的可視化顯示。
圖4 基于閾值概率圖的肺結節(jié)圖像分割過程圖
圖5 由稀疏自編碼神經網絡提取到的特征圖
4.3 肺結節(jié)的良惡性分類
將4.2中自動提取到的特征通過Logistic回歸進行良惡性分類,肺結節(jié)良惡性閾值設為3。為了得到更好的分類結果,利用反向傳播法對參數進行微調。在臨床的輔助診斷中,僅依靠分類精度有時難以準確反映分類模型的診斷價值。為了更客觀、全面、準確地評價分類結果,目前國際上較為流行的是采用受試者操作特性(receiver operating characteristics,ROC)曲線和曲線下面積(area under curve,AUC)對分類作定量分析。ROC曲線是以假陽性率(false positive rate,FPR)為橫坐標、真陽性率(true positive rate,TPR)為縱坐標繪制而成的。曲線越靠近左上,AUC值越大,說明分類效果越好。表1給出了不同特征下肺結節(jié)良惡性分類精度及AUC值,相應的ROC曲線如圖6所示。
表1 不同特征提取方法及分類器下肺結節(jié)良惡性分類精度及AUC值
由表1可以看出,不同的人工特征提取方法其結果存在差異性,本文方法獲得了最高的分類精度與AUC值。文[5]的分類精度雖然高于文[3],但AUC值低于文[3]的結果,因此對于一個二分類,不能僅以分類精度來評價其分類效果。
針對目前計算機輔助診斷中,肺結節(jié)特征提取單純依靠人工設計,分類結果存在差異性這一問題,結合深度學習的思想,提出一種基于稀疏自編碼神經網絡的肺結節(jié)特征自動提取方法。該方法利用2個稀疏自編碼神經網絡的堆疊來分層地提取肺結節(jié)的高層特征,并基于Logistic回歸進行良惡性分類,從而避免人工特征提取與選擇的煩瑣與差異。LIDC數據庫上的實驗結果表明,本文所提方法無論是分類精度還是AUC值均是最高的,能夠有效地提高肺結節(jié)良惡性分類準確度,為臨床診斷提供參考依據。
[1]Jemal A,Bray F,Ferlay J,etal.Global cancer statistics[J].CA:Cancer J Clin,2011,61(2):69-90.
[2]李彬,田聯(lián)房.惡性肺結節(jié)早期診斷智能識別相關技術綜述[J].生物醫(yī)學工程學雜志,2009,26(5):1 141-1 145.
[3]Iwano S,Nakamura T,Kamioka Y,et al.Computer-aided differentiation of malignant from benign solitary pulmonary nodules imaged by high resolution CT[J].Comput Med Imaging Graph,2008,32(5):416-422.
[4]Shen W C,Yu Y H,Chuang C H.2011 IEEE Eighth International Conference on Computer graphics,Imaging and Visualization,Singapore,Aug 17-19,2011[C].Piscataway:IEEE Press,2011.
[5]Krewer H,Geiger B,Hall L O,et al.2013 IEEE International Conference on Systems,Man,and Cybernetics,Manchester,Oct 13-16,2013[C].Piscataway:IEEE Press,2013.
(????)(????)
[6]Hinton G E,Salakhutdinov R.Reducing the dimensionality of data with neural networks[J].Science,2006,313(5 786):504-507.
[7]Dahl D,Yu D,Deng L,et al.Context-dependent pre-trained deep neural networks for large-vocabulary speech recognition[J].IEEE Transactions on Audio,Speech and Language Processing,2012,20(1):30-42.
[8]Girshick R,Donahue J,Darrell T,et al.2014 IEEE Conference on Computer Vision and Pattern Recognition,Columbus,June 23-28,2014[C].Piscataway:IEEE Press,2014.
[9]彭博,臧笛.基于深度學習的車標識別方法研究[J].計算機科學,2015,42(4):268-271.
[10]周慧,周良,丁秋林.基于深度學習的疲勞狀態(tài)識別算法[J].計算機科學,2015,42(3):191-194.
[11]Xu Y,Mo T,Feng Q,et al.2014 IEEE International Conference on Acoustic,Speech and Signal Processing,Florence,May 4-9,2014[C]. Piscataway:IEEE Press,2014.
[12]Armato S G,McLennan G,McNitt-Gray M F,et al.Lung image database consortium:developing a resource for the medical imaging research community[J].Radiology,2004,232(3):739-748.
[13]Meyer C R,Johnson T D,McLennan G,et al.Evaluation of lung MDCT nodule annotation across radiologists and methods[J].Acad Radiol,2006,13(10):1 254-1 265.
[14]Warfield S K,Zou K H,Wells W M.Simultaneous truth and performance level estimation(STAPLE):an algorithm for the validation of imagesegmentation[J].IEEETransaMedImag,2004,23(7):903-921.
[15]Poultney C,Chopra S,Cun Y L.The 20th Annual Conference on Neural Information Processing Systems,Vancouver,British Columbia,Canada,December 4-7,2006[C].Cambridge:MIT Press,2006. [16]Ngiam J,Coates A,Lahiri A,et al.The 28th International Conference on Machine Learning,Washington,June 28-July 2,2011[C].New York:ACM Press,2011.
[17]王勇,趙儉輝,章登義,等.基于稀疏自編碼深度神經網絡的林火圖像分類[J].計算機工程與應用,2014,50(24):173-177.
(收稿:2015-05-15 修回:2015-09-12)
Feature extraction and benign or malignant classification of lung nodules based on sparse auto-encoder neural network
GONG Ping,WANG Shan-shan,LUO Ju-jian
(School of Medical Imaging,Xuzhou Medical College,Xuzhou 221004,Jiangsu Province,China)
Objective To put forward a method for feature extraction and benign or malignant classification of lung nodules to solve the problems due to manual operation.Methods Firstly,lung nodule images were segmented using the threshold probability-maps method from lung CT images.Secondly,sparse auto-coding neural network was applied in feature extraction and high level features of lung nodules were extracted through multiple auto-encoder.Finally,logistic regression was used to classify benign or malignant nodules by the extracted features.Results Experimental results based on lung image database consortium (LIDC)data set showed that the proposed method had higher classification accuracy and area under curve(AUC)value when compared with manual method.Conclusion Sparse auto-encoder neural network can extract the features from image level directly,avoid the difference due to manual extraction and selection,improve the classification accuracy and provide references for clinical diagnosis. [Chinese Medical Equipment Journal,2015,36(12):7-10,14]
lung nodule;feature extraction;sparse auto-encoder neural network;benign or malignant classification
R318;TP391.41
A
1003-8868(2015)12-0007-05
10.7687/J.ISSN1003-8868.2015.12.007
徐州市科技計劃項目(KC14SM089);江蘇省大學生科研訓練計劃項目(201410313062X);徐州醫(yī)學院振興計劃項目
鞏 萍(1980—),女,博士研究生,講師,研究方向為醫(yī)學圖像處理、機器學習,E-mail:gongpingcumt@126.com。
221004江蘇徐州,徐州醫(yī)學院醫(yī)學影像學院(鞏 萍,王姍姍,羅舉建)