李凌昊,胡怡音,孟廣明,黃子丹,李致勛,姜建
1.南昌大學(xué)第一臨床醫(yī)學(xué)院,江西南昌 330027;2.南昌大學(xué)第一附屬醫(yī)院影像科,江西南昌 330006;3.南昌大學(xué)信息工程學(xué)院,江西南昌 330031;*通訊作者 姜建 jij2002cn@126.com
前列腺良性增生與前列腺癌是中老年男性的常見疾病,我國前列腺癌發(fā)病率較高,且呈逐年上升趨勢[1]。常見的前列腺癌臨床診斷主要包括直腸指檢、前列腺特異性抗原(prostate-specific antigen,PSA)檢測及穿刺活檢。直腸指檢通過臨床醫(yī)師指觸的方式判斷前列腺體積大小,適用于初步診斷;PSA 水平易受炎癥影響,多次穿刺容易造成組織損傷。因此,盡管后兩者診斷前列腺癌準(zhǔn)確度較高,但仍存在誤差或不足。
多功能磁共振成像發(fā)展迅速,為前列腺癌的診斷提供了有效的影像學(xué)途徑。擴散加權(quán)成像(DWI)主要反映組織內(nèi)水分子的運動信息,進而提示陽性組織區(qū)域,對前列腺癌的診斷有較高的參考價值,是目前臨床常用的診斷方法[2]。
近年提出多個人工智能癌癥診斷與輔助檢測系統(tǒng)及模型,相關(guān)研究與實驗證明人工智能在圖像識別上具有一定的優(yōu)勢[3-5]。深度學(xué)習(xí)由Hinton 等[6]于2006年首次提出,是一種基于無監(jiān)督學(xué)習(xí)和特征層次結(jié)構(gòu)的學(xué)習(xí)方法,在圖像的歸類分類、語音辨識等多個領(lǐng)域均有較好的表現(xiàn)[7]。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)是一個多層神經(jīng)網(wǎng)絡(luò),具有強魯棒性和容錯能力,易于訓(xùn)練和優(yōu)化[8]。殘差網(wǎng)絡(luò)(residual network,ResNet)是He 等[9]提出的一類CNN,通過在每2 層增加1 個運算通道,構(gòu)成1 個殘差塊,達成全網(wǎng)絡(luò)的跳躍連接,回避了由于各層參數(shù)過小且相乘導(dǎo)致的梯度下降問題與網(wǎng)絡(luò)退化問題[10]。
本研究擬對人工智能在DWI 與表觀擴散系數(shù)(ADC)圖像診斷上的效能進行研究,對2 種模型與圖像的組合進行評估,并利用ADC 圖像對ResNet 的定性分析能力進行測試。
1.1 儀器與方法 采用西門子1.5T MR 系統(tǒng),患者取仰臥位,掃描范圍從髂棘掃描到恥骨聯(lián)合下緣。DWI采用快速自旋回波序列,視野180 mm×200 mm,層厚4 mm,層距1,TR 4100 ms,TE 91 ms,矩陣256×256,b 值取0、800、1600 s/mm2。由b=800 s/mm2自動后處理重建ADC 圖像。
1.2 數(shù)據(jù)處理 共收集1.5T MR 病例112 個,其中經(jīng)過病理診斷為前列腺癌52 個,病理結(jié)果陰性60 個。刪去伴有炎癥及影像特征不典型的圖像,其余圖像由3 名影像科醫(yī)師進行人工標(biāo)記,標(biāo)注陽性特征范圍,由1 名泌尿系統(tǒng)影像學(xué)診斷專家審核,共處理陽性ADC 與DWI(b 值取1600 s/mm2)圖像各251 張。使用全部陽性圖片作為分割實驗訓(xùn)練集。選用訓(xùn)練集樣本圖片320 張(陽性120 張,陰性200 張),測試組樣本圖片98 張(陽性22 張,陰性76 張)對ResNet通過ADC 圖像診斷前列腺癌性能進行測試。人工組由2 名影像科醫(yī)師組成,對同組影像測試數(shù)據(jù)進行判斷。使用人工勾畫區(qū)域為“金標(biāo)準(zhǔn)”,對分割結(jié)果使用交并比指標(biāo)評價分割性能;對定性診斷結(jié)果使用交叉熵計算每個樣本的置信度。
1.3 統(tǒng)計學(xué)方法 使用SPSS 22.0 軟件,繪制受試者工作特征(ROC)曲線,計算曲線下面積(AUC), 并判斷最佳臨界點。P<0.05 表示差異有統(tǒng)計學(xué)意義。
2.1 CNN 分割性能測試 將上述數(shù)據(jù)作為訓(xùn)練集輸入CNN 進行訓(xùn)練。使用測試集進行分割性能測試。測試準(zhǔn)確曲線見圖1,圖像趨勢明顯,且未出現(xiàn)明顯的震蕩現(xiàn)象,ADC 與DWI 圖像準(zhǔn)確度分別為61.34%和57.35%。
圖1 CNN 學(xué)習(xí)測試曲線
2.2 ResNet 分割性能測試 選用具有深度學(xué)習(xí)特性的ResNet 網(wǎng)絡(luò)進行訓(xùn)練,并對其性能進行測試(圖2)。由圖2 可見,曲線趨勢明顯,未出現(xiàn)過擬合與震蕩現(xiàn)象。測試準(zhǔn)確度分別為60.05%、63.08%。同時發(fā)現(xiàn)ResNet 圖像在細(xì)節(jié)精度上明顯高于CNN,圖3 為同一測試圖像的分割結(jié)果,ResNet 圖像在邊界分割上明顯優(yōu)于CNN,且對有不同信號特點的前列腺正常組織結(jié)構(gòu)做出了一定的區(qū)分。對于轉(zhuǎn)移性癌組織區(qū)分,2 種模型分割圖像效果均不甚理想,對癌癥區(qū)域勾畫較為準(zhǔn)確,但無法區(qū)分是否為前列腺區(qū)域,如出現(xiàn)盆底肌轉(zhuǎn)移(圖4)。
圖2 ResNet 學(xué)習(xí)測試曲線
2.3 基于ResNet-ADC 區(qū)域分割的前列腺癌診斷 模型檢出22 張陽性樣本中的12 張,76 張陰性樣本中的56 張,診斷準(zhǔn)確度、敏感度和特異度分別為69.39%、54.50%和73.68%。人工組22 張陽性樣本全部檢出,76 張陰性樣本檢出71 張。根據(jù)人工智能判斷數(shù)據(jù)繪制ROC 曲線(圖5),AUC 為0.782。根據(jù)圖像所得最佳閾值為50.1%,此時模型準(zhǔn)確度達90.9%。
圖3 男,61 歲,前列腺腺癌(Gleason 評分3+4=7 分)。A 為ADC 圖像,中心低信號區(qū)域為陽性區(qū)域;B 為CNN 勾畫ADC區(qū)域;C 為ResNet 勾畫區(qū)域;D 為同層面DWI(b=1600 s/mm2)圖像;E 為CNN 勾畫DWI 區(qū)域;F 為ResNet 勾畫區(qū)域
圖4 男,72 歲,前列腺腺癌(Gleason 評分4+4=8 分)。A 為1例有直腸轉(zhuǎn)移的前列腺癌ADC 圖像;B 為同層面DWI 圖像;C 為CNN 勾畫區(qū)域;D 中紅色區(qū)域為人工組勾畫區(qū)域,藍色為ResNet 勾畫區(qū)域
圖5 根據(jù)ResNet模型測試樣本置信度繪制ROC曲線
目前應(yīng)用較廣的、準(zhǔn)確性較高的前列腺癌診斷方法主要有PSA檢測、直腸超聲引導(dǎo)病理穿刺和MRI。臨床上運用最廣的是PSA,其具有極高的組織特異性,但敏感度高而特異性低。直腸超聲穿刺活檢是目前診斷前列腺癌的“金標(biāo)準(zhǔn)”,但在敏感度與準(zhǔn)確度上仍存在一定的局限性[11]。傳統(tǒng)MRI主要通過T2、ADC與DWI聯(lián)合使用進行診斷,能獲得較上述3種方法更清晰、準(zhǔn)確的病灶,但在實際工作中,由于增生與移行區(qū)本身組織特點造成的復(fù)雜信號影,其對病灶的定位仍有一定的不足。
人工智能影像診斷已在膠質(zhì)瘤、心血管疾病、肺結(jié)節(jié)、乳腺癌等多個領(lǐng)域有所突破[12-15]。與傳統(tǒng)的人工診斷相比,較成熟的人工智能診斷與分割優(yōu)勢在于:①在圖像特征如明暗度、圖像對比度等方面,人工智能的識別能力強于人眼識別;②回避了由于影像醫(yī)師經(jīng)驗、熟練度、疲勞等主觀因素造成的誤診率;③數(shù)字信息存儲便于開展不同區(qū)域、不同領(lǐng)域的案例、數(shù)據(jù)交流合作。
本實驗勾畫的病例中含有位于移行區(qū)與外周帶的癌灶,且包括多個分級。分別使用CNN與ResNet學(xué)習(xí)圖像特征并進行分割測試。結(jié)果顯示,2個模型在ADC圖像分割上準(zhǔn)確率相近,ResNet的DWI分割準(zhǔn)確率較CNN有一定的提高,提示盡管ADC與DWI圖像存在關(guān)聯(lián)性,但在訓(xùn)練模型價值上或仍存在一定的差異?;赗esNet-ADC區(qū)域分割的前列腺癌診斷調(diào)試至最佳閾值后,人工智能整體準(zhǔn)確率也可提升到較高水平。
本研究發(fā)現(xiàn),深度學(xué)習(xí)網(wǎng)絡(luò)在MRI前列腺癌病灶分割上顯示出較大優(yōu)勢,國內(nèi)外亦有多種思路與模型對此類問題進行討論與研究。Yan等[16]提出的傳播深度學(xué)習(xí)網(wǎng)絡(luò),可以將多級特征提取的最佳組合納入一個模型中。使用的30個MR測試集樣本表現(xiàn)出較高的魯棒性與準(zhǔn)確率。To等[17]利用T2與ADC圖像構(gòu)建的3D深密集多徑CNN分割、鑒別前列腺癌,在2個獨立測試集中分別實現(xiàn)了95.11、89.01的Dice系數(shù)。本研究采用對大數(shù)據(jù)更為敏感的、建模較為成熟的CNN與ResNet深度學(xué)習(xí)模型,選用臨床工作常用掃描序列,結(jié)果有較強的可應(yīng)用性。
本研究嘗試在預(yù)處理步驟中,對ADC圖像與DWI圖像進行對比度調(diào)整并組合。但對于新生成的圖片,陽性區(qū)域的認(rèn)定、特征代表的臨床意義、診斷價值等問題尚未取得統(tǒng)一的意見與建議。而對于T2圖像與ADC或DWI的擬合,除存在上述問題外,由于掃描平面稍不同,還存在圖像對齊問題亟需解決。本研究著重實驗分析了ADC與DWI(b=1600 s/mm2)的結(jié)果,但對同切面T2圖像亦進行了實驗,結(jié)果差強人意,分析其主要原因為:①與ADC及DWI相比,T2圖像的癌區(qū)域具體范圍更難標(biāo)記,尤其是移行區(qū)的癌變邊界,人工標(biāo)記精度存在較大波動。②T2圖像下,前列腺內(nèi)部各區(qū)域信號值差異更為明顯,需要提取,學(xué)習(xí)的特征更多。因此對訓(xùn)練集樣本數(shù)目與質(zhì)量均提出了更高的要求。
總之,深度學(xué)習(xí)網(wǎng)絡(luò)在前列腺癌病灶分割和定性分析上均顯示出較大的優(yōu)勢,具有一定的臨床實用性。