摘 要:腦出血診斷主要依賴于影像學(xué)檢查,針對(duì)傳統(tǒng)人工閱片識(shí)別效率不高、受限于醫(yī)師與設(shè)備技術(shù),以及難以實(shí)現(xiàn)大規(guī)模診斷等問題,提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的腦出血識(shí)別和分類方法。采集了5 000份腦CT影像,對(duì)其進(jìn)行去噪、歸一化、裁剪等預(yù)處理,建立了腦CT影像的LeNet-5模型,進(jìn)行特征提取并實(shí)現(xiàn)分類。結(jié)果表明,LeNet-5模型在測(cè)試集上的準(zhǔn)確率達(dá)到了95.8%,能夠提供更準(zhǔn)確、更高效的診斷結(jié)果,可為臨床診斷和治療提供有力支持。
關(guān)鍵詞:CT影像;卷積神經(jīng)網(wǎng)絡(luò);腦出血;識(shí)別
中圖分類號(hào):TP183? ? ?文獻(xiàn)標(biāo)識(shí)碼:A? ? ?文章編號(hào):1674-0033(2024)02-0035-05
引用格式:楊琳,安旭,菜涪全.基于卷積神經(jīng)網(wǎng)絡(luò)的腦出血分類識(shí)別算法研究[J].商洛學(xué)院學(xué)報(bào),2024,38(2):35-39.
A Study on Classification and Recognition
Algorithm for Cerebral Hemorrhage Based
on Convolutional Neural Network
YANG Lin, AN Xu, CAI Fu-quan
(College of Electronic Information and Electrical Engineering / Shangluo Artificial Intelligence Research Center, Shangluo University, Shangluo? 726000, Shaanxi)
Abstract: The diagnosis of cerebral hemorrhage mainly relies on the imaging examination. The traditional manual way of the CT images analysis has many disadvantages, such as low identification efficiency, limited by doctors and equipment technology, and the difficult to achieve large-scale diagnosis. a new method of cerebral hemorrhage classification and recognition is proposed, based on convolutional neural network to overcome these difficulties. 5 000 sets of brain CT images were collected, and the brain CT images were denoised, normalized and trimmed, and the LeNet-5 model of brain CT images was established for feature extraction and classification. The results show that the accuracy of the LeNet-5 model of cerebral hemorrhage recognition reached 95.8% on the test set, and it can provide more accurate and efficient diagnostic results, which can provide excellent support for clinical diagnosis and treatment.
Key words: CT image; convolutional neural network; cerebral hemorrhage; recognition
腦出血是一種高風(fēng)險(xiǎn)疾病,可能由外傷、高血壓等因素導(dǎo)致。腦出血診斷主要依賴于CT、核磁共振等影像學(xué)檢查。傳統(tǒng)的人工閱片方式存在識(shí)別效率不高、結(jié)果易受醫(yī)師的技術(shù)水平影響,難以實(shí)現(xiàn)大規(guī)模診斷等問題[1]。近年來,人工智能技術(shù)的進(jìn)步與發(fā)展,特別是深度學(xué)習(xí)技術(shù)在醫(yī)學(xué)影像領(lǐng)域的應(yīng)用,為腦出血的機(jī)器診斷提供了新方法。通過對(duì)大量影像數(shù)據(jù)的學(xué)習(xí),算法可以自動(dòng)提取出腦CT圖像中的特征,從而實(shí)現(xiàn)對(duì)疾病的自動(dòng)識(shí)別和分類[2-3]。這種方法具有速度快、準(zhǔn)確率高、可重復(fù)性好等優(yōu)點(diǎn),對(duì)于提高腦出血的診斷效率和準(zhǔn)確性具有重要意義。諸多研究者在該領(lǐng)域開展了一系列的研究,Anthony G. Chesebro[4]設(shè)計(jì)了微出血檢測(cè)深度學(xué)習(xí)模型,Salita Angkurawaranon[5]驗(yàn)證了深度學(xué)習(xí)模型在顱內(nèi)出血定位、分類方面的有效性,黃成健[6]探索了深度學(xué)習(xí)在腦CT圖像分析中的應(yīng)用,冀俊忠等[7]提出了一種基于多尺度超像素融合網(wǎng)絡(luò)的腦CT圖像分類方法,符帥[8]、鄭自鵬[9]、王嫻[10]、周正松[11]等研究了顱內(nèi)出血的自動(dòng)定位、特征提取、出血區(qū)域分割等問題,Tanweer Rashid[12]、Ali Arab[13]利用深度神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了腦出血體積的自動(dòng)計(jì)算,馮玄[14],趙凱[15]基于深度學(xué)習(xí)技術(shù)研究了腦出血自動(dòng)分類與擴(kuò)大預(yù)測(cè)研究。這些研究表明,深度卷積網(wǎng)絡(luò)對(duì)CT影像的分類,有一定效果,但仍存在訓(xùn)練時(shí)間較長(zhǎng)、缺乏統(tǒng)一標(biāo)準(zhǔn)、計(jì)算資源限制等問題。本文在前人的研究基礎(chǔ)上,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的腦出血識(shí)別方法,建立了LeNet-5模型,完成了腦CT影像的分類任務(wù),對(duì)腦出血的早期診斷和治療具有重要意義。
1? 試驗(yàn)數(shù)據(jù)
1.1 CT影像
計(jì)算機(jī)斷層掃描技術(shù)(CT,Computed Tomography) 是一種通過射線對(duì)人體進(jìn)行斷層掃描后,能清晰顯示出人體各部位和組織斷層結(jié)構(gòu)的技術(shù)。CT影像學(xué)檢查是腦部病變最重要的檢查方式之一,可以明確顯示出腦出血、腦梗塞等各類病變的位置、范圍、程度,以及周圍腦組織受壓迫的情況等,各部位、各類型病變的CT值范圍如表1所示,可為腦部疾病診斷提供重要依據(jù)。
表1? 顱腦CT數(shù)值
1.2 數(shù)據(jù)集
本文所涉及的5 000份腦CT影像數(shù)據(jù)來自原商洛職業(yè)技術(shù)學(xué)院附屬醫(yī)院(2015—2019年),采集設(shè)備為GE Optima CT660型掃描儀,管電壓為 120 kV,管電流為自動(dòng),層厚5 mm,層數(shù)16,圖像尺寸為512 mm×512 mm。由放射科醫(yī)師對(duì)病變區(qū)域進(jìn)行手工語義分割標(biāo)注,標(biāo)簽共有正常、出血兩種類型。如圖1所示,白色區(qū)域表示出血,被標(biāo)記為1;其他灰色區(qū)域表示正常腦組織,標(biāo)記為0。
1.3 數(shù)據(jù)預(yù)處理
在數(shù)據(jù)預(yù)處理階段,主要進(jìn)行去噪、歸一化和圖像裁剪。
1.3.1 去噪
在數(shù)據(jù)采集過程中,部分患者由于腦部受損,無法保持安靜的頭部姿勢(shì),一定程度的腦部晃動(dòng)使得采集到的圖像出現(xiàn)偽影,如圖2所示。這些偽影會(huì)對(duì)圖像的質(zhì)量和分類結(jié)果產(chǎn)生嚴(yán)重影響,因此,需要對(duì)圖像進(jìn)行去噪處理。常見的去噪方法包括中值濾波、高斯濾波等,本文采用小波濾波法,能夠有效地去除圖像中的噪聲,提高圖像的質(zhì)量。
1.3.2歸一化
將腦CT圖像的灰度值進(jìn)行歸一化操作,其過程如:
歸一化后,圖像的數(shù)據(jù)范圍在0~1,可以消除不同批次掃描、不同醫(yī)師操作的差異,使模型可以更加準(zhǔn)確地識(shí)別病變區(qū)域。
1.3.3裁剪圖像
CT圖像四周包含大量的邊角信息,這些信息對(duì)于腦出血識(shí)別分類這個(gè)目標(biāo)任務(wù)來說是冗余的。因此,需要對(duì)圖像進(jìn)行裁剪處理。具體來說,首先通過邊緣檢測(cè)算法找到有效圖像的邊緣,然后將圖像四周多余的部分裁剪掉,只保留人腦所在400 mm×300 mm區(qū)域部分。減少計(jì)算量的同時(shí),提高模型的訓(xùn)練速度和準(zhǔn)確性。
2? 算法原理
2.1 卷積神經(jīng)網(wǎng)絡(luò)
本文利用卷積神經(jīng)網(wǎng)絡(luò)(CNN,Convolutional Neural Network)實(shí)現(xiàn)腦CT影像的識(shí)別分類。CNN是一種深度學(xué)習(xí)模型,模仿生物神經(jīng)系統(tǒng)的部分工作原理,采用卷積運(yùn)算的機(jī)制,以處理像素或特征映射,能夠自動(dòng)學(xué)習(xí)和提取圖像的特征,適用于處理復(fù)雜的圖像識(shí)別任務(wù),其整體結(jié)構(gòu)如圖3所示,分為卷積層(Convolutional Layer)、非線性激活層(Relu Layer)、池化層(Pooling Layer)和全連接層(Fully Connected Layer)。每個(gè)卷積層會(huì)從輸入數(shù)據(jù)中學(xué)習(xí)一組特征映射(Feature Map),這些特征映射能夠捕捉到輸入數(shù)據(jù)的局部特征。池化層則對(duì)卷積層的輸出進(jìn)行下采樣(Subsampling),以減少數(shù)據(jù)的維度和參數(shù)的數(shù)量,同時(shí)保持重要的特征不變。全連接層則用于將前面層次學(xué)習(xí)到的特征進(jìn)行整合,以完成最終的腦CT影像的分類任務(wù)。
2.2 LeNet-5模型
LeNet-5模型,由Yann LeCun等[16]提出,是一個(gè)7層的神經(jīng)網(wǎng)絡(luò),包括3個(gè)卷積層(C1、C3、C5)、2個(gè)下采樣層(S2、S4)、1個(gè)全連接層(F6)。本文的腦出血識(shí)別模型正是基于LeNet-5的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)而來,如圖4所示。
LeNet-5共有7層,輸出對(duì)應(yīng)2個(gè)類別的得分。LeNet-5中的每一層結(jié)構(gòu)如:
1)C1層為卷積層,采用5×5的卷積核,共6個(gè)。
2)S2層為池化層,采用2×2的采樣窗口,使用平均匯聚。
3)C3層為卷積層,采用5×5的卷積核,共60個(gè)。
4)S4層為池化層,采用2×2的采樣窗口。
5)C5層為卷積層,采用5×5的卷積核,共1 920個(gè)。
6)F6層為全連接層,有100個(gè)神經(jīng)元。
7)最后一層是輸出層,由2個(gè)徑向基函數(shù)(Radial Basis Function,RBF)構(gòu)成。
2.3 評(píng)價(jià)指標(biāo)
模型在測(cè)試集上的評(píng)價(jià)指標(biāo)采用分類任務(wù)中常用的準(zhǔn)確率(Accuracy,A)、召回率(Recall,R)、精準(zhǔn)率(Precision,P)及F1分?jǐn)?shù)(F1 Score,F(xiàn)1)評(píng)分。相關(guān)評(píng)價(jià)指標(biāo)的計(jì)算式為:
A=(2)
R=(3)
P=(4)
F1=(5)
其中,F(xiàn)N、TP、FP和TN分別是假陰性(False Negative)、真陽性(Ture Positive)、假陽性(False Positive)和真陰性(Ture Negative)。
3? 試驗(yàn)與結(jié)果分析
3.1 試驗(yàn)環(huán)境
本文所使用的操作系統(tǒng)為Windows11,算法開發(fā)工具為Jupyter Notebook,深度學(xué)習(xí)框架為Tensorflow 2.3版本。硬件配置采用第12代Gen Intel(R)Core(TM)i7- 12700H CPU處理器,NVIDIA RTX3060 16G顯卡。
3.2 模型參數(shù)設(shè)置
網(wǎng)絡(luò)的迭代周期設(shè)置為400,batch size設(shè)置為80。學(xué)習(xí)率設(shè)定使用指數(shù)衰減法,初始學(xué)習(xí)率設(shè)置為0.001,一階和二階矩估計(jì)的指數(shù)衰減率分別為0.9和0.99,模糊因子為1.0×10-8,優(yōu)化器使用adam。
3.3 數(shù)據(jù)集劃分
本文的數(shù)據(jù)集共有5 000份腦CT圖像。這些腦CT圖像包括腦出血和非腦出血兩種類別,每類2 500份。將這兩種類別數(shù)據(jù)劃分為訓(xùn)練集(80%)和測(cè)試集(20%)分別為4 000和1 000份。訓(xùn)練集用于訓(xùn)練LeNet-5模型,測(cè)試集用于評(píng)估模型的性能。
3.4 結(jié)果與分析
模型在測(cè)試集上的混淆矩陣如圖5所示,其中,縱軸代表真實(shí)的標(biāo)簽,橫軸代表預(yù)測(cè)出的類別。位于左側(cè)的四個(gè)方格中的數(shù)字表示某種樣本被預(yù)測(cè)為不同類別的數(shù)量,右側(cè)的條狀圖用于度量混淆矩陣中方格的灰度值。主對(duì)角線方格中的值越大,說明正確分類的樣本越多,方格顏色越接近白色。其他方格中的數(shù)值越接近于0越好,說明錯(cuò)誤分類的樣本越少,方格顏色越接近黑色。本模型測(cè)試集共有1 000份腦CT影像,其中500個(gè)標(biāo)記為腦出血的樣本中,共有487個(gè)識(shí)別正確,13個(gè)識(shí)別錯(cuò)誤;500個(gè)未出血樣本中,共有471個(gè)識(shí)別正確,29個(gè)識(shí)別錯(cuò)誤。
試驗(yàn)結(jié)果表明,本文所建立的腦CT影像識(shí)別分類模型的準(zhǔn)確率達(dá)到了95.8%,評(píng)價(jià)指標(biāo)如圖6所示,腦出血與未出血兩種類型的召回率分別是97.4%和94.2%,精準(zhǔn)率分別是94.38%和97.31%,F(xiàn)1分?jǐn)?shù)分別是95.87%和95.73%,證明了其在腦出血分類識(shí)別任務(wù)上的有效性。
4? 結(jié)論
本文提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的腦出血CT影像的分類識(shí)別算法模型,經(jīng)驗(yàn)證,敏感性為97.4%,特異性為94.2%,總準(zhǔn)確率達(dá)到95.8%。首先,建立了CT影像的預(yù)處理機(jī)制,通過濾波、歸一化等方法有效地克服了偽影造成的誤差。其次,所建立的模型在腦出血分類識(shí)別任務(wù)上具有較高的準(zhǔn)確性,為腦出血的早期識(shí)別和診斷提供了一種新的有效手段,減小放射科醫(yī)師工作量的同時(shí),最大程度降低人工誤差造成的影響,有助于提高醫(yī)療服務(wù)的效率和質(zhì)量。最后,進(jìn)一步探索和挖掘CT影像中所蘊(yùn)含的豐富信息,可為疾病的早期診斷、治療方案制定及預(yù)后評(píng)估提供強(qiáng)有力的支持。
參考文獻(xiàn):
[1]? 張?zhí)磔x,劉舒珊,曾錦梁,等.人工智能在放射科閱片教學(xué)中的應(yīng)用現(xiàn)狀及前景展望[J].繼續(xù)醫(yī)學(xué)教育,2023,37(10):153-156.
[2]? 孫欣樂,崔勇,翟彤彤,等.移動(dòng)醫(yī)學(xué)影像的現(xiàn)狀與未來[J].磁共振成像,2022,13(12):163-170.
[3]? 吳緋紅,趙煌旋,楊帆,等.醫(yī)學(xué)影像+人工智能的發(fā)展、現(xiàn)狀與未來[J].臨床放射學(xué)雜志,2022,41(4):764-767.
[4]? CHESEBRO A G, AMARANTE E, LAO P J, et al. Automated detection of cerebral microbleeds on T2*-weighted MRI[J].Scientific reports,2021,11(1):1-12.
[5]? ANKURAWARANON S, SANORSIENG N, UNSRISONG K, et al. A comparison of performance between a deep learning model with residents for localization and classification of intracranial hemorrhage [J].Scientific Reports,2023,13(1):1-10.
[6]? 黃成健.基于深度學(xué)習(xí)的超急性期大面積腦缺血CT影像分析[D].深圳:中國(guó)科學(xué)院大學(xué)(中國(guó)科學(xué)院深圳先進(jìn)技術(shù)研究院),2022:3-5.
[7]? 冀俊忠,張夢(mèng)隆,宋曉,等.基于多尺度超像素融合網(wǎng)絡(luò)的腦CT圖像分類方法[J].中國(guó)科技論文,2022,17(11):1173-1180,1187.
[8]? 符帥.面向腦出血診斷任務(wù)的多類CT重建算法性能分析及出血識(shí)別方法研究[D].廣州:南方醫(yī)科大學(xué),2022:1-5.
[9]? 鄭自鵬.基于全卷積網(wǎng)絡(luò)的腦CT圖像出血區(qū)域的分割和定位[D].武漢:華中科技大學(xué),2022:3-6.
[10] 王嫻.基于深度學(xué)習(xí)和CT影像的顱內(nèi)出血亞型分類及定位研究[D].重慶:重慶理工大學(xué),2022:2-4.
[11] 周正松,陳旭淼,張皞宇,等.改進(jìn)型Unet網(wǎng)絡(luò)在腦CT圖像出血區(qū)域識(shí)別與分割中的應(yīng)用[J].四川大學(xué)學(xué)報(bào)(醫(yī)學(xué)版),2022,53(1):114-120.
[12] RASHID T, ABDULKADIR A, NASRALLAH I M, et al. DEEPMIR: a deep neural network for differential detection of cerebral microbleeds and iron deposits in MRI[J].Scientific reports,2021,11(1):1-14.
[13] ARAB A, CHINDA B, MEDVEDEV G, et al. A fast and fully-automated deep-learning approach for accurate hemorrhage segmentation and volume quantification in non-contrast whole-head CT[J].Scientific Reports,2020,10(1):1-12.
[14] 馮玄.基于CT圖像的腦出血檢測(cè)方法研究[D].南京:南京郵電大學(xué),2021:1-6.
[15] 趙凱.基于深度學(xué)習(xí)的腦出血自動(dòng)分類與擴(kuò)大預(yù)測(cè)研究[D].太原:太原理工大學(xué),2021:3-4.
[16] LECUN Y, BOTTOU L.Gradient-based learning applied to document recognition [J].Proceedings of the IEEE, 1998,86(11):2278-2324.