本發(fā)明涉及機(jī)器學(xué)習(xí)和圖像處理領(lǐng)域,是針對(duì)醫(yī)學(xué)圖像語義分割技術(shù)的研究,尤其是一種基于深度學(xué)習(xí)的眼底圖像視網(wǎng)膜血管分割方法及系統(tǒng)。
背景技術(shù):
:近年來,隨著圖像處理技術(shù)的發(fā)展,圖像分割技術(shù)開始被應(yīng)用到眼底圖像分割領(lǐng)域,目前國(guó)內(nèi)外有很多研究人員提出了各種各樣的眼底圖像視網(wǎng)膜血管分割算法,主要分為以下幾個(gè)方向:基于血管跟蹤的方法、基于匹配濾波的方法、基于形變模型的方法和基于機(jī)器學(xué)習(xí)的方法。基于匹配濾波的方法是將濾波器與圖像進(jìn)行卷積來提取目標(biāo)對(duì)象,由于視網(wǎng)膜血管剖面的灰度符合高斯特性,因此可以通過計(jì)算圖像濾波后的最大響應(yīng)值來進(jìn)行血管分割。經(jīng)典的匹配濾波方法是根據(jù)血管特征基本符合高斯分布的特點(diǎn),將視網(wǎng)膜血管與高斯分布函數(shù)進(jìn)行不同方向的匹配濾波,然后對(duì)響應(yīng)結(jié)果進(jìn)行閾值化,選取響應(yīng)最大的匹配濾波結(jié)果作為血管輸出,最終提取出視網(wǎng)膜血管圖像。該方法計(jì)算量較大,而且視網(wǎng)膜中病變部位的特征與血管特征相似,因此會(huì)造成檢測(cè)錯(cuò)誤。基于形變模型的方法思路很直觀,是通過用曲線來描繪出血管的邊界,邊界曲線通過能量函數(shù)的參數(shù)來定義,邊界曲線在邊界兩側(cè)的能量變化的影響下發(fā)生形變,因此血管分割變成了使能量函數(shù)最小化。蛇形模型是一種經(jīng)典的參數(shù)形變模型,蛇形模型時(shí)一種能量極小化的樣條,圖像能量的內(nèi)力會(huì)影響模型的形狀并將其拖向圖像的顯著特征的邊界,研究人員將蛇形模型應(yīng)用到從核磁共振圖像中提取關(guān)節(jié)軟骨和合成孔徑雷達(dá)中檢測(cè)海岸線等領(lǐng)域。也有研究人員使用蛇形模型來進(jìn)行眼底圖像中的視網(wǎng)膜血管分割,并對(duì)其進(jìn)行了改進(jìn),使用了形態(tài)學(xué)操作來進(jìn)行優(yōu)化和調(diào)整了能量最小參數(shù)。基于機(jī)器學(xué)習(xí)的方法是指通過機(jī)器學(xué)習(xí)算法來進(jìn)行血管分割。該方法的優(yōu)點(diǎn)是能夠自動(dòng)分割并且準(zhǔn)確率較高?;诒O(jiān)督學(xué)習(xí)的機(jī)器學(xué)習(xí)算法對(duì)血管分割有著較高的準(zhǔn)確率。該方法主要流程是數(shù)據(jù)預(yù)處理、特征選擇和提取和圖像分割。該方法的主要難點(diǎn)在于特征提取和圖像分割,對(duì)于機(jī)器學(xué)習(xí)方法來說,特征工程非常重要,傳統(tǒng)的方法主要采用Gabor濾波等方法,提取特征有限,近年來隨著深度學(xué)習(xí)的發(fā)展,用深度學(xué)習(xí)進(jìn)行圖像的特征提取有著很好的效果,也有人嘗試用深度學(xué)習(xí)來進(jìn)行血管分割。技術(shù)實(shí)現(xiàn)要素:本發(fā)明的目的是針對(duì)上述現(xiàn)有技術(shù)的不足,提供了一種基于深度學(xué)習(xí)的眼底圖像視網(wǎng)膜血管分割方法和基于該方法的系統(tǒng),該方法對(duì)眼底圖像進(jìn)行語義分割,通過分類器對(duì)每個(gè)像素點(diǎn)進(jìn)行二分類,確定該像素點(diǎn)是屬于血管還是非血管,從而完成對(duì)整張圖像的分割,主要是通過深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行視網(wǎng)膜血管分割,再使用卷積神經(jīng)網(wǎng)絡(luò)提取的圖像特征訓(xùn)練一個(gè)隨機(jī)森林分類器進(jìn)行視網(wǎng)膜血管分割,最后將二者的分割結(jié)果進(jìn)行融合得到最終的血管分割結(jié)果。本發(fā)明的目的可以通過如下技術(shù)方案實(shí)現(xiàn):基于深度學(xué)習(xí)的眼底圖像視網(wǎng)膜血管分割方法,所述方法包括以下步驟:步驟1:對(duì)數(shù)據(jù)集中的眼底圖像進(jìn)行預(yù)處理,該步驟主要包括如下步驟:步驟1-1:將數(shù)據(jù)集中的眼底圖像分成訓(xùn)練樣本和測(cè)試樣本。對(duì)訓(xùn)練樣本的眼底圖像和對(duì)應(yīng)的圖像標(biāo)簽分別進(jìn)行左右對(duì)稱和180度旋轉(zhuǎn),使一張眼底圖像變?yōu)?張,完成對(duì)眼底圖像訓(xùn)練集進(jìn)行數(shù)據(jù)集擴(kuò)增;步驟1-2:對(duì)訓(xùn)練樣本和測(cè)試樣本的眼底圖像進(jìn)行增強(qiáng),首先將圖像轉(zhuǎn)化為RGB類型的圖像,單獨(dú)抽取G通道的圖像進(jìn)行中值濾波和直方圖均衡化,所述中值濾波為對(duì)每個(gè)像素,選取一個(gè)模板,該模板為其鄰近的3*3個(gè)像素組成,對(duì)模板的像素進(jìn)行從大到小的排序,然后用模板的中值來替換原像素的值,對(duì)G通道的圖像進(jìn)行中值濾波后,再對(duì)G通道的圖像進(jìn)行直方圖均衡化,所述直方圖均衡化的流程如下:a):求出G通道圖像的直方圖;b):根據(jù)a)得到的G通道圖像的直方圖求出灰度值變化表;c):根據(jù)b)中得到的灰度值變化表對(duì)每個(gè)像素的灰度值進(jìn)行查表變換操作,即對(duì)每個(gè)像素的灰度值進(jìn)行均衡化;在完成對(duì)G通道圖像的直方圖均衡化后,用G通道圖像的灰度值替換R通道和B通道的灰度值;步驟1-3:在完成步驟1-2的圖像增強(qiáng)操作后,對(duì)眼底圖像RGB三個(gè)通道的像素分別進(jìn)行Z-score歸一化:其中,xi表示歸一化前的第i個(gè)像素點(diǎn)的值,表示歸一化后的第i個(gè)像素點(diǎn)的值,μ表示該通道像素的均值,σ表示該通道像素的標(biāo)準(zhǔn)差,整個(gè)流程是先減去均值μ再除以標(biāo)準(zhǔn)差σ,最終歸一化到均值為0和方差為1。步驟2:用訓(xùn)練樣本訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),所述卷積神經(jīng)網(wǎng)絡(luò)包括三個(gè)部分:編碼網(wǎng)絡(luò)、解碼網(wǎng)絡(luò)和softmax分類器,所述編碼網(wǎng)絡(luò)的輸入為RGB三通道眼底圖像,包括16個(gè)卷積層和5個(gè)max-pooling層,每層參數(shù)如下表:每層類型大小卷積核數(shù)目Pad步長(zhǎng)(stride)卷積層3×36411卷積層3×36411max-pooling2×2無02卷積層3×312811卷積層3×312811max-pooling2×2無02卷積層3×312811卷積層3×325611卷積層3×325611卷積層3×325611max-pooling2×2無02卷積層3×325611卷積層3×351211卷積層3×351211卷積層3×351211max-pooling2×2無02卷積層3×351211卷積層3×351211卷積層3×351211卷積層3×351211max-pooling2×2無02所述編碼網(wǎng)絡(luò)通過對(duì)眼底圖像進(jìn)行多次卷積和max-pooling之后,得到包含圖像特征的featuremap,所述解碼網(wǎng)絡(luò)再對(duì)featuremap進(jìn)行卷積和上采樣,在編碼網(wǎng)絡(luò)中,每一層的maxpooling記錄下每個(gè)2×2pooling塊的最大值的位置,編碼網(wǎng)絡(luò)中的每個(gè)max-pooling層有一個(gè)解碼網(wǎng)絡(luò)中的上采樣層與之對(duì)應(yīng),所述上采樣的操作是將featuremap中的值放入對(duì)應(yīng)的maxpooling層中記錄的最大值的位置,再將其它位置的值設(shè)為0,每次上采樣后featuremap的大小都會(huì)增大兩倍,解碼網(wǎng)絡(luò)包括16個(gè)卷積層和5個(gè)上采樣層,每個(gè)卷積層與編碼網(wǎng)絡(luò)中的卷積層相對(duì)應(yīng),各層配置如下表:編碼網(wǎng)絡(luò)和解碼網(wǎng)絡(luò)中的所有卷積層卷積后的結(jié)果先進(jìn)行批量歸一化,再用修正線性函數(shù)作為激活函數(shù)進(jìn)行輸出,批量歸一化在卷積神經(jīng)網(wǎng)絡(luò)每次隨機(jī)梯度下降時(shí),首選對(duì)卷積后輸出的數(shù)據(jù)進(jìn)行歸一化操作,使得結(jié)果的均值為0,方差為1,然后再對(duì)參數(shù)進(jìn)行訓(xùn)練,流程如下:a):輸入為卷積輸出的m個(gè)數(shù)據(jù):B={x1…m},要學(xué)習(xí)的參數(shù)γ、β,輸出為其中xi表示卷積輸出的數(shù)據(jù),表示歸一化后的數(shù)據(jù),yi表示批量歸一化最終的輸出;b):先計(jì)算均值μB和方差δ2B,再對(duì)參數(shù)進(jìn)行訓(xùn)練:其中,∈是為防止分母為0而設(shè)置的一個(gè)趨于極限小的值;c):參數(shù)γ、β在整個(gè)網(wǎng)絡(luò)反向傳播的過程中與卷積神經(jīng)網(wǎng)絡(luò)參數(shù)同時(shí)進(jìn)行訓(xùn)練;修正線性函數(shù)的公式為:其中,x表示函數(shù)的輸入,f(x)表示函數(shù)的輸出;編碼網(wǎng)絡(luò)通過對(duì)featuremap進(jìn)行多次卷積和上采樣層后,獲得和輸入圖像尺寸相同的64個(gè)featuremap,即每個(gè)像素點(diǎn)有64維特征,然后用這些特征訓(xùn)練softmax分類器,將眼底圖像的每個(gè)像素點(diǎn)分為0、1兩個(gè)類別,0代表該像素點(diǎn)屬于非血管,1代表該像素屬于血管,softmax分類器在二分類的情況下與邏輯斯蒂回歸相同,公式為:其中,e為自然底數(shù),ω為x的權(quán)值向量,x表示像素的特征向量,P(y=1|x;ω)表示x等于1的概率,P(y=0|x;ω)表示x等于0的概率;對(duì)應(yīng)的決策函數(shù)為:其中,y表示輸出的類別;整個(gè)卷積神經(jīng)網(wǎng)絡(luò)包括編碼網(wǎng)絡(luò)、解碼網(wǎng)絡(luò)和softmax分類器三部分,使用隨機(jī)梯度下降法進(jìn)行訓(xùn)練,使用反向傳播算法來優(yōu)化網(wǎng)絡(luò)中的參數(shù),用J(W,b)表示帶L2范數(shù)的整體代價(jià)函數(shù),則J(W,b)可表示為:其中,x(i)表示輸入的第i個(gè)訓(xùn)練樣本,hW,b(x(i))表示網(wǎng)絡(luò)的預(yù)測(cè)類別,y(i)表示樣本的真實(shí)類別,λ為權(quán)重衰減系數(shù),W表示網(wǎng)絡(luò)的參數(shù),所述反向傳播算法更新參數(shù)的方法如下:1):首先進(jìn)行前向傳播,計(jì)算所有層的激活值;2):對(duì)輸出層(第nl層),計(jì)算敏感值其中,y為樣本真實(shí)值,為輸出層的預(yù)測(cè)值,表示輸出層參數(shù)的偏導(dǎo)數(shù);3):對(duì)于l=nl-1,nl-…的各層,計(jì)算敏感值其中,W(l)表示第l層的參數(shù),δ(l+1)表示第l+1層的敏感值,f'(z(l))表示第l層的偏導(dǎo)數(shù);4):更新每層的參數(shù):W(l)=W(l)-αδ(l+1)(a(l))Tb(l)=b(l)-αδ(l+1)其中,W(l)和b(l)分別表示l層的參數(shù),α表示學(xué)習(xí)速率,a(l)表示第l層的輸出值,δ(l+1)表示l+1層的敏感值;訓(xùn)練過程采用以上方法,從而使整個(gè)卷積神經(jīng)網(wǎng)絡(luò)收斂到滿足誤差要求。步驟3:從步驟2里訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)中提取最后一層卷積輸出特征訓(xùn)練隨機(jī)森林分類器,包括如下內(nèi)容:在步驟2中的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練完成后,將卷積神經(jīng)網(wǎng)絡(luò)最后一層卷積層輸出的每個(gè)眼底圖像對(duì)應(yīng)的64個(gè)featuremap抽取出來作為訓(xùn)練樣本,則每個(gè)像素點(diǎn)有64維特征,用這些樣本特征訓(xùn)練一個(gè)隨機(jī)森林分類器。步驟4:將卷積神經(jīng)網(wǎng)絡(luò)對(duì)像素的分類結(jié)果與隨機(jī)森林分類器的分類結(jié)果進(jìn)行融合,當(dāng)兩個(gè)分類結(jié)果至少有一個(gè)為血管類別時(shí),該像素的分類結(jié)果為血管,若兩個(gè)分類器對(duì)像素的分類結(jié)果均為非血管,則該像素的分類結(jié)果為非血管類別。步驟5:利用訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)測(cè)試樣本進(jìn)行分割,得到最終的分割結(jié)果。本發(fā)明的另一目的可以通過如下技術(shù)方案實(shí)現(xiàn):基于深度學(xué)習(xí)的眼底圖像視網(wǎng)膜血管分割方法的系統(tǒng),所述系統(tǒng)包括:預(yù)處理模塊、訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模塊、訓(xùn)練隨機(jī)森林模塊和圖像分割模塊,系統(tǒng)各個(gè)模塊之間的連接關(guān)系為:預(yù)處理模塊輸出的數(shù)據(jù)作為訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模塊和圖像分割模塊的輸入,訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模塊在完成卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練后,其卷積神經(jīng)網(wǎng)絡(luò)最后一層的輸出作為訓(xùn)練隨機(jī)森林模塊的輸入,訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模塊和訓(xùn)練隨機(jī)森林模塊輸出的模型作為圖像分割模塊的輸入。優(yōu)選地,所述預(yù)處理模塊用于對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理,對(duì)圖像進(jìn)行數(shù)據(jù)集擴(kuò)增、中值濾波、直方圖均衡化和歸一化處理,所述預(yù)處理模塊包括訓(xùn)練數(shù)據(jù)集擴(kuò)增單元、數(shù)據(jù)集眼底圖像增強(qiáng)單元和眼底圖像歸一化單元。優(yōu)選地,所述訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模塊用訓(xùn)練集的眼底圖像對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,最終獲得最優(yōu)的卷積神經(jīng)網(wǎng)絡(luò)。優(yōu)選地,所述訓(xùn)練隨機(jī)森林模塊用訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模塊中訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練圖像進(jìn)行分割,將其最后一層卷積層輸出作為訓(xùn)練樣本訓(xùn)練隨機(jī)森林分類器。優(yōu)選地,所述圖像分割模塊包括:預(yù)處理調(diào)用單元,用于調(diào)用預(yù)處理模塊對(duì)一個(gè)待分割的眼底圖像進(jìn)行預(yù)處理,并得到相應(yīng)的結(jié)果;卷積神經(jīng)網(wǎng)絡(luò)調(diào)用單元,用于調(diào)用訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模塊中訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)對(duì)預(yù)處理后的眼底圖像進(jìn)行分割,得到一個(gè)分割結(jié)果;隨機(jī)森林分類器調(diào)用單元,用于調(diào)用訓(xùn)練隨機(jī)森林模塊對(duì)眼底圖像的每個(gè)像素進(jìn)行分類,判斷像素屬于血管還是非血管,得到一個(gè)分割結(jié)果;分割融合單元,用于將卷積神經(jīng)網(wǎng)絡(luò)調(diào)用單元和隨機(jī)森林分類器調(diào)用單元的分割結(jié)果進(jìn)行融合,得到最終的眼底圖像分割結(jié)果。本發(fā)明與現(xiàn)有技術(shù)相比,具有如下優(yōu)點(diǎn)和有益效果:1、本發(fā)明采用了42層的卷積神經(jīng)網(wǎng)絡(luò),比以前的基于深度學(xué)習(xí)的分割方法有著更多的層數(shù),能夠提取到更深層次的特征,有利于后面分類器的像素分類,提高分割的準(zhǔn)確率。2.本發(fā)明對(duì)卷積層使用批量歸一化并采用修正線性函數(shù)作為激活函數(shù),可以有效地避免訓(xùn)練時(shí)出現(xiàn)梯度消失和梯度爆炸問題,能夠加快模型收斂速度,縮短訓(xùn)練時(shí)間。3.本發(fā)明對(duì)卷積神經(jīng)網(wǎng)絡(luò)提取的特征訓(xùn)練了兩個(gè)分類器并且最后融合兩者的分割結(jié)果,有利于提高小血管的分割準(zhǔn)確率,最終提高整張圖像的分割準(zhǔn)確率。附圖說明圖1為本發(fā)明的卷積神經(jīng)網(wǎng)絡(luò)的架構(gòu)圖。圖2為本發(fā)明的卷積神經(jīng)網(wǎng)絡(luò)編碼網(wǎng)絡(luò)每層的參數(shù)圖。圖3為本發(fā)明的卷積神經(jīng)網(wǎng)絡(luò)解碼網(wǎng)絡(luò)每層的參數(shù)圖。圖4為本發(fā)明方法的整體訓(xùn)練和測(cè)試的流程圖。圖5為本發(fā)明實(shí)施在20張測(cè)試圖像上的測(cè)試結(jié)果圖。圖6(a)、圖6(b)為本發(fā)明實(shí)施在一張圖像上的增強(qiáng)后的眼底圖像和模型分割結(jié)果圖。圖7為本發(fā)明系統(tǒng)模塊的結(jié)構(gòu)圖。具體實(shí)施方式下面結(jié)合實(shí)施例及附圖對(duì)本發(fā)明作進(jìn)一步詳細(xì)的描述,但本發(fā)明的實(shí)施方式不限于此。實(shí)施例:本發(fā)明的基于深度學(xué)習(xí)的眼底圖像視網(wǎng)膜血管分割方法如圖4所示,包括以下步驟:步驟1:對(duì)數(shù)據(jù)集中的眼底圖像進(jìn)行預(yù)處理;步驟2:用訓(xùn)練樣本訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò);步驟3:從訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)中提取最后一層卷積輸出特征訓(xùn)練隨機(jī)森林分類器;步驟4:將卷積神經(jīng)網(wǎng)絡(luò)對(duì)像素的分類結(jié)果與隨機(jī)森林分類器的結(jié)果進(jìn)行融合;步驟5:利用訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)測(cè)試樣本進(jìn)行分割,得到最終分割結(jié)果。具體地,步驟1中對(duì)數(shù)據(jù)集中的眼底圖像進(jìn)行預(yù)處理,將數(shù)據(jù)集中的眼底圖像分成訓(xùn)練樣本和測(cè)試樣本。眼底圖像原圖中血管與非血管顏色較為接近,血管不夠突出,因此需要對(duì)其進(jìn)行預(yù)處理。對(duì)于深度學(xué)習(xí)來說,訓(xùn)練集的數(shù)量很重要,一般來說,訓(xùn)練樣本越多,訓(xùn)練出來的模型泛化能力也就越強(qiáng),因此本發(fā)明首先對(duì)眼底圖像訓(xùn)練集進(jìn)行數(shù)據(jù)集擴(kuò)增,方法為對(duì)眼底圖像和對(duì)應(yīng)的圖像標(biāo)簽分別進(jìn)行左右對(duì)稱和180度旋轉(zhuǎn),這樣一張眼底圖像可以變成4張,然后對(duì)訓(xùn)練集和測(cè)試集的眼底圖像進(jìn)行增強(qiáng),首先將圖像轉(zhuǎn)化為RGB類型的圖像,然后單獨(dú)抽取G通道的圖像進(jìn)行中值濾波和直方圖均衡化,中值濾波的方法為對(duì)于每個(gè)像素,選取一個(gè)模板,該模板為其鄰近的3*3個(gè)像素組成,對(duì)模板的像素進(jìn)行從大到小的排序,然后用模板的中值來替換原像素的值,在對(duì)G通道的圖像進(jìn)行中值濾波后,再對(duì)G通道圖像進(jìn)行直方圖均衡化,流程如下:a):求出G通道圖像的直方圖;b):根據(jù)直方圖求出灰度值變化表;c):根據(jù)b)中得到的灰度值變化表對(duì)每個(gè)像素的灰度值進(jìn)行查表變換操作,即對(duì)每個(gè)灰度值進(jìn)行均衡化。在完成對(duì)G通道圖像的直方圖均衡化后,用G通道圖像的灰度值替換到R通道和B通道的灰度值;在完成圖像增強(qiáng)操作后,對(duì)眼底圖像RGB三個(gè)通道的像素值分別進(jìn)行Z-score歸一化:其中,xi表示歸一化前的第i個(gè)像素點(diǎn)的值,表示歸一化后的第i個(gè)像素點(diǎn)的值,μ表示該通道像素的均值,σ表示該通道像素的標(biāo)準(zhǔn)差,整個(gè)流程是先減去均值μ再除以標(biāo)準(zhǔn)差σ,最終歸一化到均值為0和方差為1,歸一化是為了防止圖像亮度對(duì)模型造成影響。具體地,步驟2中,用訓(xùn)練樣本訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)如圖1所示,編碼網(wǎng)絡(luò)卷積層和max-pooling層的配置如圖2所示,解碼網(wǎng)絡(luò)卷積層和上采樣層如圖3所示,用步驟1預(yù)處理后的訓(xùn)練集對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,編碼網(wǎng)絡(luò)通過對(duì)眼底圖像進(jìn)行多次卷積和max-pooling之后,得到了包含圖像特征的featuremap,解碼網(wǎng)絡(luò)通過對(duì)featuremap進(jìn)行卷積和上采樣,在編碼網(wǎng)絡(luò)中,每一層的max-pooling都會(huì)記錄下每個(gè)2×2pooling塊的最大值的位置,編碼網(wǎng)絡(luò)中每個(gè)max-pooling層都會(huì)有一個(gè)解碼網(wǎng)絡(luò)中的上采樣層與之對(duì)應(yīng),上采樣的操作將featuremap中的值放入對(duì)應(yīng)的max-pooling層中記錄的最大值的位置,然后將其它的位置的值設(shè)為0,每次上采樣后featuremap的大小都會(huì)增大2倍,編碼網(wǎng)絡(luò)包括16個(gè)卷積層和5個(gè)上采樣層,每個(gè)卷積層對(duì)與編碼網(wǎng)絡(luò)中的卷積層相對(duì)應(yīng),編碼網(wǎng)絡(luò)和解碼網(wǎng)絡(luò)中的所有卷積層卷積后的結(jié)果先進(jìn)行批量歸一化(Batchnormalization),然后再用修正線性函數(shù)(ReLU)作為激活函數(shù)進(jìn)行輸出,批量歸一化在卷積神經(jīng)網(wǎng)絡(luò)每次隨機(jī)梯度下降時(shí),首選對(duì)卷積的輸出進(jìn)行規(guī)范化操作,使得結(jié)果的均值為0,方差為1,然后再對(duì)參數(shù)進(jìn)行訓(xùn)練,流程如下:a):輸入為卷積輸出的m個(gè)數(shù)據(jù):B={x1…m},要學(xué)習(xí)的參數(shù)γ、β,輸出為其中xi表示卷積輸出的數(shù)據(jù),表示歸一化后的數(shù)據(jù),yi表示批量歸一化最終的輸出;b):先計(jì)算均值μB和方差δ2B,再對(duì)參數(shù)進(jìn)行訓(xùn)練:其中,∈是為防止分母為0而設(shè)置的一個(gè)趨于極限小的值;c):參數(shù)γ、β在整個(gè)網(wǎng)絡(luò)反向傳播的過程中與卷積神經(jīng)網(wǎng)絡(luò)參數(shù)同時(shí)進(jìn)行訓(xùn)練;修正線性函數(shù)的公式為:其中,x表示函數(shù)的輸入,f(x)表示函數(shù)的輸出;編碼網(wǎng)絡(luò)通過對(duì)featuremap進(jìn)行多次卷積和上采樣層后,獲得和輸入圖像尺寸相同的64個(gè)featuremap,即每個(gè)像素點(diǎn)有64維特征,然后用這些特征訓(xùn)練softmax分類器,將眼底圖像的每個(gè)像素點(diǎn)分為0、1兩個(gè)類別,0代表該像素點(diǎn)屬于非血管,1代表該像素屬于血管,softmax分類器在二分類的情況下與邏輯斯蒂回歸相同,公式為:其中,e為自然底數(shù),ω為x的權(quán)值向量,x表示像素的特征向量,P(y=1|x;ω)表示x等于1的概率,P(y=0|x;ω)表示x等于0的概率;對(duì)應(yīng)的決策函數(shù)為:其中,y表示輸出的類別;整個(gè)卷積神經(jīng)網(wǎng)絡(luò)包括編碼網(wǎng)絡(luò)、解碼網(wǎng)絡(luò)和softmax分類器三部分,使用隨機(jī)梯度下降法進(jìn)行訓(xùn)練,使用反向傳播算法來優(yōu)化網(wǎng)絡(luò)中的參數(shù),用J(W,b)表示帶L2范數(shù)的整體代價(jià)函數(shù),則J(W,b)可表示為:其中x(i)表示輸入的第i個(gè)訓(xùn)練樣本,hW,b(x(i))表示網(wǎng)絡(luò)的預(yù)測(cè)類別,y(i)表示樣本的真實(shí)類別,λ為權(quán)重衰減系數(shù),W表示網(wǎng)絡(luò)的參數(shù),所述反向傳播算法更新參數(shù)的方法如下:1):首先進(jìn)行前向傳播,計(jì)算所有層的激活值;2):對(duì)輸出層(第nl層),計(jì)算敏感值其中,y為樣本真實(shí)值,為輸出層的預(yù)測(cè)值,表示輸出層參數(shù)的偏導(dǎo)數(shù);3):對(duì)于l=nl-1,nl-…的各層,計(jì)算敏感值其中,W(l)表示第l層的參數(shù),δ(l+1)表示第l+1層的敏感值,f'(z(l))表示第l層的偏導(dǎo)數(shù);4):更新每層的參數(shù):W(l)=W(l)-αδ(l+1)(a(l))Tb(l)=b(l)-αδ(l+1)其中,W(l)和b(l)分別表示l層的參數(shù),α表示學(xué)習(xí)速率,a(l)表示第l層的輸出值,δ(l+1)表示l+1層的敏感值;訓(xùn)練過程采用以上方法,從而使整個(gè)卷積神經(jīng)網(wǎng)絡(luò)收斂到滿足誤差要求。具體地,步驟3的主要流程如下:在卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練完成后,將卷積神經(jīng)網(wǎng)絡(luò)最后一層卷積層輸出的每個(gè)眼底圖像對(duì)應(yīng)的64個(gè)featuremap抽取出來作為訓(xùn)練樣本,則每個(gè)像素點(diǎn)有64維特征,用這些樣本特征訓(xùn)練一個(gè)隨機(jī)森林分類器。具體地,步驟4的主要內(nèi)容如下:將卷積神經(jīng)網(wǎng)絡(luò)對(duì)像素的分類結(jié)果與隨機(jī)森林分類器的結(jié)果進(jìn)行融合,融合方式為當(dāng)兩個(gè)分類器的對(duì)像素的分類結(jié)果至少有一個(gè)為血管類別時(shí),該像素的分類結(jié)果為血管,若兩個(gè)分類器對(duì)像素的分類結(jié)果均為非血管,則該像素的分類結(jié)果為非血管類別。如圖4所示,在完成前4個(gè)步驟的模型訓(xùn)練后,就可以進(jìn)行步驟5,對(duì)需要測(cè)試的眼底圖像進(jìn)行分割了。對(duì)測(cè)試圖像進(jìn)行預(yù)處理,然后先使用卷積神經(jīng)網(wǎng)絡(luò)分割模型對(duì)圖像進(jìn)行分割得到一個(gè)分割結(jié)果1,再從卷積神經(jīng)網(wǎng)絡(luò)模型中抽取最后一層卷積層輸出,并作為隨機(jī)森林分類器的輸入進(jìn)行像素分類,得到分割結(jié)果2,然后將兩個(gè)分割結(jié)果融合,得到最終的分割結(jié)果。整個(gè)過程不僅完全自動(dòng)化,而且分割速度快。本實(shí)施例選擇使用網(wǎng)上公開的數(shù)據(jù)集進(jìn)行方法測(cè)試,測(cè)試平臺(tái)為Ubuntu14.04,CPU為i7-6700K,GPU為TitanX,顯存為12GB,實(shí)驗(yàn)選用20張眼底圖像作為訓(xùn)練集,20張圖像作為測(cè)試集,使用隨機(jī)梯度下降法進(jìn)行訓(xùn)練,經(jīng)過多次參數(shù)調(diào)節(jié)后,最終結(jié)果如圖5所示,20張圖像平均靈敏度為82.95%,平均準(zhǔn)確率為94.14%,示例分割結(jié)果如圖6(a)、圖6(b)所示,可以看到本發(fā)明所提出的方法分割的靈敏度和準(zhǔn)確率都很高,并且本發(fā)明模型訓(xùn)練完成后整個(gè)分割過程完全自動(dòng)化,分割一張圖像的時(shí)間在100毫秒以內(nèi),速度很快,具有很強(qiáng)的實(shí)用性。本發(fā)明還提出了一種基于深度學(xué)習(xí)的眼底圖像視網(wǎng)膜血管分割方法的系統(tǒng),如圖7所示,所述系統(tǒng)包括:預(yù)處理模塊、訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模塊、訓(xùn)練隨機(jī)森林模塊和圖像分割模塊。系統(tǒng)各個(gè)模塊之間的連接關(guān)系為:預(yù)處理模塊輸出的數(shù)據(jù)作為訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模塊和圖像分割模塊的輸入,訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模塊在完成卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練后,其卷積神經(jīng)網(wǎng)絡(luò)最后一層的輸出作為訓(xùn)練隨機(jī)森林模塊的輸入,訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模塊和訓(xùn)練隨機(jī)森林模塊輸出的模型作為圖像分割模塊的輸入。所述預(yù)處理模塊用于對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理,對(duì)圖像進(jìn)行數(shù)據(jù)集擴(kuò)增、中值濾波、直方圖均衡化和歸一化處理,所述預(yù)處理模塊包括訓(xùn)練數(shù)據(jù)集擴(kuò)增單元、數(shù)據(jù)集眼底圖像增強(qiáng)單元和眼底圖像歸一化單元。所述訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模塊用訓(xùn)練集的眼底圖像對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,最終獲得最優(yōu)的卷積神經(jīng)網(wǎng)絡(luò)。所述訓(xùn)練隨機(jī)森林模塊用訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模塊中訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練圖像進(jìn)行分割,將其最后一層卷積層輸出作為訓(xùn)練樣本訓(xùn)練隨機(jī)森林分類器。所述圖像分割模塊包括:預(yù)處理調(diào)用單元,用于調(diào)用預(yù)處理模塊對(duì)一個(gè)待分割的眼底圖像進(jìn)行預(yù)處理,并得到相應(yīng)的結(jié)果;卷積神經(jīng)網(wǎng)絡(luò)調(diào)用單元,用于調(diào)用訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模塊中訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)對(duì)預(yù)處理后的眼底圖像進(jìn)行分割,得到一個(gè)分割結(jié)果;隨機(jī)森林分類器調(diào)用單元,用于調(diào)用訓(xùn)練隨機(jī)森林模塊對(duì)眼底圖像的每個(gè)像素進(jìn)行分類,判斷像素屬于血管還是非血管,得到一個(gè)分割結(jié)果;分割融合單元,用于將卷積神經(jīng)網(wǎng)絡(luò)調(diào)用單元和隨機(jī)森林分類器調(diào)用單元的分割結(jié)果進(jìn)行融合,得到最終的眼底圖像分割結(jié)果。以上所述,僅為本發(fā)明專利較佳的實(shí)施例,但本發(fā)明專利的保護(hù)范圍并不局限于此,任何熟悉本
技術(shù)領(lǐng)域:
的技術(shù)人員在本發(fā)明專利所公開的范圍內(nèi),根據(jù)本發(fā)明專利的技術(shù)方案及其發(fā)明專利構(gòu)思加以等同替換或改變,都屬于本發(fā)明專利的保護(hù)范圍。當(dāng)前第1頁1 2 3