本發(fā)明屬于智能圖像處理技術(shù)領(lǐng)域,特別涉及一種圖像分類方法,可用于到目標(biāo)識(shí)別、目標(biāo)分析以及社會(huì)活動(dòng)檢測(cè)。
背景技術(shù):
隨著社會(huì)的進(jìn)步與科技的快速發(fā)展,圖像己經(jīng)成為人們獲取信息越來(lái)越重要的手段。近年來(lái)出現(xiàn)在人們生活中的圖像數(shù)量迅猛增長(zhǎng),對(duì)于數(shù)量巨大的圖像數(shù)據(jù),人們需要快速、有效地、合理的對(duì)這些海量圖像數(shù)據(jù)進(jìn)行分析和處理并對(duì)分析后的圖像進(jìn)行識(shí)別和分類,能大大的提高人們從海量圖像信息中找到自己需要的信息的效率。在這個(gè)追求效率的數(shù)字和信息化時(shí)代,想要用人工參與的方法來(lái)對(duì)海量的圖像數(shù)據(jù)進(jìn)行分類處理需要耗費(fèi)大量的人工和時(shí)間資源,而且效率低下、帶有較高的主觀性,跟不上時(shí)代發(fā)展的步伐。因此,使用計(jì)算能力強(qiáng)大的計(jì)算機(jī)并按照一定的算法來(lái)代替人工的方式對(duì)圖像進(jìn)行智能處理是勢(shì)在必行的。圖像分類是指利用人工智能技術(shù)特別是機(jī)器學(xué)習(xí)方法,使得計(jì)算機(jī)能夠?qū)D像進(jìn)行識(shí)別和分類的過(guò)程。圖像分類目前己經(jīng)成為模式識(shí)別研究領(lǐng)域一個(gè)重要的方向,涉及人臉識(shí)別、物體識(shí)別、行為檢測(cè)等等,對(duì)該方向的深入研究具有巨大的理論研究意義和廣泛的實(shí)際應(yīng)用價(jià)值。
目前,市場(chǎng)上使用的圖像分類方法主要有兩大類,一類是基于圖像空間的分類方法,另一類是基于特征空間的分類方法。
基于圖像空間的分類方法,主要是利用圖像的顏色、灰度、紋理、形狀、位置等底層特征來(lái)對(duì)圖像進(jìn)行分類。比如對(duì)于顏色特征,任何物體都有顏色特征,因此可以根據(jù)顏色特征來(lái)對(duì)物體進(jìn)行分類,最早利用顏色特征進(jìn)行圖像分類是顏色直方圖方法,該方法是利用不同顏色在整幅圖像中所占比例來(lái)區(qū)分圖像,但它無(wú)法準(zhǔn)確的描述每種顏色所在的具體位置,也無(wú)法描述圖像中的對(duì)象或物體。對(duì)于紋理特征,它是描述像素間的灰度空間分布規(guī)律,它在日常生活中是無(wú)處不在,如云朵、樹木、水波紋等都是不同的紋理,在獲取圖像的紋理后經(jīng)過(guò)計(jì)算機(jī)處理和數(shù)字化轉(zhuǎn)換后可以得到對(duì)圖像進(jìn)行分析和處理的信號(hào)。其次常用的方法還有基于紋理特征的灰度共生矩陣表示方法,該方法基于像素之間的距離和方向建立灰度共生矩陣,再由這個(gè)矩陣得到紋理特征向量。由于紋理圖像的多樣性以及分析算法的復(fù)雜性,目前沒有一種普遍適用的方法以至于紋理特征很難跨領(lǐng)域推廣。對(duì)于形狀特征,它是描述一條封閉的輪廓曲線所包圍的區(qū)域,形狀通常與圖像中的特定目標(biāo)對(duì)象有關(guān),是人們視覺系統(tǒng)對(duì)目標(biāo)對(duì)象的初步認(rèn)識(shí),目前這種基于形狀分類的方法大多圍繞從形狀的輪廓特征和形狀的區(qū)域特征建立圖像索引。這些圖像空間分類方法大都是數(shù)據(jù)量較大,計(jì)算復(fù)雜性較高,而且分類精度一般不高。
基于特征空間的分類方法,是將原圖像經(jīng)過(guò)某種變換,如K-L變換、小波變換等變換到特征空間去提取圖像的高層特征來(lái)實(shí)現(xiàn)圖像的分類。特征提取方法包括線性特征提取方法和非線性特征提取方法。線性特征提取方法是通過(guò)線性映射方法得到特征,其中線性特征提取方法主要有主成分分析法,基于Fisher準(zhǔn)則的線性鑒別分析法,和投影尋蹤等。非線性特征提取方法主要有支持向量機(jī)、核主成分分析等?;谔卣骺臻g的分類方法在一定程度上可以降低數(shù)據(jù)的維度和計(jì)算復(fù)雜性,但是問題之間的相關(guān)性很強(qiáng),不能獲得可分性特征,不易達(dá)到最優(yōu)解,難以滿足海量的圖像數(shù)據(jù)。
技術(shù)實(shí)現(xiàn)要素:
本發(fā)明的目的在于針對(duì)上述已有技術(shù)的不足,提出一種深度脊波神經(jīng)網(wǎng)絡(luò)的圖像分類方法,以獲得可分性特征,提高分類的精度和魯棒性,滿足海量圖像數(shù)據(jù)的分類需求。
為實(shí)現(xiàn)上述目的,本發(fā)明的實(shí)現(xiàn)步驟包括如下:
1)從圖像庫(kù)中隨機(jī)選擇所有圖像樣本的10%作為訓(xùn)練圖像樣本集,其中第n個(gè)訓(xùn)練圖像樣本記為P(n),n=1,...,N為訓(xùn)練圖像樣本的個(gè)數(shù),第n個(gè)訓(xùn)練圖像樣本的類標(biāo)記為L(zhǎng)(n),其余樣本作為測(cè)試圖像樣本,Q(m)為第m個(gè)測(cè)試圖像樣本,m=1,...,M,M為測(cè)試圖像樣本的個(gè)數(shù);
2)對(duì)每一個(gè)訓(xùn)練圖像樣本P(n),按照行優(yōu)先的規(guī)則,重新排列為一個(gè)列向量S1(n):
其中,表示列向量S1(n)中第i個(gè)元素值,i∈I,I為輸入樣本元素的個(gè)數(shù);
3)建立四層深度脊波神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),其中第一層樣本輸入層為l1,有I1個(gè)神經(jīng)元,第二層特征學(xué)習(xí)層為l2,有I2個(gè)神經(jīng)元,第三層特征學(xué)習(xí)層為l3,有I3個(gè)神經(jīng)元,第四層分類層為l4;將S1(n)作為深度脊波神經(jīng)網(wǎng)絡(luò)第一層的輸入,令I(lǐng)=I1;
4)建立三層脊波自編碼器,用來(lái)得到四層深度脊波神經(jīng)網(wǎng)絡(luò)的初始化權(quán)值。該三層脊波自編碼器包括自編碼輸入層I1個(gè)神經(jīng)元,自編碼隱層I2個(gè)神經(jīng)元和自編碼輸出層I1個(gè)神經(jīng)元;
5)將步驟2)中的列向量S1(n)作為脊波自編碼器的輸入,得到脊波自編碼器的實(shí)際輸出Z1(n):
其中,表示第k個(gè)神經(jīng)元的實(shí)際輸出:
式中ψj(·)表示自編碼隱層第j個(gè)神經(jīng)元的脊波函數(shù),wj,i是連接自編碼輸入層第i個(gè)神經(jīng)元和自編碼隱層第j個(gè)神經(jīng)元的權(quán)重值,λj是自編碼隱層第j個(gè)神經(jīng)元的位移參數(shù),uj是自編碼隱層第j個(gè)神經(jīng)元的尺度參數(shù),wk,j是連接自編碼隱層第j個(gè)神經(jīng)元和自編碼輸出層第k個(gè)神經(jīng)元的權(quán)重值,bk是自編碼輸出層第k個(gè)神經(jīng)元的閾值,i,k∈I1,j∈I2;
6)將步驟2)中的列向量S1(n)作為脊波自編碼器的理想輸出,建立自編碼器損失函數(shù)ξ1(n),最小化ξ1(n)并利用梯度下降法,對(duì)步驟5)中的參數(shù)wj,i、λj、uj、wk,j和bk進(jìn)行反向調(diào)節(jié)更新;
7)重復(fù)步驟5)和步驟6),直至達(dá)到設(shè)定的迭代次數(shù),得到更新后的參數(shù)值wj,i、λj、uj、wk,j和bk;
8)根據(jù)步驟7)更新后得到的所述參數(shù)wj,i、λj和uj,計(jì)算深度脊波神經(jīng)網(wǎng)絡(luò)第二層第j個(gè)神經(jīng)元的值:得到第二層學(xué)習(xí)到的特征為:
9)用深度脊波神經(jīng)網(wǎng)絡(luò)第二層的特征S2(n)代替步驟2)中的自編碼輸入層S1(n),令自編碼輸入層包含I2個(gè)神經(jīng)元,自編碼隱層包含I3個(gè)神經(jīng)元,自編碼輸出層包含I2個(gè)神經(jīng)元,重復(fù)步驟5)-8),得到深度脊波神經(jīng)網(wǎng)絡(luò)第三層學(xué)到的特征:
10)將第三層學(xué)到的的特征S3(n)作為第四層分類層的輸入,得到脊波神經(jīng)網(wǎng)絡(luò)分類層l4的類標(biāo)輸出:其中Num為該樣本的的類別數(shù),并根據(jù)樣本的理想輸出類標(biāo)L(n)和得到的輸出類標(biāo)S4(n)的誤差,建立分類器損失函數(shù)ξ2(n),最小化該分類器損失函數(shù)ξ2(n)并按照梯度下降法,對(duì)分類層選擇的softmax分類器進(jìn)行訓(xùn)練,得到分類器的參數(shù)θ;
11)將步驟4)-10)得到的深度脊波神經(jīng)網(wǎng)絡(luò)的每一層的參數(shù)值,作為深度脊波神經(jīng)網(wǎng)絡(luò)中參數(shù)的初始值,將S1(n)作為深度脊波神經(jīng)網(wǎng)絡(luò)的輸入,按照下式對(duì)網(wǎng)絡(luò)進(jìn)行前向計(jì)算,得到深度脊波神經(jīng)網(wǎng)絡(luò)中第二層和第三層第j個(gè)神經(jīng)元的輸出:
其中,當(dāng)l=1時(shí)表示特征學(xué)習(xí)層l2的第j個(gè)神經(jīng)元的輸出,當(dāng)l=2時(shí)表示特征學(xué)習(xí)層l3的第j個(gè)神經(jīng)元的輸出,式中表示第l層第i個(gè)神經(jīng)元的值,表示第l+1層第j個(gè)神經(jīng)元的值,表示l+1層第j個(gè)神經(jīng)元的脊波函數(shù)值,表示連接第l層第i個(gè)神經(jīng)元和第l+1層第j個(gè)神經(jīng)元的權(quán)重值,表示第l+1層第j個(gè)神經(jīng)元的位移參數(shù),表示第l+1層第j個(gè)神經(jīng)元的尺度參數(shù);
12)將深度脊波神經(jīng)網(wǎng)絡(luò)第三層的學(xué)到的特征S3(n)作為softmax分類器的輸入,計(jì)算得到樣本的輸出類標(biāo)S4(n),按照梯度下降法,根據(jù)輸出類標(biāo)S4(n)和真實(shí)類標(biāo)L(n)的差異,建立分類器損失函數(shù)ξ2(n),對(duì)深度脊波神經(jīng)網(wǎng)絡(luò)中誤差進(jìn)行反向傳播,對(duì)參數(shù)進(jìn)行更新;
13)重復(fù)步驟11)-12),直到達(dá)到設(shè)定迭代次數(shù),得到訓(xùn)練好的網(wǎng)絡(luò)的所有參數(shù)值,完成深度脊波神經(jīng)網(wǎng)絡(luò)的訓(xùn)練;
14)將每一個(gè)測(cè)試樣本Q(m),按照行優(yōu)先的規(guī)則重新排列為一個(gè)列向量根據(jù)網(wǎng)絡(luò)訓(xùn)練好的參數(shù)值,按照整個(gè)網(wǎng)絡(luò)前向傳播的計(jì)算過(guò)程,得到測(cè)試樣本的類標(biāo),完成分類。
本發(fā)明與現(xiàn)有技術(shù)相比,具有如下優(yōu)點(diǎn):
(a)本發(fā)明使用脊波函數(shù)作為深度神經(jīng)網(wǎng)絡(luò)的激活函數(shù),克服了傳統(tǒng)激活函數(shù)缺乏尺度信息的問題,提高了深度神經(jīng)網(wǎng)絡(luò)的稀疏逼近能力,有效提高圖像的分類精度。
(b)本發(fā)明采用分層學(xué)習(xí)的方法,設(shè)計(jì)脊波自編碼器,為深度脊波神經(jīng)網(wǎng)絡(luò)提供了較好的初始值,有效的提高了深度脊波神經(jīng)網(wǎng)絡(luò)的逼近速率。
附圖說(shuō)明
圖1是本發(fā)明的實(shí)現(xiàn)流程圖;
圖2是本發(fā)明中4層深度脊波神經(jīng)網(wǎng)絡(luò)示意圖;
圖3是本發(fā)明中脊波自編碼器示意圖;
圖4是本發(fā)明中所采用的部分實(shí)驗(yàn)數(shù)據(jù)圖;
圖5是用本發(fā)明對(duì)深度脊波神經(jīng)網(wǎng)絡(luò)進(jìn)行逼近的性能分析圖。
具體實(shí)施方式
以下參照附圖,對(duì)本發(fā)明的技術(shù)方案和效果做進(jìn)一步詳細(xì)描述。
參照?qǐng)D1,本發(fā)明的實(shí)現(xiàn)步驟如下:
步驟1,獲取訓(xùn)練樣本和測(cè)試樣本。
從圖像庫(kù)中隨機(jī)選擇所有圖像樣本的10%作為訓(xùn)練圖像樣本集,其中第n個(gè)訓(xùn)練圖像樣本記為P(n),n=1,...,N為訓(xùn)練圖像樣本的個(gè)數(shù),第n個(gè)訓(xùn)練圖像樣本的類標(biāo)記為L(zhǎng)(n),其余樣本作為測(cè)試圖像樣本,Q(m)為第m個(gè)測(cè)試圖像樣本,m=1,...,M,M為測(cè)試圖像樣本的個(gè)數(shù)。
步驟2,對(duì)訓(xùn)練樣本重新組合。
對(duì)每一個(gè)訓(xùn)練圖像樣本P(n),按照行優(yōu)先的規(guī)則,重新排列為一個(gè)列向量S1(n):
其中,表示列向量S1(n)中第i個(gè)元素值,i∈I,I為輸入訓(xùn)練樣本元素的個(gè)數(shù)。
步驟3,建立深度脊波神經(jīng)網(wǎng)絡(luò)。
由于脊波具有靈活的方向信息和較強(qiáng)逼近性,因此需要建立四層深度脊波神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),使本發(fā)明能夠得到較高的分類精度和較快的分類速度,這四層深度脊波神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)如圖2所示,其中第一層樣本輸入層為l1,包含I1個(gè)神經(jīng)元,第二層特征學(xué)習(xí)層為l2,包含I2個(gè)神經(jīng)元,第三層特征學(xué)習(xí)層為l3,包含I3個(gè)神經(jīng)元,第四層分類層為l4;將S1(n)作為深度脊波神經(jīng)網(wǎng)絡(luò)第一層的輸入,令I(lǐng)=I1。
步驟4,深度脊波神經(jīng)網(wǎng)絡(luò)中的參數(shù)值進(jìn)行訓(xùn)練和特征學(xué)習(xí)。
(4a)建立三層脊波自編碼器:
由于直接對(duì)深層的脊波神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練會(huì)存在梯度彌散的問題,所以本發(fā)明建立了一個(gè)三層脊波自編碼器模型,如圖3所示;該三層脊波自編碼器包括自編碼輸入層I1個(gè)神經(jīng)元,自編碼隱層I2個(gè)神經(jīng)元和自編碼輸出層I1個(gè)神經(jīng)元;
(4b)用三層脊波自編碼器對(duì)深度脊波神經(jīng)網(wǎng)絡(luò)中的參數(shù)值進(jìn)行預(yù)訓(xùn)練,該訓(xùn)練過(guò)程包括前向傳播和反向調(diào)節(jié)兩部分:
(4b1)前向傳播:
將步驟2中的列向量S1(n)作為脊波自編碼器的輸入,根據(jù)下式得到脊波自編碼器的實(shí)際輸出:
其中ψj(·)表示隱層第j個(gè)神經(jīng)元的脊波函數(shù),wj,i是連接輸入層第i個(gè)神經(jīng)元和隱層第j個(gè)神經(jīng)元的權(quán)重值,λj是隱層第j個(gè)神經(jīng)元的位移參數(shù),uj是隱層第j個(gè)神經(jīng)元的尺度參數(shù),wk,j是連接隱層第j個(gè)神經(jīng)元和輸出層第k個(gè)神經(jīng)元的權(quán)重值,bk是輸出層第k個(gè)神經(jīng)元的閾值,i,k∈I1,j∈I2;
(4b2)反向調(diào)節(jié):
根據(jù)脊波自編碼器的實(shí)際輸出和理想輸出的誤差,建立自編碼器損失函數(shù):
其中ξ(n)是誤差函數(shù),λ為權(quán)值約束項(xiàng)參數(shù),γ為稀疏約束項(xiàng)參數(shù),
對(duì)自編碼器損失函數(shù)ξ1(n)進(jìn)行最小化,并按照梯度下降法,對(duì)步驟(4b1)中的所述參數(shù)wj,i、λj、uj、wk,j和bk進(jìn)行反向調(diào)節(jié)更新;
(4b3)重復(fù)步驟(4b1)和步驟(4b2),直到設(shè)定的迭代次數(shù),停止迭代,得到更新后的參數(shù)值wj,i、λj、uj、wk,j和bk。
(4c)將更新后的參數(shù)值wj,i、λj、uj、wk,j、bk作為深度脊波神經(jīng)網(wǎng)絡(luò)的初始值,并進(jìn)行前向計(jì)算,進(jìn)而學(xué)習(xí)得到深度脊波神經(jīng)網(wǎng)絡(luò)每一層的特征:
(4c1)脊波自編碼器根據(jù)步驟(4b3)得到的參數(shù)值wj,i、λj、uj,計(jì)算深度脊波神經(jīng)網(wǎng)絡(luò)第二層第j個(gè)神經(jīng)元的值:得到第二層學(xué)習(xí)到的特征為:
(4c2)脊波自編碼器將深度脊波神經(jīng)網(wǎng)絡(luò)第二層的特征S2(n)作為步驟(4b1)中脊波自編碼器的輸入S1(n),設(shè)自編碼輸入層包含I2個(gè)神經(jīng)元,自編碼隱層包含I3個(gè)神經(jīng)元,自編碼輸出層包含I2個(gè)神經(jīng)元,重復(fù)步驟(4a)-(4c1),得到深度脊波神經(jīng)網(wǎng)絡(luò)第三層的特征為:
(4c3)將第三層的特征S3(n)作為第四層分類層的輸入,分類層選擇softmax分類器,得到深度脊波神經(jīng)網(wǎng)絡(luò)的第四層的輸出類標(biāo)S4(n),表示如下:
式中表示第n個(gè)樣本屬于第z類的可能性,其中Num是該樣本的類別數(shù);
(4c4)根據(jù)樣本的理想輸出類標(biāo)L(n)和實(shí)際輸出類標(biāo)S4(n)之間的誤差,按照下式建立分類器損失函數(shù):
(4c5)對(duì)分類器損失函數(shù)ξ2(n)進(jìn)行最小化,并按照梯度下降法,對(duì)softmax分類器進(jìn)行訓(xùn)練,得到分類器的參數(shù)值θ。
(4d)對(duì)深度脊波神經(jīng)網(wǎng)絡(luò)進(jìn)行整體訓(xùn)練,該訓(xùn)練過(guò)程包括前向傳播和反向調(diào)節(jié)兩部分:
(4d1)深度脊波神經(jīng)網(wǎng)絡(luò)整體訓(xùn)練的前向傳播:
將步驟(4a)-(4c4)得到的深度脊波神經(jīng)網(wǎng)絡(luò)的每一層的參數(shù)值,作為深度脊波神經(jīng)網(wǎng)絡(luò)中參數(shù)的初始值,將S1(n)作為深度脊波神經(jīng)網(wǎng)絡(luò)的輸入,按照下式對(duì)網(wǎng)絡(luò)進(jìn)行前向計(jì)算,得到深度脊波神經(jīng)網(wǎng)絡(luò)中第二層和第三層第j個(gè)神經(jīng)元的輸出:
其中當(dāng)l=1時(shí)表示特征學(xué)習(xí)層l2的第j個(gè)神經(jīng)元的輸出,當(dāng)l=2時(shí)表示特征學(xué)習(xí)層l3的第j個(gè)神經(jīng)元的輸出,式中表示第l層第i個(gè)神經(jīng)元的值,表示第l+1層第j個(gè)神經(jīng)元的值,表示l+1層第j個(gè)神經(jīng)元的脊波函數(shù)值,表示連接第l層第i個(gè)神經(jīng)元和第l+1層第j個(gè)神經(jīng)元的權(quán)重值,表示第l+1層第幾個(gè)神經(jīng)元的位移參數(shù),表示第l+1層第j個(gè)神經(jīng)元的尺度參數(shù),第2層第n個(gè)樣本的特征為第三層第n個(gè)樣本的特征為
(4d2)將深度脊波神經(jīng)網(wǎng)絡(luò)第三層的特征作為第四層的輸入,按照下式,得到深度脊波神經(jīng)網(wǎng)絡(luò)的輸出S4(n),表示如下:
式中表示第n個(gè)樣本屬于第z類的可能性,其中Num是該樣本的類別數(shù),S4(n)中最大元素所在的位置即為第n個(gè)樣本的類標(biāo)值;
(4d3)深度脊波神經(jīng)網(wǎng)絡(luò)整體訓(xùn)練的反向調(diào)節(jié):
根據(jù)深度脊波神經(jīng)網(wǎng)絡(luò)的輸出S4(n)和真實(shí)類標(biāo)L(n)的差異,建立分類器損失函數(shù)ξ2(n),表示如下:
(4d4)最小化分類器損失函數(shù)ξ2(n),并按照梯度下降法,對(duì)深度脊波神經(jīng)網(wǎng)絡(luò)中的參數(shù)進(jìn)行反向調(diào)節(jié)更新;
(4d5)重復(fù)步驟(4d1)-(4d4),直到達(dá)到設(shè)定迭代次數(shù),得到訓(xùn)練好的網(wǎng)絡(luò)的所有參數(shù)值,完成深度脊波神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。
步驟5,分類。
(5a)將每一個(gè)測(cè)試樣本T(m),按照行優(yōu)先的規(guī)則,重新排列為一個(gè)列向量:
(5b)根據(jù)網(wǎng)絡(luò)訓(xùn)練好的參數(shù)值,按照整個(gè)網(wǎng)絡(luò)前向傳播的計(jì)算過(guò)程,得到測(cè)試樣本的類標(biāo),完成分類。
本發(fā)明的效果可以用下列的仿真實(shí)驗(yàn)進(jìn)一步說(shuō)明:
(1)仿真條件
本發(fā)明的仿真的硬件條件為:windows XP,SPI,CPU Pentium(R)4,基本頻率2.4GHZ,軟件平臺(tái)為:MatlabR2012a,仿真選用的圖片來(lái)源是MNIST手寫體圖像庫(kù)和CIFAR10圖像庫(kù),如圖4,其中圖4(a)為MNIST手寫體圖像庫(kù),包含60000個(gè)訓(xùn)練樣本,10000個(gè)測(cè)試樣本,圖4(b)為CIFAR10圖像庫(kù),包含有50000個(gè)訓(xùn)練樣本,10000個(gè)測(cè)試樣本。
仿真?zhèn)鬟f函數(shù)分別使用本發(fā)明ridgelet函數(shù)和Sigmoid函數(shù)、Tanh函數(shù)、Rectifier函數(shù)。
仿真融合方法分別用本發(fā)明方法和GS的融合方法、Brovery融合方法、P+XS融合方法、DWT融合方法。
(2)仿真內(nèi)容及結(jié)果
仿真1,用本發(fā)明和現(xiàn)有的三種方法對(duì)圖4(a)MNIST手寫體圖像庫(kù)進(jìn)行圖像分類仿真,結(jié)果如表1。
表1
從表1可以看出,本發(fā)明得到的圖像分類精度更高。
仿真2,用本發(fā)明和現(xiàn)有的三種方法對(duì)圖4(b)CIFAR10圖像庫(kù)進(jìn)行圖像分類仿真,得到的分類結(jié)果如表2所示。
表2
從表2可以看出,本發(fā)明得到的圖像分類精度更高。
利用表1和表2的仿真結(jié)果,對(duì)脊波自編碼器的逼近性能進(jìn)行分析,結(jié)果如圖5,其中圖5(a)是針對(duì)圖4(a)MNIST手寫體圖像庫(kù)的逼近性能分析圖,圖5(b)是針對(duì)圖4(b)CIFAR10圖像庫(kù)的逼近性能分析圖,圖5(a)和圖5(b)中均對(duì)比了四種方法在深度脊波神經(jīng)網(wǎng)絡(luò)不同訓(xùn)練次數(shù)下得到的測(cè)試樣本的精度變化情況,從圖5中可以看出,深度脊波神經(jīng)網(wǎng)絡(luò)具有更快的逼近速率,在較少的迭代次數(shù)下,就能夠達(dá)到較好的分類精度。
以上實(shí)驗(yàn)結(jié)果表明:本發(fā)明相比現(xiàn)有技術(shù)有效的提高了深度脊波神經(jīng)網(wǎng)絡(luò)的逼近速率和圖像的分類精度。