欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于K?means與深度學(xué)習(xí)的圖像分類算法的制作方法

文檔序號(hào):12671363閱讀:322來(lái)源:國(guó)知局
一種基于K?means與深度學(xué)習(xí)的圖像分類算法的制作方法與工藝

本發(fā)明屬于信息技術(shù)領(lǐng)域,具體的來(lái)說(shuō),是指一種基于K-means與深度學(xué)習(xí)的圖像分類算法,適用于互聯(lián)網(wǎng)中海量高維數(shù)據(jù)圖像的分類,還用于網(wǎng)絡(luò)圖像檢索、視頻檢索、遙感圖像分類、交互式游戲、智能機(jī)器人等領(lǐng)域的圖像數(shù)據(jù)分類。



背景技術(shù):

在海量圖像數(shù)據(jù)處理技術(shù)領(lǐng)域,深度學(xué)習(xí)是一種較為常見(jiàn)的算法。深度學(xué)習(xí)作為一種算法于2006年被Hinton提出,并得到了廣泛的認(rèn)可與應(yīng)用,其本質(zhì)是通過(guò)建立具有多個(gè)隱層的人工神經(jīng)網(wǎng)絡(luò)模型和大規(guī)模的訓(xùn)練數(shù)據(jù),來(lái)學(xué)習(xí)有用且抽象的特征,最終的結(jié)果是提升圖像分類的準(zhǔn)確性。因此,深度學(xué)習(xí)能很好地解決海量圖像數(shù)據(jù)處理問(wèn)題。Hinton提出DBN網(wǎng)絡(luò),并證實(shí)了(1)深層網(wǎng)絡(luò)結(jié)構(gòu)較淺層網(wǎng)絡(luò)結(jié)構(gòu)具有更好的特征學(xué)習(xí)能力;(2)通過(guò)逐層訓(xùn)練的方式使得深層網(wǎng)絡(luò)結(jié)構(gòu)能得到很好地訓(xùn)練。此后,有較多的深度學(xué)習(xí)模型相繼被提出,這些模型也印證了Hinton的觀點(diǎn)。

傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法主要是采用反向傳播算法(BP)的方式,采用隨機(jī)初始化的方法,通過(guò)迭代的方式計(jì)算當(dāng)前網(wǎng)絡(luò)的輸出,然后根據(jù)當(dāng)前預(yù)測(cè)標(biāo)簽和實(shí)際標(biāo)簽之間的差去不斷調(diào)整前面各層之間的參數(shù),直到整個(gè)模型收斂。傳統(tǒng)的BP算法作為一種有監(jiān)督學(xué)習(xí)算法,存在著梯度彌散問(wèn)題、訓(xùn)練樣本不足以及局部最優(yōu)等問(wèn)題,與此同時(shí),由于互聯(lián)網(wǎng)中海量無(wú)標(biāo)簽圖像呈爆發(fā)式增長(zhǎng),傳統(tǒng)的BP算法已不能滿足日前海量無(wú)標(biāo)簽圖像分類的需求。



技術(shù)實(shí)現(xiàn)要素:

本發(fā)明的目的是針對(duì)傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法存在著梯度彌散問(wèn)題、訓(xùn)練樣本不足以及局部最優(yōu)的問(wèn)題,提出一種基于K-means與深度學(xué)習(xí)的圖像分類算法。

為實(shí)現(xiàn)上述目的,本發(fā)明所設(shè)計(jì)的一種基于K-means與深度學(xué)習(xí)的圖像分類算法,包括如下步驟:

1)將無(wú)標(biāo)簽圖像作為輸入圖像,并隨機(jī)抽取圖像塊構(gòu)成大小相同的無(wú)標(biāo)簽圖像集;

2)采用K-means算法提取一次最佳聚類中心;

3)構(gòu)建特征映射函數(shù),提取無(wú)標(biāo)簽圖像集的圖像特征;

4)進(jìn)行池化操作與歸一化處理;

5)采用K-means算法提取二次最佳聚類中心,并采用卷積操作,提取最終圖像特征,對(duì)最終圖像特征進(jìn)行標(biāo)準(zhǔn)化處理;

6)通過(guò)分揀器對(duì)經(jīng)過(guò)標(biāo)準(zhǔn)化處理的最終圖像特征進(jìn)行分類。

優(yōu)選地,所述步驟2)的具體步驟包括:

21)設(shè)定k個(gè)初始的聚類中心{μ123…μk},k為自然數(shù),建立初始化的準(zhǔn)則函數(shù)

其中,μj為每一個(gè)樣本x(i)對(duì)應(yīng)的聚類中心,j=1~k,i為自然數(shù),且i>j;x(i)表示n個(gè)無(wú)標(biāo)簽圖像集中的樣本,n為自然數(shù),表示無(wú)標(biāo)簽圖像集中樣本的個(gè)數(shù)。

22)依次求取每一個(gè)樣本x(i)到所有初始的聚類中心{μ123…μk}的距離的最小值,記為該樣本的類別標(biāo)簽c(i),將該樣本x(i)歸為c(i)類,再根據(jù)所述類別標(biāo)簽c(i)更新計(jì)算聚類中心,得到過(guò)程聚類中心μj′,j=1~k;

c(i)=argmin||x(i)j′||

23)將所有所述過(guò)程聚類中心μj′帶入準(zhǔn)則函數(shù)計(jì)算,判斷準(zhǔn)則函數(shù)是否收斂,否則返回步驟22),是則將至步驟24);

24)將過(guò)程聚類中心μj′確定為一次最佳聚類中心{μ′1,μ′2,μ′3…μ′k},將每一個(gè)樣本x(i)歸類至距離最近的聚類中心,記為xj(i),每一個(gè)樣本x(i)到距離最近的聚類中心的類別標(biāo)簽記為cj(i)。

優(yōu)選地,所述步驟3)的具體步驟為:定義樣本x(i)的特征映射函數(shù),提取特征向量y(i),其中h(z)表示每一類中所有樣本到聚類中心的距離的平均值,Zj(i)表示每一類中的每一個(gè)樣本x(i)到對(duì)應(yīng)的聚類中心的距離;

y(i)=fk(x)=max{0,h(z)-Zj(i)}

Zj(i)=||x(i)j||2

優(yōu)選地,所述步驟4)中歸一化處理的公式為:

y(i)是樣本圖像塊的特征向量,var和mean表示方差和均值,σ是去噪常量,是歸一化處理后的圖像塊的特征向量。

優(yōu)選地,所述步驟5)的具體過(guò)程包括:

51)設(shè)定p個(gè)初始的聚類中心{μ123…μp},p為自然數(shù),重復(fù)步驟2),得到二次最佳聚類中心{μ1′,μ2′,μ3′…μ′p};

52)采用卷積操作,提取最終圖像特征卷積公式為:

其中為最終圖像特征,μl為二次最佳聚類中心,l=1~p;

53)對(duì)最終圖像特征進(jìn)行歸一化處理,歸一化處理的公式同步驟4)。

優(yōu)選地,所述步驟1)與步驟2)之間還包括對(duì)無(wú)標(biāo)簽圖像集進(jìn)行歸一化和白化處理的預(yù)處理步驟。

優(yōu)選地,所述白化處理的具體過(guò)程包括:

A)計(jì)算協(xié)方差矩陣∑

其中,表示歸一化處理后的表示無(wú)標(biāo)簽圖像集中的樣本,n為表示無(wú)標(biāo)簽圖像集中樣本的個(gè)數(shù);

B)令協(xié)方差矩陣∑的特征向量U為U=[u1,u2…un],UTU=I,特征向量u1,u2…un構(gòu)成一個(gè)基向量,用來(lái)映射數(shù)據(jù),表示旋轉(zhuǎn)后的圖像,輸入歸一化處理后的無(wú)標(biāo)簽圖像集中的樣本以特征向量U為基向量表示為

C)設(shè)協(xié)方差矩陣∑的特征值為λ2,…,λn,則PCA白化后的圖像為

其中ε表示為平滑圖像塊的常量。

本發(fā)明的優(yōu)點(diǎn)包括:

(1)采用無(wú)監(jiān)督學(xué)習(xí)算法K-means作為深層網(wǎng)絡(luò)結(jié)構(gòu)的訓(xùn)練方法,避免了對(duì)各種參數(shù)的訓(xùn)練,只需訓(xùn)練字典(即聚類中心),使得訓(xùn)練過(guò)程簡(jiǎn)單,時(shí)間效率高,具有簡(jiǎn)單、高效、訓(xùn)練參數(shù)少等優(yōu)點(diǎn),對(duì)于海量高維圖像的分類具有很好的效果。

(2)對(duì)輸入圖像進(jìn)行預(yù)處理,達(dá)到改善圖像分類效果,提高分類精度的效果。

(3)采取歸一化操作,增強(qiáng)圖像對(duì)比度以減少光線的影響。

(4)由于圖像數(shù)據(jù)間存在一定的相關(guān)性,本發(fā)明采取PCA白化處理消除圖像間的冗余性。

(5)采取均值池化處理降低特征向量的維數(shù)和整合圖像特征,待池化圖像特征后,為了平衡特征的各個(gè)分量的影響,對(duì)已池化的圖像特征進(jìn)行歸一化處理,以改善后續(xù)Softmax分類器對(duì)圖像特征的分類效果。

附圖說(shuō)明

圖1為本發(fā)明一種基于K-means與深度學(xué)習(xí)的圖像分類算法的流程圖;

圖2為K-means算法流程圖;

圖3為卷積提取特征示意圖;

圖4a為三種模型對(duì)MNIST數(shù)據(jù)集分類的分類準(zhǔn)確率與迭代次數(shù)的關(guān)系圖;

圖4b為三種模型對(duì)Cifar-10數(shù)據(jù)集分類的分類準(zhǔn)確率與迭代次數(shù)的關(guān)系圖;

圖4c為三種模型對(duì)The four-vehicle數(shù)據(jù)集分類的分類準(zhǔn)確率與迭代次數(shù)的關(guān)系圖。

具體實(shí)施方式

以下結(jié)合附圖和具體實(shí)施例對(duì)本發(fā)明作進(jìn)一步的詳細(xì)描述。

如圖1和圖2所示,本發(fā)明一種基于K-means與深度學(xué)習(xí)的圖像分類算法,包括如下步驟:

1)將無(wú)標(biāo)簽圖像作為輸入圖像,并隨機(jī)抽取圖像塊構(gòu)成大小相同的無(wú)標(biāo)簽圖像集。本實(shí)施例中設(shè)置無(wú)標(biāo)簽圖像集的樣本數(shù)量為100,000個(gè),對(duì)應(yīng)的樣本的大小為12*12*3的圖像塊。

對(duì)無(wú)標(biāo)簽圖像集進(jìn)行預(yù)處理,包括歸一化處理和白化處理。

歸一化處理的過(guò)程為:

其中,x為輸入的無(wú)標(biāo)簽圖像集的樣本,表示歸一化處理后的表示無(wú)標(biāo)簽圖像集中的樣本,var和mean分別表示方差和均值,σ為去噪常量,避免分母為0和對(duì)圖像去噪。

白化處理的過(guò)程為:

A)計(jì)算協(xié)方差矩陣∑

其中,表示歸一化處理后的表示無(wú)標(biāo)簽圖像集中的樣本,n為表示無(wú)標(biāo)簽圖像集中樣本的個(gè)數(shù),此例中n=100,000。

B)令協(xié)方差矩陣∑的特征向量U為U=[u1,u2…un],UTU=I,特征向量u1,u2…un構(gòu)成一個(gè)基向量,用來(lái)映射數(shù)據(jù),表示旋轉(zhuǎn)后的圖像,輸入歸一化處理后的無(wú)標(biāo)簽圖像集中的樣本以特征向量U為基向量表示為

C)設(shè)協(xié)方差矩陣∑的特征值為λ2,…,λn,則PCA白化后的圖像為

其中ε表示為平滑圖像塊的常量。

2)采用K-means算法提取一次最佳聚類中心。

將預(yù)處理后的無(wú)標(biāo)簽圖像集作為K-means聚類數(shù)據(jù),通過(guò)K-means聚類算法訓(xùn)練網(wǎng)絡(luò)得到聚類中心,也就是字典。K-means聚類算法作為一種無(wú)監(jiān)督學(xué)習(xí)算法,避免了對(duì)各種參數(shù)的訓(xùn)練,只需訓(xùn)練字典,使得訓(xùn)練過(guò)程簡(jiǎn)單,時(shí)間效率高。

令預(yù)處理后的無(wú)標(biāo)簽圖像集為{x(1),x(2),x(3),…,x(n)},x(i)∈Rn(其中n表示圖像集中樣本的個(gè)數(shù),i=1~n,此例中n=100,000,x(i)表示n個(gè)樣本中的某一個(gè)樣本,Rn表示n維向量),通過(guò)K-means聚類算法對(duì)無(wú)標(biāo)簽圖像集進(jìn)行聚類。

21)設(shè)定k個(gè)初始的聚類中心{μ123…μk},k為自然數(shù),此例中取k=1600,建立初始化的準(zhǔn)則函數(shù)

其中,μj為每一個(gè)樣本x(i)對(duì)應(yīng)的聚類中心,j=1~k,i、j為自然數(shù),且i>j;x(i)表示n個(gè)無(wú)標(biāo)簽圖像集中的樣本。

22)依次求取每一個(gè)樣本x(i)到所有初始的聚類中心{μ123…μk}的距離的最小值,記為該樣本的類別標(biāo)簽c(i),將該樣本x(i)歸為c(i)類,再根據(jù)所述類別標(biāo)簽c(i)更新計(jì)算聚類中心,得到過(guò)程聚類中心μj′,j=1~k。

c(i)=argmin||x(i)j′||

23)將所有過(guò)程聚類中心μj′帶入準(zhǔn)則函數(shù)計(jì)算,判斷準(zhǔn)則函數(shù)是否收斂,否則返回步驟22),是則將至步驟24)。

24)將過(guò)程聚類中心μj′確定為一次最佳聚類中心{μ′1,μ′2,μ′3…μ′k},將每一個(gè)樣本x(i)歸類至距離最近的聚類中心,記為xj(i),每一個(gè)樣本x(i)到距離最近的聚類中心的類別標(biāo)簽記為cj(i)。

3)構(gòu)建特征映射函數(shù),提取無(wú)標(biāo)簽圖像集的圖像特征。

定義每一個(gè)樣本x(i)的特征映射函數(shù),提取特征向量y(i),其中h(z)表示每一類中所有樣本到聚類中心的距離的平均值,Zj(i)表示每一類中的所有樣本到對(duì)應(yīng)的聚類中心的距離;

y(i)=fk(x)=max{0,h(z)-Zj(i)}

Zj(i)=||x(i)j||2

當(dāng)特征映射函數(shù)輸出值為0時(shí),表示該特征到聚類中心的距離大于“平均值”。對(duì)每一幅輸入64*64大小的圖像,設(shè)定的步長(zhǎng)s=1,選取感受野大小(即在64*64大小的圖像塊中選取的區(qū)域大小)為12*12的樣本塊作為特征映射函數(shù)的輸入,將樣本塊映射為k維的特征表達(dá),對(duì)于每一幅圖像能夠得到一個(gè)大小為(64-12+1)*(64-12+1)個(gè)k維的特征。這樣保證輸出大多數(shù)特征值為0,使其具有稀疏性,這種稀疏表示被廣泛的運(yùn)用于計(jì)算機(jī)視覺(jué)中。

4)進(jìn)行池化操作與歸一化處理。

在此之后,我們通過(guò)池化處理降低特征向量的維數(shù)。

因?yàn)橥ㄟ^(guò)特征映射函數(shù)得到的圖像特征向量維數(shù)過(guò)高,不利于Softmax分類器對(duì)圖像特征進(jìn)行分類和容易出現(xiàn)過(guò)擬合,所以我們對(duì)提取的圖像特征采取均值池化處理降低特征向量的維數(shù)和整合圖像特征。待池化圖像特征后,為了平衡特征的各個(gè)分量的影響,以改善后續(xù)Softmax分類器對(duì)圖像特征的分類效果,我們對(duì)已池化的圖像特征進(jìn)行歸一化處理。

歸一化處理的公式為:

是標(biāo)準(zhǔn)化處理后的圖像塊的特征向量,y(i)是樣本圖像塊的特征向量,var和mean表示方差和均值,σ是去噪常量。

5)采用K-means算法提取二次最佳聚類中心,并采用卷積操作,提取最終圖像特征,對(duì)最終圖像特征進(jìn)行標(biāo)準(zhǔn)化處理。通過(guò)訓(xùn)練得到得到a*a大小的圖像塊特征,我們將其作為卷積核與輸入圖像進(jìn)行卷積操作,提取圖像特征,如圖2所示。

51)設(shè)定p個(gè)初始的聚類中心{μ123…μp},p為自然數(shù),此例中取p=2000,重復(fù)步驟21)~23),將步驟21)~23)中的k替換為p,得到二次最佳聚類中心{μ1′,μ2′,μ3′…μ′p};

52)采用卷積操作,將輸入的圖像塊的最終圖像特征與提取的聚類中心做卷積,提取最終圖像特征卷積公式為:

其中為最終圖像特征,μl為二次最佳聚類中心,l=1~p;

53)對(duì)最終圖像特征進(jìn)行歸一化處理,以再次平衡特征的各個(gè)分量的影響,歸一化處理的公式同步驟4)。

6)通過(guò)Softmax分揀器對(duì)經(jīng)過(guò)歸一化處理的最終圖像特征進(jìn)行分類。

實(shí)驗(yàn)數(shù)據(jù):

本發(fā)明提出的一種基于K-means與深度學(xué)習(xí)的圖像分類算法(下表中表示為KDL),與經(jīng)典的SAE、Stacked SAE算法相比較。實(shí)驗(yàn)結(jié)果如表1~表3所示。

從表1可看出,在對(duì)MNIST數(shù)據(jù)集分類中,本文提出的KDL模型分類準(zhǔn)確率在迭代300次時(shí)達(dá)到最大值97.52%,較稀疏自編碼器模型(SAE)和堆棧自編碼器(Stacked SAE)分別高出4.52%和16.8%。由圖4a可知,KDL模型對(duì)MNIST數(shù)據(jù)集分類準(zhǔn)確率隨著迭代次數(shù)增加始終遠(yuǎn)高于SAE模型和Stacked SAE模型。因?yàn)镾AE模型采用單層網(wǎng)絡(luò)結(jié)構(gòu)不能有效、準(zhǔn)確的表示圖像特征,所以本文采用K-means多層網(wǎng)絡(luò)結(jié)構(gòu)具有更好的表達(dá)圖像特征的能力。實(shí)驗(yàn)數(shù)據(jù)表明KDL模型整體分類性能優(yōu)于SAE模型,也符合我們預(yù)期分析的實(shí)驗(yàn)結(jié)果。與Stacked SAE模型相比,KDL模型相比Stacked SAE模型在訓(xùn)練過(guò)程和分類過(guò)程中具有簡(jiǎn)單、高效、訓(xùn)練參數(shù)少等優(yōu)點(diǎn),所以其分類性能優(yōu)于Stacked SAE模型。實(shí)驗(yàn)數(shù)據(jù)同樣證實(shí),KDL模型在分類識(shí)別準(zhǔn)確率上遠(yuǎn)高于Stacked SAE模型。

表1.三種模型在MNIST數(shù)據(jù)集上分類準(zhǔn)確率

從表2可看出,在對(duì)Cifar-10數(shù)據(jù)集分類中,當(dāng)?shù)螖?shù)為100時(shí),KDL模型分類準(zhǔn)確率為61.34%,較稀疏自編碼器模型(SAE)和堆棧自編碼器(Stacked SAE)分別高出1.65%和31.02%。又從圖4b中可知,隨著迭代次數(shù)增加,三種模型分類準(zhǔn)確率處于緩慢增長(zhǎng)狀態(tài)。此時(shí),KDL模型識(shí)別率低于SAE模型不到1%,而高出Stacked SAE模型22.2%。由于實(shí)驗(yàn)結(jié)果不可避免存在誤差以及對(duì)不同數(shù)據(jù)集分類時(shí)采用相同實(shí)驗(yàn)參數(shù),可能導(dǎo)致實(shí)驗(yàn)結(jié)果存在一定偏差。整體實(shí)驗(yàn)數(shù)據(jù)表明,KDL模型在對(duì)Cifar-10數(shù)據(jù)集的分類準(zhǔn)確率高于另兩種模型的分類準(zhǔn)確率。

表2.三種模型在Cifar-10數(shù)據(jù)集上分類準(zhǔn)確率

從表3可看出,在對(duì)The four-vehicle數(shù)據(jù)集分類中,KDL模型分類識(shí)別準(zhǔn)確率在迭代100次時(shí)達(dá)到最大值80.87%,較稀疏自編碼器模型(SAE)和堆棧自編碼器(Stacked SAE)分別高出2.32%和16.9%。從圖4c中可知,隨著迭代次數(shù)增加,KDL模型分類識(shí)別準(zhǔn)確率始終高于SAE模型和Stacked SAE模型。SAE模型分類準(zhǔn)確率隨著迭代次數(shù)增加處于先增長(zhǎng)后下降狀態(tài),在迭代次數(shù)為400時(shí)達(dá)到最大值79.47%。Stacked SAE模型分類準(zhǔn)確率隨著迭代次數(shù)增加也處于先增長(zhǎng)后下降狀態(tài),在迭代次數(shù)為200時(shí)達(dá)到最大值67.31%。綜合上述分析可得,KDL模型分類識(shí)別性能優(yōu)于SAE模型和Stacked SAE模型。

表3.三種模型在The four-vehicle數(shù)據(jù)集上分類準(zhǔn)確率

通過(guò)三種模型在三個(gè)數(shù)據(jù)集上分類準(zhǔn)確率可得,本文提出的基于K-means與深度學(xué)習(xí)的KDL圖像分類模型,不僅在分類識(shí)別準(zhǔn)確率上優(yōu)于SAE模型和Stacked SAE模型,而且還具有K-means聚類算法簡(jiǎn)單、高效、學(xué)習(xí)參數(shù)少的優(yōu)點(diǎn)以及深度學(xué)習(xí)所具有的擅長(zhǎng)處理大規(guī)模圖像的能力。

除上述實(shí)例外,本發(fā)明還可以有其它實(shí)現(xiàn)形式,凡采用等同替換或等效變換形成的方案,均落在本專利要求的保護(hù)范圍內(nèi)。

本說(shuō)明書(shū)中未作詳細(xì)描述的內(nèi)容屬于本領(lǐng)域?qū)I(yè)技術(shù)人員公知的現(xiàn)有技術(shù)。

當(dāng)前第1頁(yè)1 2 3 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
临汾市| 苏州市| 赣州市| 汉源县| 宜兰县| 新乐市| 渝北区| 广平县| 石河子市| 凤冈县| 廊坊市| 万年县| 湘阴县| 襄汾县| 双江| 民勤县| 连南| 襄城县| 探索| 余干县| 龙山县| 汾阳市| 上思县| 拉萨市| 三明市| 河南省| 香港 | 莱州市| 东海县| 五常市| 大埔区| 郯城县| 恩平市| 周口市| 大邑县| 七台河市| 阿坝县| 神木县| 福海县| 习水县| 富民县|