基于融合顯著信息的潛在主題極光圖像分類方法
【專利摘要】本發(fā)明公開了一種基于融合顯著信息的潛在主題極光圖像分類方法,主要解決現(xiàn)有技術(shù)分類準確率低、分類效率不高及適用范圍窄的問題。其實現(xiàn)步驟為:(1)對極光圖像進行預(yù)處理,提取預(yù)處理后的極光圖像的視覺單詞并生成視覺文檔;(2)使用譜殘差算法獲得輸入的極光圖像的極光顯著圖,提取極光顯著圖的視覺單詞并生成極光顯著圖視覺文檔;(3)將步驟(1)和步驟(2)的視覺文檔連接生成極光圖像語義加強型文檔,并將其輸入給Latent?Dirichlet?Allocation模型,得到極光圖像的顯著信息潛在語義分布特征SM-LDA;(4)將SM-LDA特征輸入支持向量機進行分類,得到最終的分類結(jié)果。本發(fā)明在保持高分類精度的同時,縮短了分類時間,提高了分類效率,可用于場景分類與目標識別。
【專利說明】基于融合顯著信息的潛在主題極光圖像分類方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明屬于圖像處理【技術(shù)領(lǐng)域】,具體的說是一種極光圖像分類方法,可用于場景分類與目標識別。
【背景技術(shù)】
[0002]極光是由于太陽帶電粒子進入地球磁場,在夜間地球南北兩極附近地區(qū)的高空產(chǎn)生的燦爛美麗的光輝。極光現(xiàn)象的發(fā)生時常會影響無線電通信、長電纜通信等。極光還可以影響到氣候和生物活動。極光具有多種形態(tài),而且不同形態(tài)的極光蘊含著不同的物理含義,所以極光圖像的分類具有非常重要的科學(xué)研究價值。
[0003]極光圖像的分類從早期的肉眼觀察手工標記發(fā)展到現(xiàn)在的計算機定量分析。
[0004]1955 年,Carl Stormer 在文獻 “Stormer C., The Polor Aurora.0xford:Clarendon Press, 1955”中首次對極光進行分類,將極光分為放射狀結(jié)構(gòu)、無放射狀結(jié)構(gòu)和火焰狀三種類型。1964年,Akasofu在文獻“Akasofu, S.1.,The Developmentof the Auroral Substorm.Planet Space Sc1.,1964,12 (4): 273-282,,中根據(jù)極光的運動特點將極光分為赤道向擴展、點亮、西行浪涌和赤道向恢復(fù)四種類型。1999年,胡紅橋等人在文獻“胡紅橋,劉瑞源,王敬芳等,南極中山站極光形態(tài)的統(tǒng)計特征,極地研究,1999,11(1):8-18"中將極光分為具有射線狀結(jié)構(gòu)的冕狀極光、帶狀極光、極光浪涌和向日極光弧四種類型。2000年,中國極地研究中心將極光分為弧狀極光和冕狀極光兩類,其中冕狀極光又細分為輻射冕狀、熱點冕狀和帷幔冕狀三類,見文獻“Yang H.etal,Synoptic observations of auroras along the postnoon oval: A survey withall-sky TV observations at zhongshan, Antarctica.Journal of Atmospheric andSolar-Terrestrial Physics,2000, 62(9):787-797”。
[0005]然而由于極光圖像的數(shù)量以每年數(shù)百萬增加,單純的人工手動標記方法已經(jīng)不能滿足對海量數(shù)據(jù)進行處理的要求。2004年,Syrjasuo等人在文獻“Syrjasuo Μ.T.,andDonovan E.F., Diurnal auroral occurrence statistics obtained via machine vision.Annales Geophysicae, 2004, 22(4): 1103-1113”中首次將計算機視覺技術(shù)引入極光圖像的分類。該方法首先將極光根據(jù)形態(tài)分為弧狀、斑塊狀和歐米伽狀三類,隨后將極光圖像分割后的區(qū)域進行傅里葉變換來提取極光圖像的特征,此方法有很大的局限性,僅適用于形態(tài)單一的弧狀極光,不具備普遍適用性。2007年,王倩等人在文獻“王倩,梁繼民,高新波等,基于表象特征的極光圖像分類方法研究,第十二屆全國日地空間物理學(xué)術(shù)研討會論文集.2007:71”中運用主分量分析,線性判別分析和貝葉斯三種方法對極光圖像進行表征提取,提出基于表象特征的極光圖像分類方法,將極光劃分為弧狀、冕狀和混合型三種類型。2008年,高凌君在文獻“高凌君,基于Gabor變換的日側(cè)極光分類算法研究[碩士學(xué)位論文].西安:西安電子科技大學(xué),2009”中針對冕狀極光呈放射狀的紋理形態(tài)特征,提出一種基于Gabor變換的日側(cè)極光分類算法,該方法利用Gabor濾波器組提取了極光圖像的局部Gabor特征,此特征能比較吻合冕狀極光發(fā)射狀的紋理特性,但是對極光圖像的其他類型缺乏推廣性。2009年,F(xiàn)u等人在文獻“Fu Rj Li Jj Gao X,et al.Automaticaurora images classification algorithm based on separated texture.Robotics andBiomimetics (ROBIO),2009IEEE International Conference on.1EEE,2009:1331-1335”中將形態(tài)學(xué)分析與極光圖像的分析結(jié)合,該方法將極光紋理區(qū)域和背景區(qū)域分離,并且分離后的結(jié)果能夠保留極光紋理特征,提高了弧狀與冕狀極光圖像的分類準確率。2010年,Wang等在文獻“Wang Y,Gao X,F(xiàn)u Rj et al.Dayside corona aurora classification based onX-gray level aura matrices.Proceedings of the ACM International Conference onImage and Video Retrieval.ACM, 2010:282-287”中根據(jù)極光形態(tài)的特點提出基于 X-GLAM特征的日側(cè)極光圖像分類算法,該方法針對冕狀極光特殊紋理特性設(shè)計,增強了表述方向性特征的能力,在光照和旋轉(zhuǎn)的影響上有較強的魯棒性,但是進行了大量的像素運算,較為耗時。對現(xiàn)有極光圖像分類算法研究分析發(fā)現(xiàn),由于極光圖像并沒有特定的形狀等表象特征,大部分特征提取方法只適用于一類或二類極光類型,且均存在分類效果準確率低的問題。
[0006]在圖像分類領(lǐng)域中有一個BoW(Bag of Words)模型,該模型將一幅圖像看做一篇文檔。該模型首先提取圖像特征,用圖像特征生成“視覺單詞”,然后統(tǒng)計圖像的“視覺單詞”出現(xiàn)頻率即可完成圖像的BoW描述。在BoW模型中,視覺單詞具有區(qū)分性和代表性,因此,該方法有較好的魯棒性并且可以抑制一定的噪聲干擾。但該模型僅將圖像看成是若干個視覺單詞的集合,忽略了單詞的位置信息。SPM(Spatial Pyramid Matching)模型,JAL ^Lazebnik S,Schmid C,Ponce J.Beyond bags of features: Spatial pyramidmatching for recognizing natural scene categories.Computer Vision and PatternRecognition, 2006IEEE Computer Society Conference on.1EEE, 2006,2:2169-2178”,可有效改善BoW模型這一缺陷。但是圖像輸入SPM模型得到的特征描述往往是高維數(shù)據(jù),增加了圖像的分類時間,需要 使用更多的機器內(nèi)存。LDA(Latent Dirichlet Allocation)模型,見文獻“Blei, D.Μ.,Ng, A.Y.,Jordan, Μ.1.Latent Dirichlet Allocation.Journal ofMachine Learning Research.3:993-1022,2003”,可以有效降低圖像的特征維數(shù),但是會降低最終的圖像分類準確率。
【發(fā)明內(nèi)容】
[0007]本發(fā)明的目的在于針對上述現(xiàn)有技術(shù)存在的不足,提出一種基于融合顯著信息的潛在主題極光圖像分類方法,以適用于多種極光類型的分類,并從語義角度表達極光圖像的信息,有效的減少數(shù)據(jù)冗余,提高分類準確率與分類效率。
[0008]實現(xiàn)本發(fā)明上述目的的技術(shù)方案是:對輸入的極光圖像進行對比度增強的預(yù)處理,并使用譜殘差算法獲得輸入的極光圖像的極光顯著圖,提取預(yù)處理后的極光圖像的視覺單詞并生成極光圖像視覺文檔,提取極光顯著圖的視覺單詞并生成極光顯著圖視覺文檔,將上述兩個視覺文檔連接得到極光圖像的語義加強型文檔,輸入至Latent DirichletAllocation模型得到極光圖像的顯著信息潛在語義分布特征SM-LDAjf SM-LDA輸入給支持向量機SVM進行分類。其具體步驟包括如下:
[0009](I)輸入極光圖像,用頂帽變換對輸入的極光圖像進行對比度增強的預(yù)處理,得到預(yù)處理后的極光圖像;[0010](2)利用Bag of Words模型,提取預(yù)處理后的極光圖像的視覺單詞并生成極光圖像視覺文檔;
[0011](3)使用譜殘差SR算法,獲得輸入的原始極光圖像的極光顯著圖;
[0012](4)利用Bag of Words模型,提取極光顯著圖的視覺單詞并生成極光顯著圖視覺文檔;
[0013](5)將步驟(2)和步驟(4)的視覺文檔連接生成極光圖像語義加強型文檔;
[0014](6)將極光圖像語義加強型文檔輸入給Latent Dirichlet Allocation模型,通過該模型將極光圖像語義加強型文檔中的視覺單詞分配給相應(yīng)主題,得到極光圖像的顯著信息潛在語義分布特征SM-LDA ;
[0015](7)將極光圖像的顯著信息潛在語義分布特征SM-LDA輸入給支持向量機SVM進行分類,得到最終的分類結(jié)果。
[0016]本發(fā)明與現(xiàn)有的技術(shù)相比具有以下優(yōu)點:
[0017]1.本發(fā)明由于采用頂帽變換對極光圖像進行預(yù)處理,改善了極光圖像對比度不足以及亮度不均勻的現(xiàn)象;
[0018]2.本發(fā)明由于采用了 Bag of Words模型對極光圖像進行語義表示,避免了從極光圖像自身形態(tài)出發(fā)提取其特征這一缺陷,適用于多種類型的極光圖像分類;
[0019]3.本發(fā)明通過使用譜殘差算法,得到極光顯著圖,有效地突出了極光圖像的顯著區(qū)域,有利于提聞分類準確率;
[0020]4.本發(fā)明通過融合Bag of Words模型、譜殘差算法和Latent DirichletAllocation模型,得到極光圖像的SM-LDA表不,相較于Bag of Words模型和SpatialPyramid Matching 模型,縮短了分類時間,相較于 Latent Dirichlet Allocation 模型,提高了分類精度。
【專利附圖】
【附圖說明】
[0021 ] 圖1是本發(fā)明的實現(xiàn)流程圖;
[0022]圖2是本發(fā)明與現(xiàn)有的基于Latent Dirichlet Allocation模型的分類方法在主題數(shù)變化時對極光圖像的分類準確率對比圖;
[0023]圖3是用本發(fā)明和現(xiàn)有的四種極光圖像分類方法對極光圖像的分類平均準確率對比圖;
[0024]圖4是用本發(fā)明和現(xiàn)有的四種極光圖像分類方法對極光圖像的平均分類時間對比圖。
【具體實施方式】
[0025]參照圖1,本發(fā)明的具體實現(xiàn)步驟如下:
[0026]步驟1,對輸入極光圖像進行對比度增強的預(yù)處理。
[0027]增強圖像對比度的方法有多種,例如,圖像直方圖拉伸方法、圖像直方圖均衡化方法和頂帽變換方法,本發(fā)明采用頂帽變換方法,即通過公式得到變換后的對比度增強圖像:
[0028]INth=IN -1noE,[0029]其中,In為輸入的原始極光圖像,E為r=80的disk型結(jié)構(gòu)元素,ο為開運算符號,INth為頂帽變換后的圖像,N=I, 2,…,J,J為輸入的原始極光圖像總個數(shù)。
[0030]步驟2,提取預(yù)處理后的極光圖像的視覺單詞并生成極光圖像視覺文檔。
[0031](2a)對頂帽變換后的極光圖像INth進行16X 16的網(wǎng)格劃分,將劃分后的每個網(wǎng)格子圖記為GNn,其中n=l,2, - ,256 ;
[0032](2b)計算每個網(wǎng)格子圖GNn的Sift特征SNn,其中N=l,2,…,J,J為輸入的原始極光圖像總個數(shù);
[0033](2c)使用K均值聚類方法對Sift特征SNn進行聚類,得到K個聚類中心W1,將一個聚類中心視作一個視覺單詞,K個視覺單詞即形成了字典,其中1=1,2,-,K;
[0034](2d)對Sift特征SNn進行視覺單詞量化,當min| Sn11-W1 12時,令Sn11=W1,將極光圖像量化為由η個視覺單詞構(gòu)成的極光圖像視覺文檔DN。
[0035]步驟3,使用譜殘差算法SR獲取極光顯著圖。
[0036](3a)對輸入的原始極光圖像In進行傅里葉變換,計算極光圖像的幅度譜和相位譜:
[0037]An (f) =Amplitude (F (In)),
[0038]Pn (f) =Angle (F(In)),
[0039]其中AN(f)為極光圖像的幅度譜,Amplitude為取幅度操作,Pn(f)為極光圖像的相位譜,Angle為取相位操作,In為輸入的原始極光圖像,F(xiàn)為傅里葉變換;
[0040](3b)根據(jù)極光圖像的幅度譜八\0,計算極光圖像的對數(shù)幅度譜:
[0041]Ln (f) =1g (An (f));
[0042](3c)根據(jù)極光圖像的對數(shù)幅度譜LN(f),計算極光圖像的譜殘差:
[0043]RN(f)=LN(f)-h(f)*LN(f),
[0044]其中,h(f)為3X3均值濾波模板,*為卷積符號;
[0045](3d)根據(jù)極光圖像的譜殘差Rn(f),得到極光顯著圖:
[0046]SRN=g (X) *F-1 [exp (Rn (f) +Pn (f))]2,
[0047]其中,g(x)為高斯濾波器,用于平滑顯著圖,f-1為傅里葉逆變換,exp為以e為底的指數(shù)函數(shù)。
[0048]步驟4,提取極光顯著圖的視覺單詞并生成極光顯著圖視覺文檔。
[0049](4a)對極光顯著圖SRn進行16X16的網(wǎng)格劃分,將劃分后的每個網(wǎng)格子圖記為RNn,其中 n=l,2,…,256;
[0050](4b)計算每個網(wǎng)格子圖RNn的Sift特征QNn,其中N=l,2,…,J,J為輸入的原始極光圖像總個數(shù);
[0051](4c)使用K均值聚類方法對Sift特征QNn進行聚類,得到K個聚類中心fy,將一個聚類中心視作一個視覺單詞,K個視覺單詞即形成了字典,其中y=l,2,-,K;
[0052](4d)對Sift特征SNn進行視覺單詞量化,當min| I QNn_fy I 12時,令QNn=fy,將極光圖像量化為由η個視覺單詞構(gòu)成的極光圖像視覺文檔DNSK。
[0053]步驟5,將極光顯著圖視覺文檔Dnsk與極光圖像視覺文檔Dn首尾相接,構(gòu)成極光圖像語義加強型文檔Cn=[Dnsk,Dn],記Cn中的視覺單詞為Cnp,其中p=l,2,…,512。
[0054]步驟6,通過Latent Dirichlet Allocation模型將極光圖像語義加強型文檔中的視覺單詞分配給相應(yīng)主題,得到極光圖像的顯著信息潛在語義分布特征SM-LDA。
[0055]Latent Dirichlet Allocation模型,是對文檔進行建模的一種方法。在LatentDirichlet Allocation模型下,一個文檔由若干個主題構(gòu)成,將文檔中的單詞分配給某個主題,可以得到文檔的主題分配,其具體實現(xiàn)步驟如下:
[0056](6a)對于極光圖像語義加強型文檔Cn中的單詞cNp,隨機設(shè)定其所屬主題Zi,其中,i=l,2,…,T,T為主題個數(shù),將此時的單詞分配給主題的情況,作為Markov鏈的初始狀態(tài);
[0057](6b)根據(jù)上述Markov鏈的初始狀態(tài),利用下式將極光圖像語義加強型文檔Cn中的單詞cNp分配給相應(yīng)主題,獲取Markov鏈的下一個狀態(tài):
【權(quán)利要求】
1.一種基于融合顯著信息的潛在主題極光圖像分類方法,包括如下步驟: (1)輸入極光圖像,用頂帽變換對輸入的極光圖像進行對比度增強的預(yù)處理,得到預(yù)處理后的極光圖像; (2)利用Bagof Words模型,提取預(yù)處理后的極光圖像的視覺單詞并生成極光圖像視覺文檔; (3)使用譜殘差SR算法,獲得輸入的原始極光圖像的極光顯著圖; (4)利用Bagof Words模型,提取極光顯著圖的視覺單詞并生成極光顯著圖視覺文檔; (5)將步驟(2)和步驟(4)的視覺文檔連接生成極光圖像語義加強型文檔; (6)將極光圖像語義加強型文檔輸入給LatentDirichlet Allocation模型,通過該模型將極光圖像語義加強型文檔中的視覺單詞分配給相應(yīng)主題,得到極光圖像的顯著信息潛在語義分布特征SM-LDA ; (7)將極光圖像的顯著信息潛在語義分布特征SM-LDA輸入給支持向量機SVM進行分類,得到最終的分類結(jié)果。
2.根據(jù)權(quán)利要求書I所述的基于融合顯著信息的潛在主題極光圖像分類方法,其中步驟(I)所述的對輸入極光圖像進行對比度增強的預(yù)處理,采用如下頂帽變換公式進行:
IV=In-1NoE, 其中In為輸入的原始極光圖像,E為r=80的disk型結(jié)構(gòu)元素,ο為開運算符號,INth為頂帽變換后的圖像,N=I, 2,…,J,J為輸入的原始極光圖像總個數(shù)。
3.根據(jù)權(quán)利要求書I所述的基于融合顯著信息的潛在主題極光圖像分類方法,其中步驟(2)所述的提取預(yù)處理后的極光圖像的視覺單詞并生成極光圖像視覺文檔,按如下步驟進行: (2a)對頂帽變換后的極光圖像INth進行16X 16的網(wǎng)格劃分,將劃分后的每個網(wǎng)格子圖記為GNn,其中n=l,2,…,256 ; (2b)計算每個網(wǎng)格子圖GNn的Sift特征SNn,其中N=l,2,…,J,J為輸入的原始極光圖像總個數(shù); (2c)使用K均值聚類方法對Sift特征SNn進行聚類,得到K個聚類中心Wl,將一個聚類中心視作一個視覺單詞,K個視覺單詞即形成了字典,其中1=1,2,-,K; (2d)對Sift特征SNn進行視覺單詞量化,當min| !Sn11-W1I 12時,令Sn11=W1,將極光圖像量化為由η個視覺單詞構(gòu)成的極光圖像視覺文檔DN。
4.根據(jù)權(quán)利要求書I所述的基于融合顯著信息的潛在主題極光圖像分類方法,其中步驟(3)所述的使用譜殘差算法SR獲取極光顯著圖,按如下步驟進行: (3a)對輸入的原始極光圖像In進行傅里葉變換,計算極光圖像的幅度譜和相位譜:
An (f) =Amplitude (F (In)),
Pn (f) =Angle (F(In)), 其中AN(f)為極光圖像的幅度譜,Amplitude為取幅度操作,Pn(f)為極光圖像的相位譜,Angle為取相位操作,In為輸入的原始極光圖像,F(xiàn)為傅里葉變換; (3b)根據(jù)極光圖像的幅度譜八\0,計算極光圖像的對數(shù)幅度譜:
Ln (f) =1g (An (f));(3c)根據(jù)極光圖像的對數(shù)幅度譜LN(f),計算極光圖像的譜殘差: RN(f)=LN(f)-h(f)*LN(f), 其中,h(f)為3X3均值濾波模板,*為卷積符號; (3d)根據(jù)極光圖像的譜殘差Rn(f),得到極光顯著圖:
SRN=g (X)氺卩-1 [exp (Rn (f) +Pn (f)) ]2, 其中,g(x)為高斯濾波器,用于平滑顯著圖,f1為傅里葉逆變換,exp為以e為底的指數(shù)函數(shù)。
5.根據(jù)權(quán)利要求書I所述的基于融合顯著信息的潛在主題極光圖像分類方法,其中步驟(5)所述的生成極光圖像語義加強型文檔,是將極光顯著圖SRn量化為由視覺單詞組成的極光顯著圖視覺文檔DNSK,并將該文檔Dnsk與極光圖像視覺文檔Dn首尾相接,構(gòu)成極光圖像語義加強型文檔Cn=[Dnsk,Dn],記Cn中的視覺單詞為Cnp,其中p=l,2,…,512。
6.根據(jù)權(quán)利要求書I所述的基于融合顯著信息的潛在主題極光圖像分類方法,其中步驟(6)所述的通過Latent Dirichlet Allocation模型將極光圖像語義加強型文檔中的視覺單詞分配給相應(yīng)主題,得到極光圖像的顯著信息潛在語義分布特征SM-LDA,按如下步驟進行: (6a)對于極光圖像語義加強型文檔Cn中的單詞cNp,隨機設(shè)定其所屬主題Zi,其中,i=l, 2,…,T,T為主題個數(shù),將此時的單詞分配給主題的情況,作為Markov鏈的初始狀態(tài);(6b)根據(jù)上述Markov鏈的初始狀態(tài),利用下式將極光圖像語義加強型文檔Cn中的單詞cNp分配給相應(yīng)主題,獲取Markov鏈的下一個狀態(tài):
【文檔編號】G06K9/62GK103632166SQ201310648330
【公開日】2014年3月12日 申請日期:2013年12月4日 優(yōu)先權(quán)日:2013年12月4日
【發(fā)明者】韓冰, 高新波, 廖謙, 楊辰, 仇文亮, 王秀美, 王穎, 王斌 申請人:西安電子科技大學(xué)