欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種聯(lián)合魯棒主成分特征學(xué)習(xí)與視覺分類方法及系統(tǒng)的制作方法_3

文檔序號:9766212閱讀:來源:國知局
J, PA = F,N、= A、pi IV + E!'
[0064] 本發(fā)明采用增廣拉格朗日乘子法(Inexact Argument Lagrange Multiplier,簡 稱Inexact ALM)對上述模型進行求解。如果對稀疏錯誤項E使用L2, l-norm正則化,則構(gòu)造 的增廣拉格朗日函數(shù)@如下公式所示:
[0066]其中,Yi, Y2,Y3,Y4為拉格朗日乘子,y是正的權(quán)權(quán)衡參數(shù)。ALM方法通過解決增廣拉 格朗日函數(shù)軒來交替更新變量:
[0068]由于所要求解的變量在優(yōu)化過程中存在一定的相對依賴,因此,本發(fā)明通過迭代 求解如下子問題組合,通過固定其他變量來更新當(dāng)前某個變量:
[0075] 其中,每一步待優(yōu)化的子問題都是一個凸子問題,因此可W得到有效解決。考慮到 計算效率問題,本例中采用Inexact ALM方法,具體算法如下:輸入:原始數(shù)據(jù)矩陣(訓(xùn)練樣 本集)X = h,.Y2,...,%]e吸"XW、控制參數(shù)a,丫,A。輸出:線性投影矩陣 (片仁7V,似)')、線性分類器(曠戶Wk+0。初始化:
[0076] & = 〇,-/,'=0,6 =〇-& =〇、C =fUK =〇,}^ = 0乂' =0,巧= = =
[0077] while還未收斂時do
[0078] 固定其他變量并更新低秩矩陣J:
[0080]其中,卸-。的。護-^ +巧/ A]=〔巧玄F,化F是巧-//4的奇異值分解, Se[x] = sgn(x)max( I X I-E ,0));
[0081 ]固定其他變量并更新稀疏矩陣F:
[0083]固定其他變量并更新稀疏誤差E:
[0085] 固定其他變量并更新線性投影矩陣聲:
[0086] 0矜0系=〇二孩+1 = (3/ + 巧典寧^^"#(^叫-'
[0087] 固定其他變量并更新線性分類器W:
[0090]固定其他變量并更新回歸誤差EW:
[0092]固定其他變量,更新拉格朗日乘子Yi,Y2,Y3,Y4 :
[009引更新參數(shù)]1和化+1=111;[]1(11化+1,111日恥);
[0099] 檢查是否收斂:
[0100] 若 X-瓦馬+1 , FwA - J.W , FmA-F^i ,-ATfl+/巧1+1-.巧-t.i .<.s \ 策' ^ 次 ^ /
[0101 ]則算法迭代停止;否則k = k+l。
[0102] End while
[0103] 本發(fā)明實施例提供的一種聯(lián)合魯棒主成分特征學(xué)習(xí)與視覺分類方法中,利用線性 投影矩陣通過嵌入方式提取待測樣本的聯(lián)合低秩與稀疏主成分特征,可W包括:
[0104] 將待測樣本向線性投影矩陣進行嵌入,得到對應(yīng)的嵌入結(jié)果即為待測樣本的聯(lián)合 低秩與稀疏主成分特征。
[0105] 具體來說,得到的線性投影矩陣可表示為Pg吸"X",其中,化""表示nXn的矩陣空 間,得到的待測樣本的聯(lián)合低秩與稀疏主成分特征可表示為:套胃=軟胃。W利用待測樣本 的聯(lián)合低秩與稀疏主成分特征順利完成其分類過程。
[0106] 上述本發(fā)明公開的實施例中詳細描述了一種聯(lián)合魯棒主成分特征學(xué)習(xí)與視覺分 類方法,對于本發(fā)明公開的上述方法可采用多種形式的系統(tǒng)實現(xiàn),因此本發(fā)明還公開了一 種聯(lián)合魯棒主成分特征學(xué)習(xí)與視覺分類系統(tǒng),如圖2所示,可W包括:
[0107] 訓(xùn)練模塊11,用于:基于訓(xùn)練樣本集,通過將魯棒主成分特征學(xué)習(xí)、編碼錯誤和基 于主成分特征的分類錯誤集成到一個統(tǒng)一的最小化框架,可同時進行聯(lián)合低秩與稀疏主成 分特征提取和數(shù)據(jù)糾錯,且可確保得到的聯(lián)合主成分特征對于分類是最優(yōu)的;為了得到描 述性更強的魯棒特征,同時考慮了數(shù)據(jù)的魯棒與稀疏特性,同時將經(jīng)過一個投影嵌入的特 征進行低秩和Ll-范數(shù)最小化,確保提取的特征滿足低秩與稀疏特性;最終得到一個線性投 影矩陣和一個線性分類器;其中,訓(xùn)練樣本集中包含的訓(xùn)練樣本為已知其類別的樣本;
[0108] 投影模塊12,用于利用線性投影矩陣通過嵌入方式提取待測樣本的聯(lián)合低秩與稀 疏主成分特征;其中,待測樣本為未知其類別的樣本;
[0109] 分類模塊13,用于將提取到的待測樣本對應(yīng)的聯(lián)合低秩與稀疏主成分特征向線性 分類器進行映射,得到待測樣本的軟類別標簽,其中包括測試樣本歸屬各個類別的概率,根 據(jù)概率中最大值對應(yīng)的位置,確定為待測樣本的類別,完成分類過程。
[0110] 經(jīng)由本發(fā)明公開的上述技術(shù)方案可知,與現(xiàn)有技術(shù)相比,本發(fā)明公開了一種聯(lián)合 魯棒主成分特征學(xué)習(xí)與視覺分類的新方案,通過對訓(xùn)練樣本運用該方案進行聯(lián)合訓(xùn)練,生 成一個用于特征提取的線性投影矩陣和線性分類器;進而利用得到的線性投影矩陣對待測 樣本進行嵌入處理與描述,完成聯(lián)合低秩和稀疏主成分特征提取后,再將待測樣本的聯(lián)合 低秩和稀疏主成分特征向線性分類器進行映射,可得到待測樣本的軟類別標簽,通過軟類 別標簽中的最大值對應(yīng)的位置,確定為待測樣本的類別,得到最準確的分類結(jié)果。本發(fā)明公 開的上述技術(shù)方案可被直接的用于誘導(dǎo)式的表示和分類,此外,通過聯(lián)合學(xué)習(xí)得到線性投 影矩陣和線性分類器,可有效減少測試過程的時間復(fù)雜性,因此可有效提升算法的可拓展 性。
[0111] 本發(fā)明提供的上述聯(lián)合魯棒主成分特征學(xué)習(xí)與視覺分類系統(tǒng),還可W包括:
[0112] 訓(xùn)練預(yù)處理模塊,用于對訓(xùn)練樣本集中的訓(xùn)練樣本進行預(yù)處理。
[0113] 本發(fā)明提供的上述聯(lián)合魯棒主成分特征學(xué)習(xí)與視覺分類系統(tǒng),訓(xùn)練模塊可W包 括:
[0114] 訓(xùn)練單元,用于按照下列公式將訓(xùn)練樣本集分解為一個聯(lián)合特征矩陣PX和一個稀 疏錯誤矩陣E:
[0115] 褲苦(]-巧)I放I + a |伴| +71好f -義r盧-叫I" + A||怎I
[0116] s.t.X = PX+E
[0117] 其中,X表示訓(xùn)練樣本集,義= h,x;,...,Xw]e吸"'v,n表示每個訓(xùn)練樣本的維度,N 表示訓(xùn)練樣本的數(shù)量,膠"XW表示nXN的矩陣空間,||HT-XTpTw| ki表示基于魯棒12'1范數(shù)度 量的分類錯誤;QE [0,1]表示用于權(quán)衡低秩主成分特征編碼和稀疏主成分特征編碼的最小 化項;丫表示正的權(quán)衡參數(shù),為了衡量分類錯誤項||HT-XTPTW| |2,1的貢獻程度;A>〇表示依 賴于錯誤或噪音級別的權(quán)衡參數(shù);好=化朵,氣表示與訓(xùn)練樣本的類別對應(yīng)的 初始標簽,C表示訓(xùn)練樣本中包含的類別的個數(shù),吸。XW表示CXN的矩陣空間;MeMi表示稀 疏錯誤項,I I ? I I*表示核范數(shù),I I ? I Ii表示Ii范數(shù),I I ? Iki表示12'1范數(shù)。
[0118] 本發(fā)明提供的上述聯(lián)合魯棒主成分特征學(xué)習(xí)與視覺分類系統(tǒng),投影模塊可W包 括:
[0119] 投影單元,用于將待測樣本向線性投影矩陣進行嵌入,得到對應(yīng)的嵌入結(jié)果即為 待測樣本的聯(lián)合低秩與稀疏主成分特征。
[0120] 對于本發(fā)明實施例公開的上述系統(tǒng)而言,由于其與本發(fā)明實施例公開的方法相對 應(yīng),因此描述的比較簡單,相關(guān)之處參見方法部分說明即可。
[0121] 請參閱表1,W隨機臉作為特征描述子來提取視覺人臉圖像訓(xùn)練樣本與測試樣本 的特征,用于對本發(fā)明提供的上述聯(lián)合魯棒主成分特征學(xué)習(xí)與視覺分類方法及系統(tǒng)進行驗 證,需要說明的是,測試樣本與上述待測樣本的實質(zhì)相同,即為未知其類別的樣本,由于此 處用于測試驗證,因此稱之為測試樣本。
[0122] 本實驗基于兩個真實數(shù)據(jù)集CMU PIE和UMIST的基礎(chǔ)上:CMU PIE臉數(shù)據(jù)庫包含68 個被測試者的41368幅圖片,并且每張圖片具有不同的姿勢、光照強度和表情。UMIST臉數(shù)據(jù) 庫由20個個體(混合種族/性別/外貌)的575張圖片構(gòu)成。本發(fā)明通過合并CMU PIE和UMIST 運兩個數(shù)據(jù)庫創(chuàng)造一個PIE-UMIST新的人臉數(shù)據(jù)集(總共88個個體的2003張圖片),用于實 驗。由于新的人臉圖像數(shù)據(jù)集將包含不同的姿勢/表情和混血種族/性別/外貌的同時,因此 對于人臉描述和識別將更具有挑戰(zhàn)性。
[0123] 在該實施例中,對40%的訓(xùn)練樣本的數(shù)據(jù)值加入了均值為1和方差為100的高斯噪 聲,W此來評估各個算法在訓(xùn)練過程中對噪音的魯棒性。仿真實驗從每個人的圖像中選取 數(shù)值為1(1 = 2,3,4,5)組成訓(xùn)練樣本集,并且采用Ll范式來度量稀疏錯誤項E。表1為本發(fā)明 方法和PCA、IRPCA、PCA-L1、LatLRR、rLRR方法識別結(jié)果對比表,給出了各方法實驗的平均識 別率和最高識別率。本實施例中,參與比較的IRPCA、LatLRR等方法(采用各文獻中算法使用 的默認參數(shù))使用各自得到的投影矩陣用于測試樣本的特征提取。
當(dāng)前第3頁1 2 3 4 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
蒙自县| 嫩江县| 蓝田县| 马山县| 江都市| 博乐市| 介休市| 偃师市| 德州市| 淳化县| 通州市| 乐平市| 全南县| 阜宁县| 呈贡县| 麻城市| 虹口区| 富源县| 琼中| 苏尼特右旗| 通江县| 海盐县| 东源县| 长沙县| 赤壁市| 都昌县| 黄梅县| 桦甸市| 集贤县| 永安市| 射阳县| 石嘴山市| 阳信县| 瓦房店市| 县级市| 句容市| 滨海县| 军事| 卢氏县| 孟津县| 运城市|