欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于聯(lián)合稀疏描述的多姿態(tài)三維人臉識(shí)別方法

文檔序號(hào):6540912閱讀:306來(lái)源:國(guó)知局
基于聯(lián)合稀疏描述的多姿態(tài)三維人臉識(shí)別方法
【專利摘要】本發(fā)明公開(kāi)了一種基于聯(lián)合稀疏描述的多姿態(tài)三維人臉識(shí)別方法,用于解決現(xiàn)有多姿態(tài)三維人臉識(shí)別方法魯棒性差的技術(shù)問(wèn)題。技術(shù)方案是對(duì)數(shù)據(jù)庫(kù)中每一個(gè)三維人臉數(shù)據(jù)的全部頂點(diǎn)順次排列,作為列向量構(gòu)建三維空間聯(lián)合字典。然后,對(duì)給定測(cè)試個(gè)體的多個(gè)視角觀測(cè)值,將其按列排序,合并為一個(gè)矩陣,用關(guān)于三維空間聯(lián)合字典的系數(shù)矩陣進(jìn)行稀疏性描述,并通過(guò)構(gòu)建聯(lián)合稀疏性約束來(lái)實(shí)現(xiàn)對(duì)多姿態(tài)觀測(cè)數(shù)據(jù)的稀疏聯(lián)合求解。最后,基于重建出的稀疏描述矩陣,通過(guò)構(gòu)建一個(gè)強(qiáng)制置零函數(shù),對(duì)所有多姿態(tài)數(shù)據(jù)合并重建殘差,并通過(guò)計(jì)算殘差最小的方法確定測(cè)試數(shù)據(jù)所屬的類別。經(jīng)測(cè)試,對(duì)姿態(tài)變化較大的三維人臉數(shù)據(jù),識(shí)別率由【背景技術(shù)】的89.8%提高到93.4%。
【專利說(shuō)明】基于聯(lián)合稀疏描述的多姿態(tài)三維人臉識(shí)別方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及一種多姿態(tài)三維人臉識(shí)別方法,特別涉及一種基于聯(lián)合稀疏描述的多姿態(tài)三維人臉識(shí)別方法。
【背景技術(shù)】
[0002]在三維人臉識(shí)別的實(shí)際應(yīng)用過(guò)程中,由于人臉姿態(tài)的變化,容易導(dǎo)致獲取的三維數(shù)據(jù)存在遮擋和數(shù)據(jù)缺失,因此會(huì)造成數(shù)據(jù)的不可靠性?;诙嘧藨B(tài)數(shù)據(jù)的三維人臉識(shí)別能夠克服單個(gè)姿態(tài)數(shù)據(jù)受遮擋或數(shù)據(jù)缺失影響,提高識(shí)別系統(tǒng)對(duì)人臉姿態(tài)變化的魯棒性。
[0003]文獻(xiàn)“ Ishimoto M, Yenwei Chen.Pose-robust face recognition based on3Dshape reconstruction.1n:Proceedings of ICNC2009, pp.40-43.” 公開(kāi)了一種多姿態(tài)三維人臉識(shí)別方法。該方法利用三維重建方法將多個(gè)不同姿態(tài)的二維人臉數(shù)據(jù)重建出三維人臉形狀模型,輔助完成人臉識(shí)別。首先,選取反映整體信息的不同姿態(tài)人臉數(shù)據(jù),基于三維重建的方法重建出三維人臉形狀模型;然后,基于構(gòu)造出的三維人臉形狀模型,通過(guò)投影技術(shù)獲取到新的姿態(tài)變化下的人臉數(shù)據(jù);最后,基于構(gòu)建出的多姿態(tài)人臉數(shù)據(jù)完成人臉識(shí)別。但是,該方法存在以下問(wèn)題:首先,該方法中重建出的三維人臉形狀模型受二維人臉數(shù)據(jù)質(zhì)量的影響較大;其次,采用投影技術(shù)獲取到的多姿態(tài)人臉數(shù)據(jù)雖然能夠反映相應(yīng)姿態(tài)變化下的人臉信息,但是由于獲得的多姿態(tài)人臉數(shù)據(jù)均由同一三維人臉形狀模型投影產(chǎn)生,彼此相關(guān)性非常高,對(duì)實(shí)際應(yīng)用中的人臉姿態(tài)變化魯棒性較差。對(duì)姿態(tài)變化較小三維人臉數(shù)據(jù),識(shí)別率為92.9%,對(duì)于姿態(tài)變化較大的三維人臉數(shù)據(jù),識(shí)別率為89.8%。

【發(fā)明內(nèi)容】

[0004]為了克服現(xiàn)有多姿態(tài)三維人臉識(shí)別方法魯棒性差的不足,本發(fā)明提供一種基于聯(lián)合稀疏描述的多姿態(tài)三維人臉識(shí)別方法。該方法對(duì)數(shù)據(jù)庫(kù)中的每一個(gè)三維人臉數(shù)據(jù)的全部頂點(diǎn)順次排列,作為列向量,由此構(gòu)建三維空間聯(lián)合字典。然后,對(duì)給定測(cè)試個(gè)體的多個(gè)視角觀測(cè)值,將其按列排序,合并為一個(gè)矩陣,用關(guān)于三維空間聯(lián)合字典的系數(shù)矩陣進(jìn)行稀疏性描述,并通過(guò)構(gòu)建聯(lián)合稀疏性約束來(lái)實(shí)現(xiàn)對(duì)多姿態(tài)觀測(cè)數(shù)據(jù)的稀疏聯(lián)合求解。最后,基于重建出的稀疏描述矩陣,通過(guò)構(gòu)建一個(gè)強(qiáng)制置零函數(shù),對(duì)所有多姿態(tài)數(shù)據(jù)合并重建殘差,并通過(guò)計(jì)算殘差最小的方法確定測(cè)試數(shù)據(jù)所屬的類別。由于本發(fā)明采用聯(lián)合稀疏描述的思路進(jìn)行多姿態(tài)三維人臉識(shí)別,基于多姿態(tài)觀測(cè)值組成的集合來(lái)進(jìn)行人臉?lè)诸?,能夠利用獲取到的所有姿態(tài)變化觀測(cè)值的相互關(guān)系,避免單獨(dú)對(duì)待每一個(gè)觀測(cè)值時(shí)所潛在的錯(cuò)誤判別風(fēng)險(xiǎn),從而提高對(duì)姿態(tài)變化的魯棒性,實(shí)現(xiàn)了對(duì)多姿態(tài)三維人臉的識(shí)別。
[0005]本發(fā)明解決其技術(shù)問(wèn)題所采用的技術(shù)方案是:一種基于聯(lián)合稀疏描述的多姿態(tài)三維人臉識(shí)別方法,其特點(diǎn)是包括以下步驟:
[0006]第一步、給定一個(gè)三維人臉數(shù)據(jù),將全部頂點(diǎn)順次排列描述網(wǎng)格的拓?fù)溥B接結(jié)構(gòu),作為類字典的列向量。三維人臉數(shù)據(jù)的每一個(gè)頂點(diǎn)都包含三個(gè)參數(shù),列向量的每一個(gè)元素近似一個(gè)結(jié)構(gòu)體,由三個(gè)分量組成。[0007]給定同屬于類別i的Si個(gè)訓(xùn)練人臉數(shù)據(jù),i = 1,2,...,C,表示在數(shù)據(jù)庫(kù)中共有C個(gè)不同類別的人臉數(shù)據(jù);由這些數(shù)據(jù)構(gòu)建的類字典記為Ai,表示為:
【權(quán)利要求】
1.一種基于聯(lián)合稀疏描述的多姿態(tài)三維人臉識(shí)別方法,其特征在于包括以下步驟:第一步、給定一個(gè)三維人臉數(shù)據(jù),將全部頂點(diǎn)順次排列描述網(wǎng)格的拓?fù)溥B接結(jié)構(gòu),作為類字典的列向量; 給定同屬于類別i的Si個(gè)訓(xùn)練人臉數(shù)據(jù),i = 1,2,..., C,表示在數(shù)據(jù)庫(kù)中共有C個(gè)不同類別的人臉數(shù)據(jù);由這些數(shù)據(jù)構(gòu)建的類字典記為Ai,表示為:
【文檔編號(hào)】G06K9/66GK103854015SQ201410100110
【公開(kāi)日】2014年6月11日 申請(qǐng)日期:2014年3月18日 優(yōu)先權(quán)日:2014年3月18日
【發(fā)明者】郭哲, 樊養(yǎng)余, 王毅, 呂國(guó)云, 齊敏 申請(qǐng)人:西北工業(yè)大學(xué)
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
紫云| 木里| 民县| 区。| 孟津县| 邵阳市| 邢台县| 荣昌县| 婺源县| 阜城县| 开封市| 登封市| 招远市| 台前县| 馆陶县| 新竹县| 广西| 禄丰县| 昂仁县| 拜城县| 江门市| 潮安县| 清水河县| 红安县| 讷河市| 若尔盖县| 亳州市| 金川县| 铁岭市| 安义县| 寻乌县| SHOW| 宝坻区| 历史| 文成县| 当涂县| 合水县| 项城市| 民丰县| 射阳县| 那坡县|