專利名稱:一種姿態(tài)魯棒的人臉識(shí)別方法
技術(shù)領(lǐng)域:
本發(fā)明涉及人臉識(shí)別技術(shù)領(lǐng)域,更具體地,本發(fā)明涉及一種姿態(tài)魯棒的人臉識(shí)別方法。
背景技術(shù):
人臉識(shí)別技術(shù)是一種通過計(jì)算機(jī)分析人的臉孔來辨別人體生物特征的識(shí)別技術(shù),其內(nèi)容涵蓋計(jì)算機(jī)視覺、模式識(shí)別、圖形學(xué)和認(rèn)知科學(xué)等多個(gè)學(xué)科。相對(duì)于獲取其他的人體生物特征,由于人臉圖像的獲取可以不需要用戶的主動(dòng)配合,并且認(rèn)知度更強(qiáng),從而在實(shí)際應(yīng)用中人臉圖像獲取的容易程度大大地超過其他人體生物特征的獲取,使得人臉的識(shí)別技術(shù)具有十分廣泛的應(yīng)用前景。
人臉圖像容易獲取的特點(diǎn)在為人臉識(shí)別技術(shù)帶來廣闊應(yīng)用前景的同時(shí)也為圖像采集之后的精確識(shí)別帶來困難。在多數(shù)的應(yīng)用場(chǎng)合中,人臉圖像都是在非嚴(yán)格控制的條件下采集的,使得在圖像中不可避免地存在包含姿態(tài)、光照和表情等方面的變化。這些變化增加了人臉識(shí)別的難度,較大地限制了人臉識(shí)別技術(shù)的應(yīng)用推廣。在這些變化中,姿態(tài)的變化是目前人臉識(shí)別技術(shù)中存在的最大瓶頸之一。由于人臉是三維的物體,當(dāng)姿態(tài)角度不同時(shí),會(huì)在二維圖像上產(chǎn)生復(fù)雜的形變,從而導(dǎo)致嚴(yán)重的誤配準(zhǔn)。這使得目前流行的人臉識(shí)別技術(shù)對(duì)輸入圖像和注冊(cè)圖像的姿態(tài)差異非常敏感。當(dāng)姿態(tài)差異超過一定的程度,人臉識(shí)別的準(zhǔn)確性會(huì)大大降低。
現(xiàn)有技術(shù)中為了從根本上解決姿態(tài)問題,還使用一種三維人臉識(shí)別技術(shù),在三維空間中表征人臉,但是大多數(shù)應(yīng)用情況下所采集的都是二維人臉圖像,該方法的應(yīng)用范圍受限。而且,三維人臉采集設(shè)備價(jià)格非常昂貴,還需要用戶的配合,這些因素使得三維人臉識(shí)別技術(shù)的應(yīng)用受到極大的限制。
發(fā)明內(nèi)容
為了克服現(xiàn)有的人臉識(shí)別技術(shù)對(duì)姿態(tài)差異敏感所導(dǎo)致的識(shí)別性能下降的缺陷,本發(fā)明提供一種姿態(tài)魯棒的人臉識(shí)別方法。
根據(jù)本發(fā)明的一個(gè)方面,提出了一種姿態(tài)魯棒的人臉識(shí)別方法,包括 步驟10)、檢測(cè)輸入人臉圖像的人臉區(qū)域、定位其面部關(guān)鍵特征點(diǎn)并且將所述人臉區(qū)域進(jìn)行歸一化處理; 步驟20)、估計(jì)所述輸入人臉的姿態(tài),獲取所述輸入人臉的姿態(tài)類別; 步驟30)、提取所述歸一化處理后的人臉區(qū)域的特征; 步驟40)、根據(jù)所提取的人臉區(qū)域的特征和基于所述姿態(tài)類別耦合的人臉數(shù)據(jù)利用嶺回歸模型來獲取線性組合系數(shù); 步驟50)、將所述線性組合系數(shù)輸入分類器,獲取人臉識(shí)別的結(jié)果。
其中,步驟40)進(jìn)一步包括 步驟410)、根據(jù)所述姿態(tài)類別選擇對(duì)應(yīng)的耦合人臉數(shù)據(jù); 步驟420)、在所述每一姿態(tài)類別中,用所述耦合的人臉數(shù)據(jù)中的線性組合來表征輸入人臉圖像的特征向量; 步驟430)、根據(jù)下述嶺回歸模型來獲取所述線性組合系數(shù) 其中,λ為正則化常數(shù),I為單位對(duì)角矩陣,X和Y是不同姿態(tài)類別的所述人臉區(qū)域的特征,T為轉(zhuǎn)秩運(yùn)算符,xinput和Yinput分別是對(duì)應(yīng)姿態(tài)類別的輸入人臉圖像的特征向量。
由此,通過應(yīng)用本發(fā)明的基于嶺回歸的姿態(tài)魯棒的人臉識(shí)別方法,較大程度地降低了人臉識(shí)別系統(tǒng)對(duì)姿態(tài)差異的敏感性,在保持較好識(shí)別性能的同時(shí),增強(qiáng)了人臉識(shí)別對(duì)各種應(yīng)用場(chǎng)景的適應(yīng)能力。另外,本發(fā)明所提出的基于嶺回歸的姿態(tài)魯棒人臉識(shí)別方法是基于二維圖像的,對(duì)采集設(shè)備和處理器的計(jì)算性能的要求均比較低,進(jìn)一步降低了設(shè)備成本和功率消耗。
圖1是示出根據(jù)本發(fā)明實(shí)施例的一種姿態(tài)魯棒的人臉識(shí)別方法的流程圖; 圖2是面部特征點(diǎn)檢測(cè)和人臉圖像歸一化效果示意圖; 圖3是面部局部Gabor幅值特征提取的效果示意圖; 圖4是耦合的多姿態(tài)人臉圖像的效果示意圖;和 圖5是本發(fā)明的姿態(tài)魯棒的人臉識(shí)別方法和“特征臉”方法的識(shí)別效果比較圖。
具體實(shí)施例方式 下面結(jié)合附圖和具體實(shí)施例對(duì)本發(fā)明提供的一種姿態(tài)魯棒的人臉識(shí)別方法進(jìn)行詳細(xì)描述。
圖1示出根據(jù)本發(fā)明的實(shí)施例的一種基于嶺回歸的姿態(tài)魯棒的人臉識(shí)別方法的流程。如圖1所示,該方法包括檢測(cè)輸入人臉圖像的人臉區(qū)域、定位其面部特征點(diǎn)并且將人臉區(qū)域進(jìn)行歸一化處理(步驟10);估計(jì)輸入人臉的姿態(tài),獲取輸入人臉的姿態(tài)角度或者姿態(tài)類別(步驟20);提取歸一化處理后的人臉區(qū)域的特征(步驟30);根據(jù)所提取的人臉區(qū)域的特征和基于所獲取的姿態(tài)角度或者姿態(tài)類別耦合的人臉數(shù)據(jù)利用嶺回歸模型來獲取線性組合系數(shù)(步驟40);將所述線性組合系數(shù)輸入分類器,獲取人臉識(shí)別的結(jié)果(步驟50)。
繼續(xù)參考圖1,更詳細(xì)地描述根據(jù)本發(fā)明的實(shí)施例的一種基于嶺回歸的姿態(tài)魯棒的人臉識(shí)別方法。步驟10中,首先對(duì)輸入人臉圖像進(jìn)行預(yù)處理,檢測(cè)輸入人臉圖像的人臉區(qū)域,定位輸入人臉的面部關(guān)鍵特征點(diǎn)并且將人臉區(qū)域進(jìn)行歸一化處理。在一個(gè)實(shí)施例中,首先在原始輸入圖像中檢測(cè)出人臉的位置,提取出一個(gè)粗略的人臉區(qū)域,其中,面部關(guān)鍵特征點(diǎn)包括兩眼的眼睛中心、鼻尖點(diǎn)、嘴角點(diǎn)和眼角點(diǎn)等,這一步驟可以采用基于AdaBoost方法(PaulViola and Michael J.Jones.Robust Real-Time Face Detection.International Journalof Computer Vision,vol.57(2),page 137-154,2004)得到的人臉檢測(cè)器來實(shí)現(xiàn)。
通過輸入人臉圖像的檢測(cè),得到一個(gè)包含人臉的圖像區(qū)域。這樣的圖像區(qū)域中的人臉位置、尺度和平面內(nèi)的角度都不一樣,無法直接用來進(jìn)行識(shí)別。其中,此處人臉位置的概念是指當(dāng)原始圖像是大圖,人臉圖像的檢測(cè)在大圖中得到一個(gè)有人臉的小圖時(shí),人臉是偏左一些還是偏右一些這樣的信息;而尺度是指人臉在圖像中的大小,例如同一個(gè)人在照片A中人臉是100x100像素大小,而在照片B中是10x10大小。正是因?yàn)檫@種不一樣,需要對(duì)人臉區(qū)域進(jìn)行歸一化處理,將人臉區(qū)域歸一化為位置、尺度和平面角度等都一致的矩形圖像區(qū)域。目前人臉圖像的歸一化通?;诙鄠€(gè)面部關(guān)鍵特征點(diǎn)的位置來實(shí)現(xiàn),因此需要首先進(jìn)行面部關(guān)鍵特征點(diǎn)的檢測(cè)。面部關(guān)鍵特征點(diǎn)的檢測(cè)可以通過主動(dòng)輪廓模型、主動(dòng)表觀模型或者類似人臉檢測(cè)的AdaBoost等方法來實(shí)現(xiàn)。本實(shí)施例中采用速度較快的AdaBoost方法來檢測(cè)多個(gè)具有明顯結(jié)構(gòu)特征的面部關(guān)鍵特征點(diǎn),例如眼睛中心點(diǎn)、眼角點(diǎn)和嘴角點(diǎn)。在得到面部關(guān)鍵特征點(diǎn)的位置后,根據(jù)某種規(guī)則將人臉圖像區(qū)域歸一化成一致的位置、尺度和平面內(nèi)角度的矩形區(qū)域。該特定規(guī)則包括歸一化兩眼間距、歸一化嘴眼間距或基于三角剖分的圖像變形等方法。此處以歸一化嘴眼間距為例來說明人臉區(qū)域歸一化的過程。在一個(gè)實(shí)施例中,人臉區(qū)域的平面內(nèi)的旋轉(zhuǎn)角度通過兩眼中心點(diǎn)的直線歸一化;通過兩個(gè)眼睛的中心位置得到大約位于眉心下方的兩眼中間點(diǎn),利用該兩眼中間點(diǎn)歸一化人臉區(qū)域的位置;計(jì)算該兩眼中間點(diǎn)和嘴中心點(diǎn)的距離,通過歸一化這個(gè)距離實(shí)現(xiàn)人臉區(qū)域的尺度歸一化。提取的面部關(guān)鍵特征點(diǎn)和歸一化后的不同姿態(tài)的人臉區(qū)域的一個(gè)實(shí)例效果如圖2所示,在本實(shí)施例中,通過兩個(gè)嘴角點(diǎn)的位置來估算嘴中心的位置。
估計(jì)輸入人臉的姿態(tài),獲取姿態(tài)角度或者姿態(tài)類別(步驟20)。對(duì)于姿態(tài)角度或者姿態(tài)類別,在以下步驟中可以同樣地進(jìn)行處理,例如,姿態(tài)角度是65度,可以將其劃分到60-80度的姿態(tài)類別中。注冊(cè)人臉和輸入人臉的姿態(tài)差異是導(dǎo)致人臉識(shí)別的性能下降的主要影響因素之一。輸入人臉的姿態(tài)估計(jì)通常有兩種方式在第一種方式中,通過用三維人臉模型去擬合輸入人臉圖像,獲取輸入人臉的姿態(tài)角度值;在第二種方式中,將人臉的姿態(tài)劃分成多個(gè)類別,將輸入人臉的姿態(tài)估計(jì)轉(zhuǎn)化為一個(gè)分類問題,獲取姿態(tài)類別的屬性。以下以基于線性判別分析的人臉姿態(tài)類別估計(jì)方法為例來說明姿態(tài)估計(jì)的過程,其中,將人臉姿態(tài)劃分成多個(gè)不同類別,賦予訓(xùn)練集合中的人臉圖像相應(yīng)的類別標(biāo)簽;然后,提取人臉圖像的關(guān)鍵特征點(diǎn),基于上述關(guān)鍵特征點(diǎn)和類別標(biāo)簽通過線性判別分析訓(xùn)練得到一組線性投影基向量;對(duì)于一幅輸入人臉圖像的特征向量,用這樣的投影基向量將其投影到一個(gè)低維的線性子空間中,在這個(gè)子空間中用最近鄰分類器判斷其姿態(tài)類別屬性。
提取歸一化處理后的人臉區(qū)域的特征(步驟30)。這里所指的人臉區(qū)域的特征是指局部人臉特征、全局人臉特征或二者的分組或組合,人臉局部特征是指在面部關(guān)鍵特征點(diǎn)為中心的局部圖像區(qū)域上提取的特征。特征的類型可以是紋理特征、變換特征、直方圖特征或上述特征的組合。在本實(shí)施例中,以分組的人臉局部Gabor小波的特征(即變換特征和局部特征的分組)提取為例,說明人臉特征提取的過程。如圖3所示,左側(cè)特征點(diǎn)對(duì)應(yīng)局部區(qū)域,右側(cè)是在這個(gè)區(qū)域上40個(gè)Gabor濾波器的濾波幅值圖像,把這40個(gè)圖像向量化。由于存在步驟10獲取的多個(gè)面部關(guān)鍵特征點(diǎn),為降低計(jì)算量將每個(gè)面部關(guān)鍵特征點(diǎn)對(duì)應(yīng)的局部特征分為一組。通過Gabor變換來實(shí)現(xiàn)Gabor小波的特征提取。Gabor變換是將Gabor小波和輸入圖像做卷積運(yùn)算。Gabor小波可由公式(1)表示
其中,a,b表示空域中像素的位置,
是徑向中心頻率,θ是Gabor小波的方向,σ是高斯(Gaussian)函數(shù)沿著x軸和y軸的標(biāo)準(zhǔn)差。f(a,b)表示人臉圖像的灰度分布,通過對(duì)圖像做灰度化處理得到。圖像f(a,b)和Gabor小波Ψ(a,b,
θ)的卷積公式為
這里*表示卷積運(yùn)算。在Gabor變換過程中,徑向中心頻率
Gabor小波的方向θ可以有不同的值,也就可以得到不同方向和不同尺度的Gabor小波變換特征。在一個(gè)具體應(yīng)用中,徑向中心頻率
的取值范圍為{0,1,2,3,4},方向θ的取值范圍為{0,1,2,3,4,5,6,7},由此可得到40個(gè)不同的Gabor小波變換特征。圖3進(jìn)一步示出面部局部Gabor小波幅值特征提取效果示意圖。
根據(jù)所提取的人臉區(qū)域的特征和基于所獲取的姿態(tài)角度或者姿態(tài)類別耦合的人臉數(shù)據(jù)利用嶺回歸模型來獲取線性組合系數(shù)(步驟40)。如上文所述,姿態(tài)差異會(huì)導(dǎo)致人臉在二維圖像上產(chǎn)生復(fù)雜的幾何形變,使得直接比對(duì)不同姿態(tài)的人臉圖像變得很困難。如果將人臉的姿態(tài)角度劃分成多個(gè)不同的類別,就可以轉(zhuǎn)化為如何識(shí)別來自不同姿態(tài)類別的人臉。在本發(fā)明的實(shí)施例中,針對(duì)不同的姿態(tài)類別的差異情況,用耦合的人臉數(shù)據(jù)來表征不同姿態(tài)類別的人臉,得到和姿態(tài)無關(guān)的人臉表示。用這樣的人臉表示來間接識(shí)別人臉可以較大程度地降低姿態(tài)差異對(duì)識(shí)別系統(tǒng)的影響。
圖4示出耦合的多姿態(tài)人臉圖像的效果,如圖4所示,耦合的人臉數(shù)據(jù)根據(jù)來自不同姿態(tài)類別但屬于同一人的人臉圖像對(duì)應(yīng)耦合而成。為獲取這種人臉表示,根據(jù)步驟20所獲取的姿態(tài)角度或者姿態(tài)類別選擇對(duì)應(yīng)的耦合人臉數(shù)據(jù),例如,注冊(cè)人臉屬于正面類別,輸入人臉屬于偏左60-80度的類別,假設(shè)數(shù)據(jù)庫中有100個(gè)人,那么對(duì)應(yīng)耦合的人臉數(shù)據(jù)就是這100個(gè)人的正面圖像和偏左60-80度的圖像,總共200張圖像。在每一個(gè)單一的姿態(tài)類別中,一幅輸入人臉圖像的特征向量可以用耦合的人臉數(shù)據(jù)中的線性組合來表征。由于耦合人臉數(shù)據(jù)是由相同的人的人臉構(gòu)成的,對(duì)于來自同一個(gè)人的人臉圖像,在不同姿態(tài)類別下其線性組合系數(shù)可以認(rèn)為是相似的。所以,這樣的線性組合系數(shù)就是一種對(duì)姿態(tài)魯棒的人臉表示。其具體求解過程如下 假設(shè)訓(xùn)練集合中來自n個(gè)人的兩個(gè)不同姿態(tài)類別的耦合的人臉特征為(X,Y)(例如步驟30獲取的Gabor小波變換特征)。其中X={x1,x2,...,xn},Y={y1,y2,...,yn},xi和yi分別是第i個(gè)人的屬于姿態(tài)1和姿態(tài)2的特征向量,i∈{1,2,...,n}。假設(shè)來自姿態(tài)1下的某個(gè)輸入人臉的特征向量為xinput,可以通過訓(xùn)練集合X中的特征向量的線性組合來表征;來自姿態(tài)2下的某個(gè)輸入人臉的特征向量為yinput,可以通過訓(xùn)練集合Y中的特征向量的線性組合來表征,那么可以得到 其中βx和βy分別為對(duì)應(yīng)的線性組合系數(shù)。由于X和Y是用來自相同身份的人的人臉圖像耦合而成的,那么如果xinput和yinput來自同一個(gè)人的話那么βx和βy應(yīng)該很相似?;谶@種相似性,本發(fā)明中通過比對(duì)βx和βy來實(shí)現(xiàn)對(duì)不同姿態(tài)類別的特征向量的間接比對(duì)。通常線性組合系數(shù)βx和βy可以通過線性回歸來獲取。然而這種方式的獲取的線性組合系數(shù)由于復(fù)共線性等問題非常不穩(wěn)定,并不是很好的與姿態(tài)無關(guān)的身份表示。
在本發(fā)明的實(shí)施例中,用嶺回歸模型來獲取線性組合系數(shù)βx和βy,解決線性回歸系數(shù)的不穩(wěn)定問題。嶺回歸是一種具有收縮特性的求解線性組合系數(shù)的方法,可以有效控制線性組合系數(shù)的方差。用嶺回歸模型估計(jì)線性組合系數(shù)的具體方法為 其中λ為一個(gè)正則化的常數(shù),I為單位對(duì)角矩陣。T表示轉(zhuǎn)秩運(yùn)算符,(-1是逆矩陣運(yùn)算符。如果在步驟30)中對(duì)特征進(jìn)行過分組,則對(duì)每一組特征求解線性組合系數(shù)。
將所述線性組合系數(shù)輸入分類器,得到人臉識(shí)別的結(jié)果(步驟50)。而分類器可以是單一的分類器,也可以是多個(gè)分類器的組合。如本領(lǐng)域內(nèi)公知的,分類器的融合采用投票法、最大規(guī)則法、最小規(guī)則法或線性組合法來實(shí)現(xiàn)。由于在步驟30中采用了分組的特征,對(duì)每一組特征可以設(shè)計(jì)一個(gè)獨(dú)立的分類器,在本實(shí)施例中,對(duì)應(yīng)于5個(gè)面部關(guān)鍵特征點(diǎn),將特征分為5組,每一組對(duì)應(yīng)一個(gè)分類器。將多個(gè)分類器的輸出結(jié)果進(jìn)行融合得到最終的識(shí)別結(jié)果。
本實(shí)施例中以基于加法原則的貝葉斯后驗(yàn)概率法為例,來說明多分類器融合的過程。在步驟40中,對(duì)于每一組特征,輸入人臉和注冊(cè)人臉對(duì)應(yīng)的特征向量可以表征為線性組合系數(shù),這里用βx和βy分別表示它們。βx和βy之間的相似性可以通過歐式距離馬氏距離相關(guān)系數(shù)等方式度量。本實(shí)施例中選擇相關(guān)系數(shù)(correlation)來度量βx和βy的相似性。
其中,·表示點(diǎn)積,‖β‖表示取β的模,相關(guān)系數(shù)越大,則表明相似度越高。
假設(shè)檢測(cè)k組特征,每一組特征對(duì)應(yīng)一個(gè)分類器,共計(jì)k個(gè)分類器,可以得到k個(gè)相似性值。假設(shè)某個(gè)分類器輸出的相似性值為si,如果si服從高斯分布,則si對(duì)應(yīng)的屬于同一個(gè)人的概率和不同人的概率可通過公式(6)來表示。
其中,μisame和μidif、σisame和σidif分別表示屬于同一人和不同人的高斯分布的均值和標(biāo)準(zhǔn)差。P(si|same)和P(si|dif)分別代表si屬于同一人和不同人的條件概率密度。而si屬于同一人的后驗(yàn)概率可以用公式(7)來表示。
其中,P(same)和P(dif)表示si屬于同一人和不同人的先驗(yàn)概率,一般情況下可以假設(shè)二者相等。而P(same|si)表示si屬于同一人的后驗(yàn)概率。對(duì)k個(gè)分類器,最終的總體相似度可以通過采取加法原則將不同的si對(duì)應(yīng)的后驗(yàn)概率累加起來得到。
Stotal表示融合多個(gè)分類器結(jié)果后最終的總體相似度,依據(jù)最近鄰分類器,輸入人臉的身份將會(huì)被識(shí)別為與其Stotal值最大的那一個(gè)人。
相對(duì)于目前流行的人臉識(shí)別方法,本發(fā)明所提出的基于嶺回歸的姿態(tài)魯棒人臉識(shí)別方法具有良好的姿態(tài)魯棒性。圖5為本發(fā)明的姿態(tài)魯棒的人臉識(shí)別方法和“特征臉”方法在FERET人臉數(shù)據(jù)庫的多姿態(tài)測(cè)試集上的性能比較的識(shí)別效果比較圖。在圖5中,深色柱體代表本發(fā)明的基于嶺回歸的姿態(tài)魯棒人臉識(shí)別方法,淺色柱體代表“特征臉”方法,F(xiàn)ERET數(shù)據(jù)庫的多姿態(tài)測(cè)試集合包含了9個(gè)不同的姿態(tài)類別。設(shè)定注冊(cè)人臉圖像的姿態(tài)為正面,其余的8個(gè)姿態(tài)類別作為輸入的測(cè)試圖像。實(shí)驗(yàn)中選用了如圖2所示的5個(gè)面部關(guān)鍵特征點(diǎn)。如圖5所示,可以看到本發(fā)明所提出的方法相較作為基準(zhǔn)測(cè)試的“特征臉”方法性能有非常明顯的提升。這一實(shí)驗(yàn)結(jié)果正面本發(fā)明所提出的基于嶺回歸的姿態(tài)魯棒人臉識(shí)別方法對(duì)姿態(tài)差異具有良好的魯棒性。
綜上所述,雖然姿態(tài)變化導(dǎo)致的復(fù)雜形變使得使用直接的二維圖像進(jìn)行比對(duì)變得非常不可靠,但通過對(duì)耦合的多姿態(tài)人臉圖像進(jìn)行統(tǒng)計(jì)學(xué)習(xí)可以實(shí)現(xiàn)間接的比對(duì),可以在避免三維人臉識(shí)別的各種缺點(diǎn)的同時(shí)提高人臉識(shí)別技術(shù)對(duì)姿態(tài)變化的魯棒性。本發(fā)明所提出的一種基于二維圖像的對(duì)姿態(tài)變化魯棒的人臉識(shí)別方法的核心是基于嶺回歸統(tǒng)計(jì)模型在耦合的多姿態(tài)人臉圖像上訓(xùn)練而得到的分類器,這種分類器可實(shí)現(xiàn)不同姿態(tài)人臉圖像的間接身份比對(duì),從而降低了自動(dòng)人臉識(shí)別系統(tǒng)對(duì)姿態(tài)差異的敏感性。
最后應(yīng)說明的是,以上實(shí)施例僅用以描述本發(fā)明的技術(shù)方案而不是對(duì)本技術(shù)方法進(jìn)行限制,本發(fā)明在應(yīng)用上可以延伸為其他的修改、變化、應(yīng)用和實(shí)施例,并且因此認(rèn)為所有這樣的修改、變化、應(yīng)用、實(shí)施例都在本發(fā)明的精神和教導(dǎo)范圍內(nèi)。
權(quán)利要求
1.一種姿態(tài)魯棒的人臉識(shí)別方法,包括
步驟10)、檢測(cè)輸入人臉圖像的人臉區(qū)域、定位其面部關(guān)鍵特征點(diǎn)并且將所述人臉區(qū)域進(jìn)行歸一化處理;
步驟20)、估計(jì)所述輸入人臉的姿態(tài),獲取所述輸入人臉的姿態(tài)類別;
步驟30)、提取所述歸一化處理后的人臉區(qū)域的特征;
步驟40)、根據(jù)所提取的人臉區(qū)域的特征和基于所述姿態(tài)類別耦合的人臉數(shù)據(jù)利用嶺回歸模型來獲取線性組合系數(shù);
步驟50)、將所述線性組合系數(shù)輸入分類器,獲取人臉識(shí)別的結(jié)果。
2.權(quán)利要求1的方法,其中,步驟40)進(jìn)一步包括
步驟410)、根據(jù)所述姿態(tài)類別選擇對(duì)應(yīng)的耦合人臉數(shù)據(jù);
步驟420)、在所述每一姿態(tài)類別中,用所述耦合的人臉數(shù)據(jù)中的線性組合來表征輸入人臉圖像的特征向量;
步驟430)、基于所述耦合人臉數(shù)據(jù)和所述人臉區(qū)域的特征,根據(jù)嶺回歸模型來獲取所述線性組合系數(shù)。
3.權(quán)利要求2的方法,其中,步驟430)進(jìn)一步包括如下應(yīng)用所述嶺回歸模型來獲取所述線性組合系統(tǒng)
其中,λ為正則化常數(shù),I為單位對(duì)角矩陣,X和Y是不同姿態(tài)類別的所述人臉區(qū)域的特征,T為轉(zhuǎn)秩運(yùn)算符,xinput和
分別是對(duì)應(yīng)姿態(tài)類別的輸入人臉圖像的特征向量。
4.權(quán)利要求1的方法,其中,步驟10)進(jìn)一步包括
步驟110)、檢測(cè)原始輸入圖像中的人臉的位置,提取出粗略的人臉區(qū)域;
步驟120)、定位諸如兩眼的眼睛中心、鼻尖點(diǎn)、嘴角點(diǎn)和眼角點(diǎn)的面部關(guān)鍵特征點(diǎn);
步驟130)、將人臉區(qū)域歸一化為位置、尺度和平面角度一致的矩形圖像區(qū)域。
5.權(quán)利要求4的方法,其中,步驟130)還包括基于諸如歸一化兩眼間距、歸一化嘴眼間距或基于三角剖分的圖像變形的規(guī)則,將人臉區(qū)域歸一化為位置、尺度和平面角度一致的矩形圖像區(qū)域。
6.權(quán)利要求1的方法,其中,步驟20)還包括通過獲取輸入人臉的姿態(tài)角度來確定姿態(tài)類別,其中使用三維人臉模型擬合輸入人臉的圖像,獲取輸入人臉的姿態(tài)角度值。
7.權(quán)利要求1的方法,其中,步驟20)進(jìn)一步包括
步驟210)、將人臉姿態(tài)劃分成多個(gè)不同類別,賦予訓(xùn)練集合中的人臉圖像相應(yīng)的類別標(biāo)簽;
步驟220)、提取人臉圖像的關(guān)鍵特征點(diǎn),根據(jù)所述關(guān)鍵特征點(diǎn)和所述類別標(biāo)簽通過線性判別分析訓(xùn)練得到一組線性投影基向量;
步驟230)、對(duì)于輸入人臉圖像的特征向量,使用所述投影基向量投影到低維的線性子空間中,在所述子空間中用最近鄰分類器判斷姿態(tài)類別的屬性。
8.權(quán)利要求1的方法,其中,步驟30)中,所述人臉區(qū)域的特征包括人臉局部特征、人臉全局特征或二者的分組或組合,所述人臉局部特征是指在所述面部關(guān)鍵特征點(diǎn)為中心的局部圖像區(qū)域上提取的特征;其中所述特征是紋理特征、變換特征、直方圖特征或上述特征的組合。
9.權(quán)利要求1的方法,其中,步驟50)中,所述分類器是單一的分類器,或者是多個(gè)分類器的組合。
10.權(quán)利要求1的方法,其中,步驟50)還包括通過投票法、最大規(guī)則法、最小規(guī)則法或線性組合法來實(shí)現(xiàn)分類器的融合,將多個(gè)分類器的輸出結(jié)果進(jìn)行融合來獲取最終的識(shí)別結(jié)果。
全文摘要
本發(fā)明提供一種姿態(tài)魯棒的人臉識(shí)別方法,該方法包括檢測(cè)輸入人臉圖像的人臉區(qū)域、定位其面部關(guān)鍵特征點(diǎn)并且將人臉區(qū)域進(jìn)行歸一化處理;估計(jì)輸入人臉的姿態(tài),獲取輸入人臉的姿態(tài)類別;提取歸一化處理后的人臉區(qū)域的特征;根據(jù)所提取的人臉區(qū)域的特征和基于所述姿態(tài)類別耦合的人臉數(shù)據(jù)利用嶺回歸模型來獲取線性組合系數(shù);將線性組合系數(shù)輸入分類器,獲取人臉識(shí)別的結(jié)果。通過應(yīng)用本發(fā)明,降低了人臉識(shí)別對(duì)姿態(tài)差異的敏感性,在保持較好識(shí)別性能的同時(shí),增強(qiáng)了人臉識(shí)別對(duì)各種應(yīng)用場(chǎng)景的適應(yīng)能力。
文檔編號(hào)G06K9/46GK101763503SQ20091024427
公開日2010年6月30日 申請(qǐng)日期2009年12月30日 優(yōu)先權(quán)日2009年12月30日
發(fā)明者李安南, 山世光, 陳熙霖 申請(qǐng)人:中國科學(xué)院計(jì)算技術(shù)研究所