本申請涉及人臉圖像自動識別
技術(shù)領(lǐng)域:
,尤其涉及一種人臉識別方法。
背景技術(shù):
:人臉識別,廣泛應(yīng)用在信息安全、公共安全等各個(gè)領(lǐng)域,一直都是計(jì)算機(jī)視覺和模式識別的一個(gè)熱門話題,具有極高的理論研究和應(yīng)用價(jià)值。人臉識別算法主要是從輸入的人臉圖像推導(dǎo)其對應(yīng)的身份信息。一般來講,人臉識別算法主要分為四個(gè)步驟:前處理,體征提取,編碼和分類。圍繞著這四個(gè)環(huán)節(jié),近年來有大量的文獻(xiàn)開展了人臉識別領(lǐng)域的研究工作,并取得了良好的效果。受益于計(jì)算機(jī)視覺的理論發(fā)展,大量的手動設(shè)計(jì)的圖像特征提取方法有了良好的識別性能,使得提取的人臉特征具有更強(qiáng)的穩(wěn)健性。與此同時(shí),利用人臉的結(jié)構(gòu)特性,經(jīng)典的基于子空間學(xué)習(xí)方法如特征臉方法也取得了相當(dāng)好的識別效果,且該類算法計(jì)算量小易于應(yīng)用。盡管一些算法在可控條件下都取得了令人映像深刻的識別性能,然而實(shí)際的人臉圖像具有表情的多模態(tài)性,實(shí)際成像條件的變化性和成像過程噪聲等因素的多樣性,以及實(shí)際應(yīng)用的實(shí)時(shí)性,使得人臉識別算法任然是具有挑戰(zhàn)性的研究方向之一。特別是在復(fù)雜的成像條件下,研究對各種噪聲、遮擋、光照魯棒的高效人臉識別算法,仍然具有重要意義。斯坦福大學(xué)E.Candes教授證明了在一定條件下低秩最小化能夠補(bǔ)全觀測矩陣的缺損值,低秩最小化理論發(fā)展迅速并成功的應(yīng)用到了背景建模、運(yùn)動檢測圖像分割等領(lǐng)域。低秩最小化將觀測圖像分解成干凈的低秩空間和稀疏噪聲空間,低秩空間代表了圖像的結(jié)構(gòu)信息,對噪聲等具有較好的魯棒性。在復(fù)雜的應(yīng)用場景中,光照變化、遮擋和噪聲變化等因素的干擾,使人臉識別性能降低。Du等人提出了一種低秩稀疏表達(dá)的人臉識別算法,將低秩和稀疏表示結(jié)合起來提升分類器對人臉變化的魯棒性,取得了較好的識別率,但低秩和稀疏表達(dá)系數(shù)的計(jì)算復(fù)雜度高。另一方面,傳統(tǒng)的分類算法如最近鄰分類(K-NearestNeighbor),支持向量機(jī)(SVM)等算法效率高,但是識別精度有限,極限學(xué)習(xí)機(jī)(ELM)是由BackPropagationBP神經(jīng)網(wǎng)絡(luò)發(fā)展而來的一種新型單隱層前饋網(wǎng)絡(luò)(SLFNs),該算法訓(xùn)練速度快、泛化能力強(qiáng)日益受到了研究者們的關(guān)注?;谝陨峡紤]提出了一種人臉識別方法,該方法充分結(jié)合低秩矩陣恢復(fù)和極限學(xué)習(xí)機(jī)的優(yōu)點(diǎn),提升了人臉識別算法的魯棒性,同時(shí)降低了時(shí)間開銷。技術(shù)實(shí)現(xiàn)要素:本發(fā)明了提供了一種基于低秩支持的極限學(xué)習(xí)機(jī)魯棒性人臉識別算法,以解決在復(fù)雜的應(yīng)用場景中,由于光照變化、遮擋和噪聲變化等因素的干擾,使人臉識別性能降低的技術(shù)問題。本發(fā)明解決其技術(shù)問題所采用的技術(shù)方案是:本發(fā)明了提供了一種人臉識別方法,所述方法包括:在人臉集合中提取出p張人臉圖像,將所述人臉集合中剩余的圖像分為n類人臉圖像作為訓(xùn)練樣本庫,然后采用所述訓(xùn)練樣本庫中的類別均值信息對所述P張人臉圖像進(jìn)行預(yù)分類;P為正整數(shù),n為正整數(shù);完成預(yù)分類后,將所述P個(gè)人臉圖像中的每張圖像和對應(yīng)類別的圖像合并在一起組成增廣矩陣,將所述增廣矩陣中的人臉圖像利用低秩矩陣恢復(fù)轉(zhuǎn)換為低秩恢復(fù)圖像和稀疏誤差圖像;利用所述訓(xùn)練樣本庫訓(xùn)練極限學(xué)習(xí)機(jī);將所述P個(gè)人臉圖像對應(yīng)的低秩恢復(fù)圖像作為測試樣本庫,利用極限學(xué)習(xí)機(jī)作為標(biāo)準(zhǔn),對所述P個(gè)人臉圖像對應(yīng)的低秩恢復(fù)圖像進(jìn)行人臉識別。優(yōu)選的,所述在人臉集合中提取出p張人臉圖像,將所述人臉集合中剩余的圖像分為n類人臉圖像作為訓(xùn)練樣本庫,包括:基于人臉圖像公式xj∈Rd×1確定出p張人臉圖像,j=1,2,3,...,p;其中,xj表示第j張人臉圖像;Rd×1表示一個(gè)矩陣,dx1表示所述矩陣的大小,d是人臉圖像的大??;確定對應(yīng)的n類人臉圖像,其中,D=[D1,…Di…,Dn]∈Rd×n,D表示n類人臉圖像中所有圖像所組成的集合,D1表示第1類人臉圖像數(shù)據(jù)集,Dn表示第n類人臉圖像數(shù)據(jù)集,表示第i類人臉圖像數(shù)據(jù)集且1<i<n,ni表示第i類人臉圖像數(shù)據(jù)集的樣本個(gè)數(shù)。優(yōu)選的,所述采用所述訓(xùn)練樣本庫中的類別均值信息對所述P張人臉圖像進(jìn)行預(yù)分類,包括:將所述P張人臉圖像中每張人臉圖像和所述訓(xùn)練樣本庫中的類別均值進(jìn)行比較,確定出所述P張人臉圖像中每張人臉圖像的類別,然后將所述P張人臉圖像納入對應(yīng)類別中,以完成所述p張人臉圖像的預(yù)分類。優(yōu)選的,所述將所述P張人臉圖像中每張人臉圖像和所述訓(xùn)練樣本庫中的類別均值進(jìn)行比較,確定出所述P張人臉圖像中每張人臉圖像的類別,然后將所述P張人臉圖像納入對應(yīng)類別中,以完成所述p張人臉圖像的預(yù)分類,包括:對于所述P張人臉圖像中每張人臉圖像,采用訓(xùn)練樣本庫中的類別均值信息進(jìn)行分類,公式如下:確定與第j張人臉圖像xj相似度最高的類別,然后將xj歸入相似度最高的類別中,以完成所述P張人臉圖像的預(yù)分類;其中,ni表示各類別人臉圖像的樣本個(gè)數(shù),Di表示第i類人臉圖像數(shù)據(jù)集。優(yōu)選的,所述將分完類的圖像和已知類別的圖像合并在一起組成一個(gè)增廣矩陣,包括:將所述P個(gè)人臉圖像中的每張人臉圖像xj與對應(yīng)類別的Di合并到一起組成增廣矩陣優(yōu)選的,所述將增廣矩陣中的人臉圖像利用低秩矩陣恢復(fù)轉(zhuǎn)換為低秩恢復(fù)圖像和稀疏誤差圖像,包括:輸入增廣矩陣X,λ,假設(shè)E=0,u>0,通過下述公式獲得L,其中,L為低秩矩陣,所述低秩矩陣中包含的圖像就是低秩恢復(fù)圖像:L=argminL||L||*+tr[YtX-L-E]+u2||X-L-E||F2=argminL1u||L||*+12||L-(1uY+X-E)||F2;]]>求得的L帶入以下公式獲得E,E為稀疏誤差矩陣,所述稀疏誤差矩陣中的圖像就是稀疏誤差圖像:E=argminEλ||E||1+tr[Yt(X-L-E)]+u2||X-L-E||F2=argminLλu||E||*+12||E-(1uY+X-L)||F2;]]>其中λ表示稀疏錯(cuò)誤百分比,Y是拉格朗日乘子向量,tr是矩陣的跡,u為拉格朗日乘算子。優(yōu)選的,所述利用所述訓(xùn)練樣本庫訓(xùn)練極限學(xué)習(xí)機(jī),包括:對所述極限學(xué)習(xí)機(jī)中的節(jié)點(diǎn)個(gè)數(shù)參數(shù)進(jìn)行優(yōu)化設(shè)置;通過隨機(jī)初始化網(wǎng)絡(luò)的輸入權(quán)值以及隱元的偏置,得到隱層輸出矩陣;調(diào)節(jié)神經(jīng)元個(gè)數(shù)使得輸出的誤差最小,確定最優(yōu)的神經(jīng)元個(gè)數(shù),完成所述極限學(xué)習(xí)機(jī)的訓(xùn)練。優(yōu)選的,所述利用所述訓(xùn)練樣本庫訓(xùn)練極限學(xué)習(xí)機(jī),包括:F={(xi,ti)|xi∈Rd,ti∈Rm,i=1,2,…,N},其中xi=(xi1,xi2,…,xid)T∈Rd,ti=(ti1,ti2,...,tim)T∈Rm,F(xiàn)為一個(gè)集合,N表示訓(xùn)練樣本庫的樣本總數(shù),d是表示人臉圖像的大小,m表示訓(xùn)練樣本庫中人臉的類別數(shù),k為極限學(xué)習(xí)機(jī)elm的隱藏節(jié)點(diǎn)數(shù);xi表示訓(xùn)練樣本庫中的人臉圖像,ti表示訓(xùn)練樣本庫中xi對應(yīng)的特征類別;其中,i=1,2,……,N,隱層激勵(lì)函數(shù)為f(x),wj=(wj1,wj2,...,wjd),其中wj是隱含層中的j個(gè)神經(jīng)元和輸入層的特征之間的權(quán)重,βj=(βj1,βj2,...,βjm)T,βj是第j個(gè)神經(jīng)元和輸出層之間的權(quán)值,oi=(oi1,oi2,...,oim)T,oi是第i個(gè)輸入所對應(yīng)的目標(biāo)向量,bj是第j個(gè)隱含層中的偏差,wj·xi表示向量的內(nèi)集;輸出的誤差最小,包括:Σi=1N~||oi-ti||=0.]]>優(yōu)選的,所述輸出的誤差最小,還包括:其中,j=1,2.....,K;或者βTH=T,其中H為隱層節(jié)點(diǎn)的輸出,β為輸出權(quán)重,T為期望輸出;其中,T=[t1,t2,...,tN]m×N。通過本發(fā)明的一個(gè)或者多個(gè)技術(shù)方案,本發(fā)明具有以下有益效果或者優(yōu)點(diǎn):本發(fā)明公開了一種人臉識別方法,在人臉集合中提取出p張人臉圖像,將人臉集合中剩余的圖像分為n類人臉圖像并作為訓(xùn)練樣本庫,采用訓(xùn)練樣本庫中的類別均值信息對P張人臉圖像進(jìn)行預(yù)分類,在分類之后將P個(gè)人臉圖像中的每張圖像和對應(yīng)類別的圖像一并進(jìn)行低秩恢復(fù),獲得低秩恢復(fù)圖像和稀疏誤差圖像,利用低秩矩陣恢復(fù)將存在光照、遮擋和表情變化等噪聲的人臉圖像分解成低秩恢復(fù)圖像和稀疏誤差圖像,實(shí)現(xiàn)人臉魯棒性特征提?。?。依據(jù)低秩圖像的低秩性對噪聲魯棒的原理,利用訓(xùn)練樣本庫訓(xùn)練極限學(xué)習(xí)機(jī),最后將P個(gè)人臉圖像對應(yīng)的低秩恢復(fù)圖像作為測試樣本庫,利用極限學(xué)習(xí)機(jī)作為標(biāo)準(zhǔn),建立P個(gè)人臉圖像和訓(xùn)練之后得到的人臉標(biāo)簽之間的映射關(guān)系,對P個(gè)人臉圖像對應(yīng)的低秩恢復(fù)圖像進(jìn)行人臉識別,不但提升了極限學(xué)習(xí)機(jī)的識別魯棒性,還降低了計(jì)算復(fù)雜度。附圖說明圖1為本發(fā)明實(shí)施例中一種人臉識別方法的實(shí)施過程圖。具體實(shí)施方式為了使本申請所屬
技術(shù)領(lǐng)域:
中的技術(shù)人員更清楚地理解本申請,下面結(jié)合附圖,通過具體實(shí)施例對本申請技術(shù)方案作詳細(xì)描述。在本發(fā)明實(shí)施例中,公開了一種人臉識別方法。S1,在人臉集合中提取出p張人臉圖像,將所述人臉集合中剩余的圖像分為n類人臉圖像作為訓(xùn)練樣本庫,然后采用所述訓(xùn)練樣本庫中的類別均值信息對所述P張人臉圖像進(jìn)行預(yù)分類。P為正整數(shù),n為正整數(shù)。在具體的實(shí)施過程中,首先從人臉集合中獲得P張人臉,P為正整數(shù)。第j張人臉圖像:xj∈Rd×1,j=1,2,3,...,p,即一共有p張人臉。Rd×1表示一個(gè)矩陣,dx1表示所述矩陣的大小,d是人臉圖像的大小,作為一種可選的實(shí)施例,每張圖像大小是相同的,d的值也相同。將人臉集合中剩余的圖像分類,得到n類人臉圖像作為訓(xùn)練樣本庫,n為正整數(shù),每類人臉圖像數(shù)目不定。其中,D=[D1,...Di...,Dn]∈Rd×n。其中,D表示n類人臉圖像中所有圖像所組成的集合。D1表示第1類人臉圖像數(shù)據(jù)集,Dn表示第n類人臉圖像數(shù)據(jù)集。表示第i類人臉圖像數(shù)據(jù)集,1<i<n,ni表示第i類人臉圖像數(shù)據(jù)集的樣本個(gè)數(shù)。其中,l表示訓(xùn)練樣本庫中擁有的樣本數(shù)。作為一種可選的實(shí)施例,采用所述訓(xùn)練樣本庫中的類別均值信息對所述P張人臉圖像進(jìn)行預(yù)分類,包括:將所述P張人臉圖像中每張人臉圖像和所述訓(xùn)練樣本庫中的類別均值進(jìn)行比較,確定出所述P張人臉圖像中每張人臉圖像的類別,然后將所述P張人臉圖像納入對應(yīng)類別中,以完成所述p張人臉圖像的預(yù)分類。具體來說,對于P張人臉圖像中的每張人臉圖像,采用訓(xùn)練樣本庫中的類別均值信息進(jìn)行分類,公式如下:將P張人臉圖像中的每張人臉圖像和訓(xùn)練樣本庫中的類別均值進(jìn)行比較,找到與xj相似度最高的類別,將xj歸入相似度最高的類別中,完成p張人臉圖像的預(yù)分類。其中,ni表示第i類人臉圖像數(shù)據(jù)集的樣本個(gè)數(shù),Di表示第i類人臉圖像數(shù)據(jù)集。S2,完成預(yù)分類后,將所述P個(gè)人臉圖像中的每張圖像和對應(yīng)類別的圖像合并在一起組成增廣矩陣,將增廣矩陣中的人臉圖像利用低秩矩陣恢復(fù)轉(zhuǎn)換為低秩恢復(fù)圖像和稀疏誤差圖像;將所述P個(gè)人臉圖像中的每張人臉圖像xj與對應(yīng)的類別Di合并到一起變成增廣矩陣輸入增廣矩陣X,λ,假設(shè)E=0,u>0,通過低秩矩陣公式獲得L,其中,L為低秩矩陣,所述低秩矩陣中包含的圖像就是低秩恢復(fù)圖像:其中,λ表示稀疏錯(cuò)誤百分比,Y是拉格朗日乘子向量,tr是矩陣的跡,Yt中的t表示轉(zhuǎn)置,u為拉格朗日乘算子。進(jìn)一步的,將求得的L帶入以下稀疏誤差公式獲得E,E為稀疏誤差矩陣,所述稀疏誤差矩陣中的圖像就是稀疏誤差圖像:其中,λ表示稀疏錯(cuò)誤百分比,Y是拉格朗日乘子向量,tr是矩陣的跡,Yt中的t表示轉(zhuǎn)置,u為拉格朗日乘算子。上述兩個(gè)公式是通過以下步驟獲得:首先,可以將將增廣矩陣中的人臉圖像分解成低低秩矩陣和稀疏誤差矩陣之和:其中,||·||*表示矩陣的核范數(shù),即所有奇異值的和,||·||1表示l1范數(shù),即矩陣中所有元素的絕對值,λ表示稀疏錯(cuò)誤的百分比。然后將下述公式5帶入到上述公式4,獲得求解L的低秩矩陣公式和求解E的稀疏誤差公式。其中,P(L,E,Y,u)表示增廣拉格朗日函數(shù),λ表示稀疏錯(cuò)誤百分比,Y是拉格朗日乘子向量,tr是矩陣的跡,u為拉格朗日乘算子。常數(shù)λ用來控制低秩結(jié)構(gòu)項(xiàng)和稀疏誤差項(xiàng)的比例關(guān)系,一般常選用m、n是矩陣X的行數(shù)與列數(shù),Y是拉格朗日乘子向量,tr是矩陣的跡。其中,u=minu*ρ,umax,ρ滿足條件ρ>1來控制u的增長,umax的上限為ρ。S3,利用所述訓(xùn)練樣本庫訓(xùn)練極限學(xué)習(xí)機(jī)。極限學(xué)習(xí)機(jī),是由反向傳播(BP)神經(jīng)網(wǎng)絡(luò)發(fā)展而來的一種新型單隱層前饋網(wǎng)絡(luò),該算法訓(xùn)練速度快、泛化能力強(qiáng),是一種簡單易用、有效的算法。在具體的實(shí)施過程中,訓(xùn)練極限學(xué)習(xí)機(jī)的方法如下:對所述極限學(xué)習(xí)機(jī)中的節(jié)點(diǎn)個(gè)數(shù)參數(shù)進(jìn)行優(yōu)化設(shè)置,通過隨機(jī)初始化網(wǎng)絡(luò)的輸入權(quán)值以及隱元的偏置,得到隱層輸出矩陣。自動調(diào)節(jié)神經(jīng)元個(gè)數(shù)使得輸出的誤差最小,確定最優(yōu)的神經(jīng)元個(gè)數(shù),完成所述極限學(xué)習(xí)機(jī)的訓(xùn)練。在具體的實(shí)施過程中,通過下面的公式對極限學(xué)習(xí)機(jī)進(jìn)行訓(xùn)練。F={(xi,ti)|xi∈Rd,ti∈Rm,i=1,2,...,N}........................公式6其中,F(xiàn)表示一個(gè)集合,xi表示輸入的訓(xùn)練樣本庫中的一張人臉圖像,ti表示訓(xùn)練樣本庫中xi對應(yīng)的特征類別。其中,xi=(xi1,xi2,...,xid)T∈Rd,ti=(ti1,ti2,...,tim)T∈Rm,xi表示xi1,xi2,......,xid的總和。同樣的,ti表示ti1,ti2,......,tim的總和。N表示訓(xùn)練樣本庫中的樣本總數(shù),相當(dāng)于訓(xùn)練樣本庫中的樣本總數(shù)l,d表示人臉圖像的大小,m表示訓(xùn)練樣本庫中人臉的類別數(shù),和上述實(shí)施例中練樣本庫中人臉的類別數(shù)n相同,k為elm(極限學(xué)習(xí)機(jī))的隱藏節(jié)點(diǎn)數(shù)。其中,隱層激勵(lì)函數(shù)為f(x),其代表了訓(xùn)練樣本系數(shù)矩陣和激活函數(shù),隱層神經(jīng)元個(gè)數(shù)的關(guān)系,wj=(wj1,wj2,…,wjd),其中wj是隱含層中的j個(gè)神經(jīng)元和輸入層的特征之間的權(quán)重,βi=(βj1,βj2,…,βjm)T,βi是第i個(gè)神經(jīng)元和輸出層之間的權(quán)值,oi=(oi1,oi2,…,oim)T,oi是第i個(gè)輸入所對應(yīng)的目標(biāo)向量,bj是第i個(gè)隱含層中的偏差,wj·xi表示向量的內(nèi)集。單隱層神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的目的是使得輸出的誤差最小,可以表示為即存在βi,wj,bj,使得其中,j=1,2.....,K。也可以表示為:βTH=T,其中H為隱層節(jié)點(diǎn)的輸出,β為輸出權(quán)重,T為期望輸出。其中,T=[t1,t2,…,tN]m×N。S4,將所述P個(gè)人臉圖像對應(yīng)的低秩恢復(fù)圖像作為測試樣本庫,利用極限學(xué)習(xí)機(jī)作為標(biāo)準(zhǔn),對所述P個(gè)人臉圖像對應(yīng)的低秩恢復(fù)圖像進(jìn)行人臉識別。根據(jù)S3中確定的極限學(xué)習(xí)機(jī)的隱藏節(jié)點(diǎn)數(shù)k(最優(yōu)神經(jīng)元個(gè)數(shù)就是隱藏節(jié)點(diǎn)數(shù))并構(gòu)造相應(yīng)的極限學(xué)習(xí)機(jī)預(yù)測模型,預(yù)測出其對應(yīng)的類別屬性t。相應(yīng)的極限學(xué)習(xí)機(jī)預(yù)測模型為:獲得極限學(xué)習(xí)機(jī)預(yù)測模型,就可以以此計(jì)算出其對應(yīng)的類別屬性t(也即:期望輸出T)。在具體的實(shí)施過程中,為了訓(xùn)練單隱層神經(jīng)網(wǎng)絡(luò),我們希望得到使得:這等價(jià)于最小化損失函數(shù)E:由上可知,一旦輸入權(quán)值wj和隱層偏差bj被隨機(jī)確定,則隱層輸出矩陣H被唯一確定。則我們可以通過公式11隨機(jī)確定輸入權(quán)值wj和隱層偏差bj,然后求出H。輸出權(quán)值由下式得到:H*是矩陣H的Moore-Penrose廣義逆。且可證明求得的解的范數(shù)是最小的并且唯一。測試實(shí)施例。采用AR標(biāo)準(zhǔn)人臉庫,AR人臉數(shù)據(jù)庫包括100個(gè)人共2600張人臉,每個(gè)人有26張圖像,每幅圖大小為160×120像素,有光照、表情和遮擋等的變化。每一類中隨機(jī)選擇6張人臉作為測試樣本,剩余的所有圖像作為樣本訓(xùn)練庫。首先用公式(1)做數(shù)據(jù)準(zhǔn)備,將測試樣本中的6張人臉圖像分類,預(yù)分類后的每張測試人臉和訓(xùn)練樣本中對應(yīng)類別的人臉圖像構(gòu)成新的數(shù)據(jù)集,進(jìn)行低秩恢復(fù)實(shí)驗(yàn),其中設(shè)置稀疏錯(cuò)誤的百分比λ=0.007。實(shí)施例中,將6張人臉圖像中的每張圖像轉(zhuǎn)化為一個(gè)列向量,一張圖片所得的列向量為19200×1,每一類人臉圖像中,將樣本訓(xùn)練庫中的ni張人臉圖像轉(zhuǎn)化為19200×ni的矩陣,并求出平均值,然后將測試樣本中的人臉圖像注意轉(zhuǎn)化為列向量與每一類的平均值進(jìn)行比較,找到最近的一類,完成6張人臉圖像的預(yù)分類。然后再通過公式將6張人臉圖像中每張人臉圖像和對應(yīng)的類別一起作為增廣矩陣,進(jìn)而將6張人臉圖像中的每張人臉圖像各自轉(zhuǎn)換為低秩圖像和稀疏噪聲圖像之和,有效的將存在表情變化和遮擋的噪聲分離。公式7代表了訓(xùn)練樣本系數(shù)矩陣和激活函數(shù),隱層神經(jīng)元個(gè)數(shù)的關(guān)系。隨機(jī)化輸入權(quán)重和隱層偏置后,通過公式12我們可以得到隱層輸出矩陣。根據(jù)公式(8)(9),為了使得輸出的誤差最小,通過自動調(diào)節(jié)神經(jīng)元個(gè)數(shù)得到最優(yōu)值。至此,極限學(xué)習(xí)機(jī)訓(xùn)練完畢,學(xué)習(xí)機(jī)的預(yù)測過程轉(zhuǎn)化為求解線性系統(tǒng)。然后用6張人臉圖像在低秩恢復(fù)后形成的低秩圖像作為測試樣本,提取人臉圖像表達(dá)特征,和極限學(xué)習(xí)機(jī)作比較。利用訓(xùn)練階段獲得的網(wǎng)絡(luò)結(jié)果預(yù)測的類別標(biāo)簽t,得到預(yù)測輸出值。本發(fā)明與其他的人臉識別方法不同,以下提供實(shí)驗(yàn)對比說明本方法的有效性。實(shí)驗(yàn)對比算法為NN(最近鄰)[5]、SVM(支持向量機(jī))[6]、SRC(稀疏表達(dá)分類)[8]方法。實(shí)驗(yàn)通過人臉識別率作為算法標(biāo)準(zhǔn)。實(shí)驗(yàn)結(jié)果對比圖下表所示:表1NNSVMSRC本發(fā)明算法識別率0.48650.9540.8180.989從以上表格明顯看出,與NN、SVM和SRC相比,本發(fā)明算法在識別率上高于其他算法。通過本發(fā)明的一個(gè)或者多個(gè)實(shí)施例,本發(fā)明具有以下有益效果或者優(yōu)點(diǎn):本發(fā)明公開了一種人臉識別方法,先在人臉集合中提取出p張人臉圖像,將所述人臉集合中剩余的圖像分為n類人臉圖像并作為訓(xùn)練樣本庫,然后采用所述訓(xùn)練樣本庫中的類別均值信息對所述P張人臉圖像進(jìn)行預(yù)分類,然后在分類之后將所述P個(gè)人臉圖像中的每張圖像和對應(yīng)類別的圖像一并進(jìn)行低秩恢復(fù),獲得低秩恢復(fù)圖像和稀疏誤差圖像。依據(jù)低秩圖像的低秩性對噪聲魯棒的原理,利用訓(xùn)練樣本庫訓(xùn)練極限學(xué)習(xí)機(jī),最后將所述P個(gè)人臉圖像對應(yīng)的低秩恢復(fù)圖像作為測試樣本庫,利用極限學(xué)習(xí)機(jī)作為標(biāo)準(zhǔn),建立P個(gè)人臉圖像和訓(xùn)練之后得到的人臉標(biāo)簽之間的映射關(guān)系,對所述P個(gè)人臉圖像對應(yīng)的低秩恢復(fù)圖像進(jìn)行人臉識別,不但提升了極限學(xué)習(xí)機(jī)的識別魯棒性,還降低了計(jì)算復(fù)雜度。盡管已描述了本申請的優(yōu)選實(shí)施例,但本領(lǐng)域內(nèi)的普通技術(shù)人員一旦得知了基本創(chuàng)造性概念,則可對這些實(shí)施例作出另外的變更和修改。所以,所附權(quán)利要求意欲解釋為包括優(yōu)選實(shí)施例以及落入本申請范圍的所有變更和修改。顯然,本領(lǐng)域的技術(shù)人員可以對本申請進(jìn)行各種改動和變型而不脫離本申請的精神和范圍。這樣,倘若本申請的這些修改和變型屬于本申請權(quán)利要求及其等同技術(shù)的范圍之內(nèi),則本申請也意圖包含這些改動和變型在內(nèi)。當(dāng)前第1頁1 2 3