專利名稱:一種基于sift特征的眉毛識別方法
技術(shù)領(lǐng)域:
本發(fā)明涉及一種基于SIFT特征的眉毛識別方法,涉及數(shù)字圖像處理應(yīng)用領(lǐng)域。
背景技術(shù):
眉毛是人臉識別中重要的特征,相比于人臉其它特征,具有更好的穩(wěn)定性和差異性,但通常受到光照、姿態(tài)等因素的影響。專利《基于眉毛識別的身份鑒別方法》(公開號1645406)使用眉毛各個像素的RGB顏色分量差為識別依據(jù)。該方法受光照及姿態(tài)的影響較大,特別是側(cè)光條件下,識別效果較
差。 專利《基于子區(qū)域匹配的眉毛圖像識別方法》(公開號101901353A)手工選取每個用戶的純眉毛圖像,作為每個用戶的模板,使用待識別眉毛圖像依次與已保存的眉毛模板進(jìn)行卷積運算,得到相似度后進(jìn)行識別。該方法雖然可以降低光照以及姿態(tài)的部分影響,但手工選取純眉毛圖像的過程極為復(fù)雜繁瑣。
發(fā)明內(nèi)容
本發(fā)明為了克服上述技術(shù)問題的缺點,提供了一種可有效降低光照、姿態(tài)變化影響的基于SIFT特征的眉毛識別方法。本發(fā)明的基于SIFT特征的眉毛識別方法,其特別之處在于,包括以下步驟a).采集人臉照片,編制容量為I =馬+夂2+…+&Γ的人臉照片庫,其中N是人臉庫中人的數(shù)目,Xi表示第I個人在不同拍攝條件下的人臉照片,其中0<ι彡N;b).選取眉毛區(qū)域2,選取人臉照片f的眉毛區(qū)域2,利用其作為人臉照片相似度計算的區(qū)域;c).劃分子區(qū)域,將眉毛區(qū)域j劃分為If個子區(qū)域,子區(qū)域用為表示;不同子區(qū)域之間的交集可以為空,也可以不為空;為標(biāo)示4區(qū)域的第!個子區(qū)域,O < j ^ Μ ;d).獲取SIFT特征矩陣,利用SIFT算法獲取眉毛區(qū)域A的M個子區(qū)域的SIFT特征矩陣w) , 表示區(qū)域A的第〗個子區(qū)域提取的特征點數(shù)目-表示SIFT特征矩陣的維數(shù);為(m』,w)表示行數(shù)為I 』、列數(shù)為的矩陣;e).計算兩張人臉照片的相似度,對于兩張人臉照片P1和P2,均按照步驟b)、c)和d)分別獲取SIFT特征矩陣w)和w);計算對應(yīng)子區(qū)域的矩陣碼(mj,w)與32/^』,w)任意兩行之間的相似度,將所有的相似度值構(gòu)成矩陣CjCmf η;),并定義Sj = Max (Cj) , Sj表示照片ρι與ρ2對應(yīng)第j個子區(qū)域的相似度,其大小取矩陣Cpnf η;)中所有元素的最大值;f).統(tǒng)計相似度的概率分布,以兩兩照片眉毛區(qū)域j的子區(qū)域的相似度為樣本,統(tǒng)計眉毛各個子區(qū)域的相似度A在是同一個人眉毛和不是同一個人眉毛時的概率分布;g).計算兩對比圖像眉毛區(qū)域的相似概率POame),按照步驟b)、c)、d)和e)計算出兩待對比圖像的M個子區(qū)域的相似度^、S1、…、& ,通過步驟f中的概率分布獲取P(Sjjsame)和),-P(^Isame)表示對應(yīng)第j個子區(qū)域是同一個人的眉毛時,相似度為Si的概率值;β(^| )表示對應(yīng)第j個子區(qū)域不是同一個人的眉毛時,
相似度為3的概率值,O;依據(jù)貝葉斯公式得到在各個相似度下,兩對比圖像為同
一個人眉毛的概率
P(same) = CjP(S1Jsame) xP(S2 |same)x ■ ■ ■ x P(Sjjsame))/
Cets1Idff) Xgts2 |dff) X... X ecsjdff));
根據(jù)獲取的兩對比圖像為同一個人眉毛的概率值,即可判斷兩對比圖像是否出自同一個人。步驟e)中,對應(yīng)子區(qū)域應(yīng)是兩圖像的眉毛區(qū)域按照相同的子區(qū)域劃分方法,所獲取的相對應(yīng)的部分,只有相對應(yīng)的部分才具有計算相似度的意義和必要。該步驟中,
由于A = (cP ,計算w〕與』2j(nf W)任意兩行之間的相似度獲取的矩陣Cfjnj, nj)中,無論元素怎樣排列,都不會影響相似度數(shù)值的大小。步驟f)中,以相似度為樣本來獲取$在是同一個人眉毛和不是同一個人眉毛時的概率分布;這樣,在步驟g)
中,通過步驟f)中獲取的概率分布函數(shù)即可計算出巧#■)和0內(nèi)|·)的數(shù)值。步驟
g)中可設(shè)定閥值,當(dāng)獲取的兩對比圖像為同一個人眉毛的相似概率值大于設(shè)定閥值時,認(rèn)為兩圖像出自同一人;如果小于設(shè)定閥值時,認(rèn)為兩圖像不是同一人的圖像。本發(fā)明的基于SIFT特征的眉毛識別方法,步驟b)中選取的眉毛區(qū)域2為左眉毛區(qū)域、右眉毛區(qū)域或全部眉毛區(qū)域,設(shè)選取的眉毛區(qū)域J的寬度、高度分別為B7、Zf,其包括以下步驟b-l).定位瞳孔位置,采用瞳孔定位方法定位人臉照片『的瞳孔位置,以兩瞳孔之間的連線為X軸建立平面直角坐標(biāo)系,設(shè)左、右瞳孔的坐標(biāo)分別為jl)、S2(x2’ y2);b-2).求取瞳孔間距,根據(jù)公式d = Λ求取兩瞳孔之間的距離山-3).若區(qū)域J為左眉毛區(qū)域時,則選取的眉毛區(qū)域』的寬度 Τ = mxd ,高度/f = nxd , ^區(qū)域中心點坐標(biāo)為O〗,.vl + qxd);若區(qū)域』力右眉毛區(qū)域時,則選取的眉毛區(qū)域j的寬度iT = m xd,高度Zf = Ii xd, 2區(qū)域中心點坐標(biāo)為02,j2 + qxd);若區(qū)域J為全部眉毛區(qū)域時,則選取的眉毛區(qū)域2的寬度W = pxd,高度/f = nxd, J區(qū)域中心點坐標(biāo)為(xl + d/2,(yI + y2)/2 + qxd);其中,《、n、P、分均為常數(shù)。其中,w=0.625、B =0.391、P =1·563、* =0.281。本發(fā)明的基于SIFT特征的眉毛識別方法,所述步驟e)中對應(yīng)子區(qū)域的矩陣ZljGnf w)與22/4 w)任意兩行之間相似度的計算方法為歐式距離、馬氏距離或向量內(nèi)積算法。歐式距離、馬氏距離或向量內(nèi)積均為現(xiàn)有 計算相似度的方法。
本發(fā)明的基于SIFT特征的眉毛識別方法,步驟f)中統(tǒng)計相似度的概率分布為離散模型或連續(xù)模型;在為離散模型的情形下,通過統(tǒng)計各個相似度值落在各數(shù)值區(qū)間的概率值來獲得;在為連續(xù)模型的情形下,使用混合高斯概率建模,擬合形成概率密度函數(shù)。本發(fā)明的基于SIFT特征的眉毛識別方法,所述步驟a)中容量X =2000 IT =200,
Xi =10 ;所述不同拍攝條件是指不同姿態(tài)、不同光照。本發(fā)明的有益效果是本發(fā)明的基于SIFT特征的眉毛識別方法,首先建立若干人不同拍攝條件下的人臉照片庫,將眉毛區(qū)域劃分成子區(qū)域并采用SIFT特征矩陣計算兩兩照片子區(qū)域的相似度,再以相似度為樣本建立是同一個人眉毛和不是同一個人眉毛時的概率分布;最后,依據(jù)貝葉斯公式可得到兩對比圖像為同一個人眉毛的概率,通過概率大小即可判斷兩圖像是否出自同一人。尺度不變特征變換SIFT算法,適用于剛性物體的特征描述和特征匹配中,具有對 圖像的旋轉(zhuǎn)、尺度變化保持不變的特性。使用SIFT特征進(jìn)行眉毛識別,可有效地降低光照、姿態(tài)變化的影響,且不需要人工參與。
圖1為眉毛各子區(qū)域的相似度S在是同一個人眉毛時的概率分布;
圖2為眉毛各子區(qū)域的相似度g在不是同一個人眉毛時的概率分布。
具體實施例方式下面結(jié)合附圖與實施例對本發(fā)明作進(jìn)一步說明。本發(fā)明的基于SIFT特征的眉毛識別方法,包括以下步驟
a)·米集人臉照片,編制各量為I = + ^2 +' " + 的人臉照片庫,其中N是人臉庫
中人的數(shù)目,Xi表示第t個人在不同拍攝條件下的人臉照片,其中O SiT
該步驟a)中容量X可以選取為2000 IT =200,Xi =10 ;所述的不同拍攝條件是指不同姿態(tài)、不同光照;
b).選取眉毛區(qū)域3,選取人臉照片r的眉毛區(qū)域2,利用其作為人臉照片相似度計算的區(qū)域;
該步驟b)中選取的眉毛區(qū)域J可以為左眉毛區(qū)域、右眉毛區(qū)域或全部眉毛區(qū)域,設(shè)選取的眉毛區(qū)域2的寬度、高度分別為,、丑,其包括以下步驟
b-Ι).定位瞳孔位置,采用瞳孔定位方法定位人臉照片P的瞳孔位置,以兩瞳孔之間的連線為軸建立平面直角坐標(biāo)系,設(shè)左、右瞳孔的坐標(biāo)分別為抑>1,> )y2);b-2).求取瞳孔間距,根據(jù)公式d = dl,求取兩瞳孔之間的距離;b-3).若區(qū)域J為左眉毛區(qū)域時,則選取的眉毛區(qū)域』的寬度JF = m xd,高度Zf = n xd,,4區(qū)域中心點坐標(biāo)為01,^1 + qxd);若區(qū)域2為右眉毛區(qū)域時,則選取的眉毛區(qū)域2的寬度= mxd ,高度//=nxd , J區(qū)域中心點坐標(biāo)為02,y2 + qxd);若區(qū)域』為全部眉毛區(qū)域時,則選取的眉毛區(qū)域J的寬度W = PXd ,高度Zi=HXd, J區(qū)域中心點坐標(biāo)為(xl + d/2,(yl + y2)/2+qxd).
其中,w、《、?均為常數(shù);特別地》=0.625、《 =0.391、P =1. 563, =0.281。c).劃分子區(qū)域,將眉毛區(qū)域J劃分力Y個子區(qū)域,子區(qū)域用為表示;不同子區(qū)
域之間的交集可以為空,也可以不為空;竓標(biāo)示4區(qū)域的第J個子區(qū)域,0<j彡髮;
d).獲取SIFT特征矩陣,利用SIFT算法獲取眉毛區(qū)域J的Jf個子區(qū)域的SIFT特征矩陣為Cmji w),mj表示區(qū)域A的第」個子區(qū)域提取的特征點數(shù)目,w表示SIFT特征矩陣的
維數(shù);4(rnj,w)表示行數(shù)為m,列數(shù)為V的矩陣; e).計算兩張人臉照片的相似度,對于兩張人臉照片H和P2,均按照步驟b)、c)和d)分別獲取SIFT特征矩陣』w) A2j(rif w);計算對應(yīng)子區(qū)域的矩陣w)
與』2』(η』,w)任意兩行之間的相似度,將所有的相似度值構(gòu)成矩陣Cfmf η),并定
義A = Jfe (Ci) , Si表示照片η與P2對應(yīng)第j個子區(qū)域的相似度,其大小取矩陣
CfjOnj. η P中所有元素的最大值;
該步驟e)中,對應(yīng)子區(qū)域的矩陣冉Uf w)與AjGif w)任意兩行之間相似度的計
算方法為歐式距離、馬氏距離或向量內(nèi)積算法;
f).統(tǒng)計相似度的概率分布,以兩兩照片眉毛區(qū)域2的子區(qū)域的相似度為樣本,統(tǒng)計眉毛各個子區(qū)域的相似度在是同一個人眉毛和不是同一個人眉毛時的概率分布;
該步驟f)中,統(tǒng)計相似度的概率分布為離散模型或連續(xù)模型;在為離散模型的情形下,通過統(tǒng)計各個相似度值落在各數(shù)值區(qū)間的概率值來獲得;在為連續(xù)模型的情形下,使用
混合高斯概率建模,擬合形成概率密度函數(shù);如圖1和圖2所示,分別給出了相似度在是
同一個人眉毛和不是同一個人眉毛時的概率分布擬合形成概率密度函數(shù)圖像;
g).計算兩對比圖像眉毛區(qū)域的相似概率P(same),按照步驟b)、c)、d)和e)計算
出兩待對比圖像的M個子區(qū)域的相似度S1、S1、…、Si,通過步驟f中的概率分布獲取F(^jIsame)和) , PC^same)表示對應(yīng)第』個子區(qū)域是同一個人的眉毛時,相似度
為的概率值;表示對應(yīng)第』個子區(qū)域不是同一個人的眉毛時,相似度為S1j的概
率值,O <j SM ;依據(jù)貝葉斯公式得到在各個相似度下,兩對比圖像為同一個人眉毛的概率
P(same ) = (KS1 |satne) xP(S2 [same) x..' x P(Sj |sarne).J /
C ^(S1Idaff) X Q(S2 |diff) X... X ^(Sj |dff ));
根據(jù)獲取的兩對比圖像為同一個人眉毛的概率值,即可判斷兩對比圖像是否出自同一個人。
權(quán)利要求
1.一種基于SIFT特征的眉毛識別方法,其特征在于,包括以下步驟a).采集人臉照片,編制容量為X=石+ 12+…&的人臉照片庫,其中U是人臉庫中人的數(shù)目,Xi表示第i個人在不同拍攝條件下的人臉照片,其中O <i SN ;b).選取眉毛區(qū)域d,選取人臉照片的眉毛區(qū)域2,利用其作為人臉照片相似度計算的區(qū)域;c).劃分子區(qū)域,將眉毛區(qū)域j劃分為I個子區(qū)域,子區(qū)域用A表示;不同子區(qū)域之間的交集可以為空,也可以不為空;竓標(biāo)示A區(qū)域的第!'個子區(qū)域,O < J彡M ;d).獲取SIFT特征矩陣,利用SIFT算法獲取眉毛區(qū)域J的i/個子區(qū)域的SIFT特征矩陣AjCmy w),Mj表示區(qū)域A的第」個子區(qū)域提取的特征點數(shù)目,w表示SIFT特征矩陣的維數(shù);4(mf w)表示行數(shù)為」列數(shù)為、日^矩陣;e).計算兩張人臉照片的相似度,對于兩張人臉照片P!和P2,均按照步驟b)、c)和d) 分別獲取SIFT特征矩陣碼〔irij,w)和dZjUj,w);計算對應(yīng)子區(qū)域的矩陣HjCmj, w)與J2jCnf w)任意兩行之間的相似度,將所有的相似度值構(gòu)成矩陣η),并定義Sj = Max (Cj) , Sj表示照片P1與Ρ2對應(yīng)第j個子區(qū)域的相似度,其大小取矩陣c(mf nP中所有元素的最大值;f).統(tǒng)計相似度的概率分布,以兩兩照片眉毛區(qū)域J的子區(qū)域的相似度為樣本,統(tǒng)計眉毛各個子區(qū)域的相似度A在是同一個人眉毛和不是同一個人眉毛時的概率分布;g).計算兩對比圖像眉毛區(qū)域的相似概率八same),按照步驟b)、c)、d)和e)計算出兩待對比圖像的M個子區(qū)域的相似度S1、S1、…、Si,通過步驟f中的概率分布獲取 P(^jIsame)和) , i^S^same)表示對應(yīng)第〗個子區(qū)域是同一個人的眉毛時,相似度為Si的概率值;QiS^M )表示對應(yīng)第』個子區(qū)域不是同一個人的眉毛時,相似度為Si的概率值,O <」< 〗依據(jù)貝葉斯公式得到在各個相似度下,兩對比圖像為同一個人眉毛的概率
2.根據(jù)權(quán)利要求1所述的基于SIFT特征的眉毛識別方法,其特征在于,步驟b)中選取的眉毛區(qū)域d為左眉毛區(qū)域、右眉毛區(qū)域或全部眉毛區(qū)域,設(shè)選取的眉毛區(qū)域J的寬度、高度分別為w、h,其包括以下步驟b-1).定位瞳孔位置,采用瞳孔定位方法定位人臉照片P的瞳孔位置,以兩瞳孔之間的連線為JT軸建立平面直角坐標(biāo)系,設(shè)左、右瞳孔的坐標(biāo)分別為/I)、Kx2, ^2); b-2).求取瞳孔間距,根據(jù)公式d=x2'd,求取兩瞳孔之間的距離; b-3).若區(qū)域2為左眉毛區(qū)域時,則選取的眉毛區(qū)域J的寬度= m xd,高度 /f = nxd,2區(qū)域中心點坐標(biāo)為(H,.yl + qxd);若區(qū)域2為右眉毛區(qū)域時,則選取的眉毛區(qū)域』4的寬度釅=rn Xd ,高度丑=nxd , J區(qū)域中心點坐標(biāo)為02,y'2 + qxd);若區(qū)域』 為全部眉毛區(qū)域時,則選取的眉毛區(qū)域』的寬度『=PM,高度//=n xd,』區(qū)域中心點坐標(biāo)為 Ol + d/2 ,(yl + y2)/2 + q x d);其中,》、P、< 均為常數(shù)。
3.根據(jù)權(quán)利要求2所述的基于SIFT特征的眉毛識別方法,其特征在于所述《 =0.625』=0·391、Ρ =1. 563,f =0.281。
4.根據(jù)權(quán)利要求1或2所述的基于SIFT特征的眉毛識別方法,其特征在于所述步驟e)中對應(yīng)子區(qū)域的矩陣Λ/ 』,W〕與w)任意兩行之間相似度的計算方法為歐式距離、馬氏距離或向量內(nèi)積算法。
5.根據(jù)權(quán)利要求1或2所述的基于SIFT特征的眉毛識別方法,其特征在于步驟f)中統(tǒng)計相似度的概率分布為離散模型或連續(xù)模型;在為離散模型的情形下,通過統(tǒng)計各個相似度值落在各數(shù)值區(qū)間的概率值來獲得;在為連續(xù)模型的情形下,使用混合高斯概率建模, 擬合形成概率密度函數(shù)。
6.根據(jù)權(quán)利要求1或2所述的基于SIFT特征的眉毛識別方法,其特征在于所述步驟a)中容量X =2000, N =200, Xi =10 ;所述不同拍攝條件是指不同姿態(tài)、不同光照。
全文摘要
本發(fā)明的基于SIFT特征的眉毛識別方法,包括a).采集人臉照片;b).選取眉毛區(qū)域;c).將眉毛區(qū)域劃分為個子區(qū)域;d).獲取子區(qū)域的SIFT特征矩陣;e).獲取兩照片眉毛區(qū)域的SIFT特征矩陣和;并計算對應(yīng)個子區(qū)域的相似度;f).統(tǒng)計是與不是同一個人眉毛的概率分布;g).依據(jù)貝葉斯公式獲取,以判斷兩對比圖像是否出自同一個人。本發(fā)明的眉毛識別方法,具有對圖像的旋轉(zhuǎn)、尺度變化保持不變的特性。使用SIFT特征進(jìn)行眉毛識別,可有效地降低光照、姿態(tài)變化的影響,且不需要人工參與。
文檔編號G06K9/00GK102999751SQ20131000341
公開日2013年3月27日 申請日期2013年1月6日 優(yōu)先權(quán)日2013年1月6日
發(fā)明者曹杰, 許野平, 方亮, 劉辰飛, 張傳峰 申請人:山東神思電子技術(shù)股份有限公司