欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

人臉活體判斷方法以及系統(tǒng)的制作方法_2

文檔序號(hào):9489731閱讀:來(lái)源:國(guó)知局
[0026] 需要說(shuō)明的是,在數(shù)據(jù)采集中,可以和前述描述一樣,每個(gè)視點(diǎn)采集30幀圖像,但 也可以是其他合適數(shù)量的圖像,并不局限于30幀。因?yàn)閷?duì)于模型建立來(lái)說(shuō),沒有一個(gè)明確 的范圍,樣本越多,模型會(huì)越準(zhǔn)確,同時(shí)模型也會(huì)越復(fù)雜,本實(shí)施方式綜合考慮模型的準(zhǔn)確 度和復(fù)雜度,選擇30幀。
[0027] 當(dāng)完成步驟S1后,進(jìn)行步驟S2,在步驟S2中提取眼睛圖像及特征。下面結(jié)合圖 3~圖4來(lái)說(shuō)明本實(shí)施方式中眼睛圖像及特征的提取方法。
[0028] 如圖3所示,本實(shí)施方式提取眼睛圖像及特征包括:
[0029] 步驟S20,人臉定位和內(nèi)外眼角點(diǎn)檢測(cè)。比如通過(guò)經(jīng)典的ViolaandJones方法進(jìn) 行人臉定位和內(nèi)外眼角點(diǎn)的檢測(cè),以左眼為例如圖4中(a)所示。
[0030] 步驟S21,眼睛圖像對(duì)齊,即根據(jù)眼角位置裁剪并對(duì)齊眼睛區(qū)域。具體對(duì)齊的方法 為:首先通過(guò)統(tǒng)計(jì)采集到的人臉區(qū)域,定義一個(gè)64X32大小的眼睛圖像標(biāo)準(zhǔn)模板,并設(shè)置 內(nèi)外兩個(gè)眼角的位置分別為(54, 20)和(9, 20),通過(guò)將人臉區(qū)域根據(jù)外眼角的位置進(jìn)行尺 度和旋轉(zhuǎn)的變換,得到對(duì)齊的眼睛圖像,如圖4中(b)所示。
[0031] 進(jìn)一步地,以左眼為例,尺度和旋轉(zhuǎn)變換的具體步驟為:1)連接內(nèi)外眼角,將該 線段通過(guò)旋轉(zhuǎn)變換使得內(nèi)眼角和外眼角在同一水平線上,同時(shí)對(duì)人臉區(qū)域的其他像素也進(jìn) 行相同的旋轉(zhuǎn)變換;2)將處于同一水平位置上的左右眼角通過(guò)尺度變化使之與根據(jù)標(biāo)準(zhǔn) 模板上定義的內(nèi)外眼角位置重合,與此同時(shí)對(duì)人臉區(qū)域的其他像素也做相同的尺度變換; 3)最后根據(jù)定義的眼睛圖像標(biāo)準(zhǔn)模板的大小截取經(jīng)過(guò)旋轉(zhuǎn)和尺度變換的人臉區(qū)域,得到對(duì) 齊的眼睛圖像。
[0032] 需要說(shuō)明的是,上述眼睛圖像標(biāo)準(zhǔn)模板是適應(yīng)于所有人的,只要定位到左眼的內(nèi) 外眼角位置,就可以通過(guò)旋轉(zhuǎn)和尺度變換將檢測(cè)到的內(nèi)外眼角和標(biāo)準(zhǔn)模板上定義的內(nèi)外眼 角位置保持一致,從而得到對(duì)齊的眼睛圖像。眼睛圖像對(duì)齊是人臉識(shí)別的一個(gè)重要的預(yù)處 理步驟,在本實(shí)施方式中在建立模型之前進(jìn)行眼睛圖像對(duì)齊,是為了處理采集圖像中出現(xiàn) 的微小頭部運(yùn)動(dòng)。
[0033] 步驟S22,獲取眼睛圖像的特征。在特征提取部分,為了充分利用真實(shí)人臉和欺騙 人臉存在的微紋理差異,將眼睛圖像進(jìn)一步劃分為rXc個(gè)子區(qū)域,本實(shí)施方式采用4X2, 如圖4中(c)所示,對(duì)每一個(gè)子區(qū)域提取雙直方圖局部二值模式(DualHistogramLocal BinaryPattern,DH-LBP)特征(DH-LBP是局部二值模式(LBP,LocalBinaryPattern)直 方圖的改進(jìn),大大降低了特征維數(shù)的同時(shí)保留了LBP良好的分辨能力),將所有子區(qū)域的 DH-LBP特征串聯(lián),形成眼睛圖像的特征,如圖4中(d)所示,其為128維。
[0034] 可以理解的是,一方面所述眼睛圖像特征可以用于表示用戶的視線方向;另一方 面由于印刷、顯示屏反光等問(wèn)題,真實(shí)人臉和欺騙人臉存在明顯的微紋理區(qū)別,因此采用局 部紋理特征能夠很好的區(qū)分真實(shí)人臉和欺騙人臉。.
[0035] 當(dāng)完成步驟S2后,進(jìn)行步驟S3,在步驟S3中進(jìn)行模型的建立和求解。下面詳細(xì)描 述視線估計(jì)模型的建立和求解過(guò)程。
[0036] 通過(guò)步驟S1和S2得到這樣的數(shù)據(jù)集,其中,XleRn(本實(shí)施方式中n= 128,其與眼睛圖像特征的維數(shù)有關(guān))是樣本的眼睛圖像特征,yi = (ρΧι1,Ρρ)eR2是對(duì)應(yīng) 視點(diǎn)的二維坐標(biāo)。本實(shí)施方式中通過(guò)如下的二維回歸模型來(lái)建立眼睛圖像特征與對(duì)應(yīng)的視 點(diǎn)坐標(biāo)之間的映射關(guān)系:
[0037] y=wTx+b,
[0038] w=(Wpw2)eRnX2,b=(bpb2)eR2 (1)
[0039] 其中w,b是待求的模型參數(shù)
[0040] 并定義對(duì)應(yīng)的損失函數(shù)為:
[0042]其中艿=+?是對(duì)應(yīng)的預(yù)測(cè)值,一般來(lái)說(shuō),式(1)可通過(guò)最小二乘法求得。然 而,結(jié)合該問(wèn)題的實(shí)際情況,最小二乘法具有以下不足之處:1)非高清攝像頭下的視線估 計(jì)問(wèn)題是一個(gè)復(fù)雜的非線性問(wèn)題,尤其是對(duì)于跨度較大的9個(gè)標(biāo)定點(diǎn);2)最小二乘法對(duì) 于擬合直線之外的點(diǎn)較敏感;3)最小二乘法僅對(duì)經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化,推廣能力不強(qiáng)?;?以上幾點(diǎn),本實(shí)施方式?jīng)Q定采用具有較強(qiáng)魯棒性的支持向量回歸(SVR,SupportVector Regression)法求解該問(wèn)題。為了應(yīng)用SVR,將式(1)簡(jiǎn)化為兩個(gè)一維回歸模型:
[0044]S卩,將X坐標(biāo)點(diǎn)和y坐標(biāo)點(diǎn)分別考慮,為使擬合函數(shù)盡可能的平滑,式(1)進(jìn)一步 轉(zhuǎn)化為以下兩個(gè)優(yōu)化問(wèn)題的求解:
[0049]subjectto|py, | <ε2
[0050] 其中h,ε2是預(yù)測(cè)值和實(shí)際值之間可允許的最大偏差。本實(shí)施方式中采用 libsvm工具箱求解(4)和(5)得到和h^,即對(duì)于測(cè)試樣本ζ,其視線位置的X和y 坐標(biāo)值分別預(yù)測(cè)為fx(z),fy(z):
[0052] 其中,Xl,yi分別為支持向量,ηι,η2是支持向量數(shù)。相比于線性回歸,非線性回歸 能夠更加有效的對(duì)數(shù)據(jù)建模,將線性轉(zhuǎn)化為非線性常用的方法是核技巧。通過(guò)定義核函數(shù), 式⑴的解為:
[0053]
[0054] 本實(shí)施方式采用徑向基核函數(shù)進(jìn)行求解,對(duì)于測(cè)試數(shù)據(jù)z,通過(guò)(7)式得到預(yù)測(cè)的 視線位置=;(氣,爲(wèi))=(乂 (4,爲(wèi)(2?。
[0055] 根據(jù)上述步驟S1~S3可以建立的視線估計(jì)模型(7)側(cè)重于預(yù)測(cè)視線的變化,而 不是側(cè)重估計(jì)的準(zhǔn)確度,并且本實(shí)施方式提出的視線估計(jì)模型只需在自然光下配置一個(gè)分 辨率為640X480像素的USB攝像頭就能很好的檢測(cè)到視線的變化。
[0056] 可以理解的是,雖然本實(shí)施方式在步驟S3中采用非線性回歸來(lái)建立和求解視線 估計(jì)模型,但是實(shí)際上也可以采用其他的回歸方法,例如偏最小二乘回歸等。
[0057] 進(jìn)一步地,本實(shí)施方式的視線估計(jì)模型和現(xiàn)有的視線估計(jì)模型最大的不同在于由 于應(yīng)用的場(chǎng)合不同,因此側(cè)重點(diǎn)也不同?,F(xiàn)有的視線估計(jì)模型主要應(yīng)用于人機(jī)交互,因此注 重的是視線估計(jì)的準(zhǔn)確度。現(xiàn)有的視線估計(jì)模型要么需要多個(gè)標(biāo)定點(diǎn),要么需要高清攝像 頭,有的甚至需要多個(gè)攝像頭。而根據(jù)本發(fā)明的應(yīng)用場(chǎng)合一活體判斷,本實(shí)施方式提出的 視線估計(jì)模型側(cè)重于視線的變化,而不是視線估計(jì)的準(zhǔn)確度,并且本實(shí)施方式提出的視線 估計(jì)模型只需在自然光下配置一個(gè)640X480像素大小的USB攝像頭就能很好的檢測(cè)到視 線的變化。
[0058] 如前所述,在建立上述視線估計(jì)模型后,可以利用該模型來(lái)進(jìn)行活體判斷。下面結(jié) 合圖5和圖6來(lái)說(shuō)明本發(fā)明的人臉活體判斷方法。
[0059] 圖5是本發(fā)明一實(shí)施方式的人臉活體判斷方法流程圖;圖6是本發(fā)明一實(shí)施方式 視線詞典構(gòu)建示意圖。如圖5所示,本實(shí)施方式的人臉活體判斷方法包括下述步驟:
[0060] 步驟S100,獲取人臉圖像。在步驟S100,通過(guò)諸如usb攝像頭等圖像獲取單元獲 取一定數(shù)量人臉圖像,比如采集10秒,獲得100幀圖像。
[0061] 步驟S200,獲取眼睛圖像及眼睛圖像的特征。在步驟200中獲取每個(gè)人臉圖像的 眼睛圖像以及該眼睛圖像的特征,比如獲取前述100幀人臉圖像的每個(gè)圖像的眼睛圖像以 及眼睛圖像特征。眼睛圖像及眼睛圖像的特征獲取方法同前文所述一樣,在此不再贅述。
[0062] 步驟S300,進(jìn)行視線預(yù)測(cè),即根據(jù)獲取的眼睛圖像的特征以及視線估計(jì)模型進(jìn) 行視線預(yù)測(cè)獲得對(duì)應(yīng)數(shù)量視線位置。具體地,在步驟S300中,根據(jù)視線估計(jì)模型式(7) 來(lái)預(yù)測(cè)一段時(shí)間內(nèi)用戶的視線位置序列。比如,對(duì)于某一用戶,假設(shè)當(dāng)前時(shí)間段內(nèi)采集 到Μ幀圖像,通過(guò)對(duì)圖像序列進(jìn)行眼睛圖像及特征的獲取,得到預(yù)測(cè)到的Μ個(gè)視線位置
[0063] 步驟S400,視線量化及統(tǒng)計(jì),S卩,根據(jù)視線詞典對(duì)所述對(duì)應(yīng)數(shù)量視線位置進(jìn)行量 化,建立視線直方圖。
[0064] 詞袋模型(BagofWords,B0W)通常應(yīng)用在信息檢索領(lǐng)域中,通過(guò)統(tǒng)計(jì)每個(gè)詞匯出 現(xiàn)的頻次形成直方圖來(lái)對(duì)文檔進(jìn)行表示。在本實(shí)施方式中通過(guò)將文檔中的詞匯擴(kuò)展到圖像 中的''視覺詞匯"將詞袋模型延伸為視覺詞袋模型,此處要統(tǒng)計(jì)的是視線方向,因此這里 的 ''視覺詞匯"就具體化為 ''視線方向"。本發(fā)明中稱之為 ''視線詞袋模型",并將視 線詞典中的詞條稱為"視線詞條"。類似于詞袋模型,視線詞袋模型的構(gòu)建主要分為2步:視 線詞典(codebook)的構(gòu)建和視線直方圖的生成。本發(fā)明中視線詞條是通過(guò)將用戶視線范 圍進(jìn)行網(wǎng)格劃分來(lái)獲取的,假設(shè)用戶的視線范圍為mXn大小,這里m,η是以像素為單位,將 其均勻劃分為rXc大小的網(wǎng)格,則網(wǎng)格上的(r+1)X(c+1)個(gè)網(wǎng)格點(diǎn)的集合構(gòu)成了視線詞 典。例如,如圖6所示,當(dāng)將本實(shí)施方式的人臉活體判斷方法應(yīng)用于分辨率為640X480像 素大小的窗口中時(shí),首先確定用戶的視線范圍(假設(shè)為600X400像素大小的矩形區(qū)域(邊 緣區(qū)域不考慮)),然后將600X400劃分為2X2 (這里r和c的取值可以不是2)個(gè)子區(qū)域, 則9個(gè)紅色點(diǎn)構(gòu)成了視線詞典。優(yōu)選地,本實(shí)施方式視線詞典的構(gòu)造是以建立視線估計(jì)模
當(dāng)前第2頁(yè)1 2 3 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
平乡县| 木里| 涿鹿县| 淮滨县| 会泽县| 巨鹿县| 杂多县| 扎鲁特旗| 麦盖提县| 潞城市| 日喀则市| 玉门市| 门源| 湛江市| 抚顺市| 长汀县| 大姚县| 浑源县| 扬中市| 沙坪坝区| 阳春市| 彩票| 泽普县| 延吉市| 万盛区| 菏泽市| 新干县| 肥乡县| 通州区| 紫云| 玛多县| 安化县| 灵璧县| 丽江市| 日照市| 罗平县| 临朐县| 东山县| 日土县| 日土县| 苍山县|