欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

人臉部位運動檢測方法和裝置及活體識別方法和系統(tǒng)與流程

文檔序號:12888117閱讀:329來源:國知局
人臉部位運動檢測方法和裝置及活體識別方法和系統(tǒng)與流程

本發(fā)明涉及人臉識別領(lǐng)域,尤其涉及一種人臉部位運動檢測方法和裝置、活體識別方法和系統(tǒng)。



背景技術(shù):

隨著人臉識別技術(shù)的發(fā)展,越來越多的場景需要用到人臉檢測去快速的識別一個人的身份。但是有不法份子會利用圖片或者視頻代替真人去進行人臉識別,這樣整個人臉識別系統(tǒng)的安全性就得不到保證。而人臉活體識別可以檢測出當前待測人臉是活體人臉而非照片或者視頻中的人臉,從而保證了人臉識別系統(tǒng)的安全性。在進行人臉識別時,可以通過對待測人臉的部位運動的檢測有助于識別人臉是否為活體;因而,需要一種簡單有效的人臉部位運動檢測的技術(shù)方案。



技術(shù)實現(xiàn)要素:

本發(fā)明實施例的目的是提供一種人臉部位運動檢測方法,計算效率高,且準確率較高。

為實現(xiàn)上述目的,本發(fā)明提供了一種人臉部位運動檢測方法,包括:

從待測人臉視頻中抽取若干視頻幀;

獲取從所述待測人臉視頻中抽取的每一所述視頻幀的待測人臉部位的若干關(guān)鍵點位置;

基于所述待測人臉部位的若干關(guān)鍵點位置,通過分類模型對抽取的每一所述視頻幀的待測人臉部位進行預(yù)測,從而獲取抽取的每一所述視頻幀的待測人臉部位的狀態(tài)值;其中,所述分類模型為通過分類器基于若干預(yù)先標注待測人臉部位的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型;

基于抽取的每一所述視頻幀的待測人臉部位的狀態(tài)值的變化程度判斷所述待測人臉視頻的待測人臉部位運動的情況。

與現(xiàn)有技術(shù)相比,本發(fā)明從待測人臉視頻中獲取若干視頻幀,然后根據(jù)從抽取的每一視頻幀中確定待測人臉部位的若干關(guān)鍵點位置,并用預(yù)先訓(xùn)練好的分類模型對抽取的每一視頻幀的待測人臉部位的狀態(tài)進行預(yù)測,獲取視頻幀的部位狀態(tài)值;最后,基于抽取的每一視頻幀的待測人臉部位的狀態(tài)值的變化程度判斷待測人臉視頻的待測人臉部位運動的情況;該方案采用分類模型基于視頻幀的對應(yīng)部位的關(guān)鍵點位置來預(yù)測視頻幀的待測人臉部位的狀態(tài)值,并通過狀態(tài)值來判斷待測人臉視頻的部位運動的情況,簡單高效,且準確率較高;任何普通攝像頭或者移動端手機的攝像頭均可作為待測人臉視頻的輸入硬件,對設(shè)備硬件要求簡單。

進一步的,所述待測人臉部位為眼部,則,

所述分類模型具體為通過soft-max回歸分類器基于若干預(yù)先標注所述眼部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型;

或,所述分類模型具體為通過svm分類器基于若干預(yù)先標注所述眼部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型。

進一步的,所述待測人臉部位為嘴部,則,

所述分類模型具體為通過soft-max回歸分類器基于若干預(yù)先標注嘴部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型;

或,所述分類模型具體為通過svm分類器基于若干預(yù)先標注嘴部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型。

進一步的,所述基于抽取的每一所述視頻幀的待測人臉部位的狀態(tài)值的變化程度判斷所述待測人臉視頻的待測人臉部位運動的情況包括:

計算抽取的每一所述視頻幀的待測人臉部位的狀態(tài)值中的最大值和最小值的差值,若所述差值大于預(yù)設(shè)閾值,則判定所述待測人臉視頻的待測人臉部位有運動。

相應(yīng)的,本發(fā)明還提供一種人臉部位運動檢測裝置,包括:

視頻幀抽取單元,用于從待測人臉視頻中抽取若干視頻幀;

部位關(guān)鍵點位置檢測單元,用于獲取從所述待測人臉視頻中抽取的每一所述視頻幀的待測人臉部位的若干關(guān)鍵點位置;

狀態(tài)值獲取單元,用于基于所述待測人臉部位的若干關(guān)鍵點位置,通過分類模型對抽取的每一所述視頻幀的待測人臉部位進行預(yù)測,從而獲取抽取的每一所述視頻幀的待測人臉部位的狀態(tài)值;其中,所述分類模型為通過分類器基于若干預(yù)先標注待測人臉部位的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型;

部位運動判斷單元,用于基于抽取的每一所述視頻幀的待測人臉部位的狀態(tài)值的變化程度判斷所述待測人臉視頻的待測人臉部位運動的情況。

與現(xiàn)有技術(shù)相比,本發(fā)明通過視頻幀抽取單元11從待測人臉視頻中獲取若干視頻幀,然后通過部位關(guān)鍵點位置檢測單元12根據(jù)從抽取的每一視頻幀中確定待測人臉部位的若干關(guān)鍵點位置,并通過狀態(tài)值獲取單元13用預(yù)先訓(xùn)練好的分類模型對抽取的每一視頻幀的待測人臉部位的狀態(tài)進行預(yù)測,獲取對應(yīng)的視頻幀的待測人臉部位的狀態(tài)值;最后,通過部位運動判斷單元14基于抽取的每一視頻幀的待測人臉部位的狀態(tài)值的變化程度判斷待測人臉視頻的待測人臉部位運動的情況;該裝置的計算簡單有效,任何普通攝像頭或者移動端手機的攝像頭均可作為待測人臉視頻的輸入硬件,對設(shè)備硬件要求簡單。

進一步的,所述待測人臉部位為眼部,則

所述分類模型具體為通過soft-max回歸分類器基于若干預(yù)先標注所述眼部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型;

或,所述分類模型具體為通過svm分類器基于若干預(yù)先標注所述眼部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型。

進一步的,所述待測人臉部位為嘴部,則

所述分類模型具體為通過soft-max回歸分類器基于若干預(yù)先標注所述嘴部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型;

或,所述分類模型具體為通過svm分類器基于若干預(yù)先標注所述嘴部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型。

進一步的,所述部位運動判斷單元包括:

差值計算模塊,用于計算抽取的每一所述視頻幀中待測人臉部位的狀態(tài)值中的最大值和最小值的差值;

部位運動判斷模塊,用于若差值計算模塊計算所得的所述差值大于預(yù)設(shè)閾值,則所述待測人臉視頻的待測人臉部位有運動。

相應(yīng)的,本發(fā)明還提供一種活體識別方法,包括步驟:

檢測待測人臉視頻中的待測人臉的至少兩部位運動的情況,其中,一部位運動采用本發(fā)明提供的一種人臉部位運動檢測方法檢測部位運動的情況;

基于部位運動的情況獲取所述待測人臉的每一部位運動對應(yīng)的運動分值;

計算每一所述部位運動對應(yīng)的運動分值加權(quán)后的總和,并將計算得到的所述總和作為活體識別分值;其中,每一所述部位運動已預(yù)設(shè)相應(yīng)的權(quán)值;

判定所述活體識別分值不小于預(yù)設(shè)閾值的所述待測人臉為活體。

與現(xiàn)有技術(shù)相比,本發(fā)明公開的一種活體識別方法,通過檢測待測人臉的至少兩部位的運動情況,其中一部位運動的檢測采用本發(fā)明提供的一種人臉部位運動檢測方法;基于每一部位運動的情況獲取運動分值,對部位運動分值進行加權(quán)后求和作為活體識別分值,利用活體識別分值作為所述待測人臉是否為活體的判斷標準的技術(shù)方案;其中,本發(fā)明提供的一種人臉部位運動檢測方法計算過程簡單高效,設(shè)備硬件要求簡單;檢測多部位運動解決了現(xiàn)有技術(shù)中算法單一,安全性不高的問題,可擴展性強,且基于人臉部位運動的檢測可以通過二維圖像實現(xiàn),對硬件要求不高;另外,采用對不同部位運動加權(quán)再進行分數(shù)融合,活體識別準確度高,本活體識別方法準確率高、硬件要求低和安全性高。

相應(yīng)的,本發(fā)明還提供一種活體識別系統(tǒng),包括:

至少2個人臉部位運動檢測裝置,每一所述人臉部位運動檢測裝置用于檢測待測人臉對應(yīng)的部位運動的情況,其中一人臉部位運動檢測裝置為本發(fā)明提供的一種人臉部位運動檢測裝置;

部位運動分值獲取裝置,用于基于每一所述部位運動的情況獲取所述待測人臉的每一部位運動對應(yīng)的運動分值;

活體識別分值計算裝置,用于計算每一所述部位運動對應(yīng)的運動分值加權(quán)后的總和,并將計算得到的所述總和作為活體識別分值;其中,所述活體識別分值計算裝置已預(yù)設(shè)與每一所述部位運動相對應(yīng)的權(quán)值;

活體判斷裝置,用于判定所述活體識別分值不小于預(yù)設(shè)閾值的所述待測人臉為活體。

與現(xiàn)有技術(shù)相比,本發(fā)明公開的一種活體識別系統(tǒng)通過至少2個人臉部位運動檢測裝置獲取所述待測人臉上的至少兩個部位的運動分值,其中,一人臉部位運動檢測裝置采用本發(fā)明提供的一種人臉部位運動檢測裝置;通過活體識別分值計算裝置對部位運動分值進行加權(quán)后求和作為活體識別分值,通過活體判斷裝置利用活體識別分值作為所述待測人臉是否為活體的判斷標準的技術(shù)方案;本發(fā)明提供的一種人臉部位運動檢測裝置計算簡單高效,設(shè)備硬件要求簡單;采用檢測至少兩種部位運動裝置檢測至少兩種部位的運動情況解決了現(xiàn)有技術(shù)中算法單一,安全性不高的問題,可擴展性強,且基于人臉部位運動的檢測可以通過二維圖像實現(xiàn),對硬件要求不高,另外,通過活體識別分值計算裝置對不同部位運動加權(quán)再進行分數(shù)融合,活體識別準確度高,獲得了活體識別準確率高、硬件要求低和安全性高的有益效果。

附圖說明

圖1是本發(fā)明一種人臉部位運動檢測方法提供的實施例一的流程示意圖;

圖2是本發(fā)明一種人臉部位運動檢測方法提供的實施例一的步驟s14的流程示意圖;

圖3是本發(fā)明一種人臉部位運動檢測方法提供的實施例一的步驟s12的流程示意圖;

圖4是待測人臉的68個關(guān)鍵點的模型示意圖;

圖5是本發(fā)明一種人臉部位運動檢測裝置提供的實施例一的結(jié)構(gòu)示意圖;

圖6是本發(fā)明一種活體識別方法提供的實施例的流程示意圖;

圖7是本發(fā)明一種活體識別方法提供的實施例的步驟s24流程示意圖;

圖8是本發(fā)明一種活體識別系統(tǒng)提供的實施例的結(jié)構(gòu)示意圖。

具體實施方式

下面將結(jié)合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術(shù)方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發(fā)明一部分實施例,而不是全部的實施例。基于本發(fā)明中的實施例,本領(lǐng)域普通技術(shù)人員在沒有作出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都屬于本發(fā)明保護的范圍。

本發(fā)明一種人臉部位運動檢測方法提供的實施例一,參見圖1,圖1是本實施例一的流程示意圖,包括步驟:

s11、從待測人臉視頻中抽取若干視頻幀;

s12、獲取從待測人臉視頻中抽取的每一視頻幀的待測人臉部位的若干關(guān)鍵點位置;

s13、基于待測人臉部位的若干關(guān)鍵點位置,通過分類模型對抽取的每一視頻幀的待測人臉部位進行預(yù)測,從而獲取抽取的每一視頻幀的待測人臉部位的狀態(tài)值;其中,分類模型為通過分類器基于若干預(yù)先標注待測人臉部位的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型;

s14、基于抽取的每一視頻幀的待測人臉部位的狀態(tài)值的變化程度判斷待測人臉視頻的待測人臉部位運動的情況。

在本實施例中,所檢測的待測人臉部位為眼部;則對應(yīng)的,在步驟s13中所采用的預(yù)先訓(xùn)練好的分類模型有兩種:

第一種分類模型為通過soft-max回歸分類器基于若干預(yù)先標注眼部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型;具體,若干預(yù)先標注眼部的狀態(tài)值的人臉圖片為根據(jù)眼部睜開的不同程度進行眼部的狀態(tài)值標注的人臉圖片。示例,按照眼部的睜開程度給眼部標注分數(shù),以標注的分數(shù)來表示眼部的狀態(tài)值,分數(shù)分為10級,取值在0到1之間,完全閉眼為0分,完全睜開為1分,半睜眼為0.5分;對若干已標注的眼部的狀態(tài)值的人臉圖片的眼部進行關(guān)鍵點檢測,以獲取每一人臉圖片的眼部的關(guān)鍵點位置;然后以每一人臉圖片的眼部關(guān)鍵點位置為特征,采用soft-max回歸分類器訓(xùn)練一個分類模型;該分類模型用于步驟s12中對抽取的每一視頻幀的待測人臉的眼部進行預(yù)測,從而獲抽取的每一視頻幀的眼部的分數(shù),即眼部的狀態(tài)值。

第二種分類模型為通過svm分類器基于若干預(yù)先標注眼部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型,具體,若干預(yù)先標注眼部的狀態(tài)值的人臉圖片標注的眼部的狀態(tài)值包括兩類。示例,人工選擇一定數(shù)量睜眼的人臉圖片,標注人臉圖片的眼部的狀態(tài)值為1,然后人工選擇一定數(shù)量的閉眼的人臉圖片,標注人臉圖片的眼部狀態(tài)為0,對若干已標注的眼部的狀態(tài)值的人臉圖片的眼部進行關(guān)鍵點檢測,以獲取每一人臉圖片的眼部的關(guān)鍵點位置;然后以每一人臉圖片的眼部關(guān)鍵點位置為特征,采用svm分類器訓(xùn)練一個分類模型;該分類模型用于步驟s12中對抽取的每一視頻幀的待測人臉的眼部進行預(yù)測,從而獲取抽取的每一視頻幀的眼部的狀態(tài)值。

上述兩種實施方式均在本實施例的保護范圍之內(nèi)。

參見圖2,圖2為本實施例的步驟s14流程示意圖,步驟s14包括:

s141、計算抽取的每一視頻幀的待測人臉部位的狀態(tài)值中的最大值和最小值的差值;

s142、若差值大于預(yù)設(shè)閾值,則判定待測人臉視頻的待測人臉部位有運動。

由于本實施例檢測的部位運動為眼部運動,則通過步驟s142判斷的待測人臉視頻的待測人臉的對應(yīng)部位為眼部,此處,若當步驟s13中采用的分類模型為svm分類器時,示例,當預(yù)先標注眼部的狀態(tài)值的人臉圖片的眼部狀態(tài)值包括1和0兩類狀態(tài)值時,此時步驟s142對應(yīng)設(shè)置的預(yù)設(shè)閾值為1;即可對應(yīng)檢測待測人臉視頻幀中是否同時包括眼部為睜開狀態(tài)的視頻幀和眼部為閉眼狀態(tài)的視頻幀,從而判斷待測人臉視頻幀的是否有運動。

步驟s11優(yōu)選從待測人臉視頻中抽取每一視頻幀;或,步驟s11按照一定的頻率抽取視頻幀。

參見圖3,圖3是步驟s12的流程示意圖,步驟s12具體包括:

s121、對從待測人臉視頻中抽取的每一視頻幀用dlib庫做人臉檢測和人臉關(guān)鍵點檢測,獲取待測人臉的若干關(guān)鍵點位置;

參見圖4,圖4是采用dlib庫做人臉檢測和人臉關(guān)鍵點檢測獲取的待測人臉的68點模型示意圖;步驟s121中獲取的若干人臉關(guān)鍵點位置即為圖4中關(guān)鍵點1~關(guān)鍵點68所示的關(guān)鍵點位置;

s122、從每一抽取的視頻幀的若干人臉關(guān)鍵點中獲取待測人臉部位的若干關(guān)鍵點位置。

由于本實施例的待測人臉部位為,則通過步驟s122獲取待測人臉部位的若干關(guān)鍵點位置為眼部的若干關(guān)鍵點位置,圖4中,步驟s122獲取的眼部的若干關(guān)鍵點位置即為關(guān)鍵點37~關(guān)鍵點48這12個關(guān)鍵點所示的關(guān)鍵點位置;其中,左眼的若干關(guān)鍵點位置為關(guān)鍵點37~關(guān)鍵點42這6個關(guān)鍵點所示的關(guān)鍵點位置,右眼的若干關(guān)鍵點位置為關(guān)鍵點43~關(guān)鍵點48這6個關(guān)鍵點所示的關(guān)鍵點位置。

另外,在獲取分類模型的預(yù)設(shè)步驟中,對若干已標注的眼部的狀態(tài)值的人臉圖片的眼部進行關(guān)鍵點檢測,以獲取每一人臉圖片的眼部的關(guān)鍵點位置的步驟可以參照本實施例步驟s12的過程,采用dlib庫獲取人臉圖片的眼部的關(guān)鍵點位置,此處不贅述。

具體實施時,本實施例從待測人臉視頻中獲取若干視頻幀,然后根據(jù)從抽取的每一視頻幀中確定待測人臉的眼部的若干關(guān)鍵點位置,并通過預(yù)先訓(xùn)練好的分類模型對抽取的每一視頻幀的眼部的狀態(tài)進行預(yù)測,獲取對應(yīng)的視頻幀的眼部狀態(tài)值;最后,通過計算抽取的每一視頻幀的眼部的狀態(tài)值中的最大值和最小值的差值,并判定差值大于預(yù)設(shè)閾值的待測人臉視頻的待測人臉的眼部有運動。

與現(xiàn)有技術(shù)相比,本實施例采用分類模型基于視頻幀的眼部的關(guān)鍵點位置來預(yù)測視頻幀的狀態(tài)值,并通過視頻幀的狀態(tài)值來判斷待測人臉視頻的眼部運動的情況,簡單高效,且準確率較高;任何普通攝像頭或者移動端手機的攝像頭均可作為待測人臉視頻的輸入硬件,對設(shè)備硬件要求簡單。

本發(fā)明一種人臉部位運動檢測方法提供的實施例二,由于本實施例與本發(fā)明一種人臉部位運動檢測方法提供的實施例一的主要流程相似,可參見圖1的流程示意圖,包括步驟:

s11、從待測人臉視頻中抽取若干視頻幀;

s12、獲取從待測人臉視頻中抽取的每一視頻幀的待測人臉部位的若干關(guān)鍵點位置;

s13、基于待測人臉部位的若干關(guān)鍵點位置,通過分類模型對抽取的每一視頻幀的待測人臉部位進行預(yù)測,從而獲取抽取的每一視頻幀的待測人臉部位的狀態(tài)值;其中,分類模型為通過分類器基于若干預(yù)先標注待測人臉部位的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型;

s14、基于抽取的每一視頻幀的待測人臉部位的狀態(tài)值的變化程度判斷待測人臉視頻的待測人臉部位運動的情況。

在本實施例中,所檢測的待測人臉部位為嘴部;則對應(yīng)的,在步驟s13中所采用的預(yù)先訓(xùn)練好的分類模型有兩種:

第一種分類模型為通過soft-max回歸分類器基于若干預(yù)先標注嘴部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型;具體,若干預(yù)先標注嘴部的狀態(tài)值的人臉圖片為根據(jù)嘴部張開的不同程度進行嘴部的狀態(tài)值標注的人臉圖片。示例,按照嘴部的張開程度給嘴部標注分數(shù),以標注的分數(shù)來表示嘴部的狀態(tài)值,分數(shù)分為10級,取值在0到1之間,完全閉合為0分,完全張開為1分,半張嘴為0.5分;對若干已標注的嘴部的狀態(tài)值的人臉圖片的嘴部進行關(guān)鍵點檢測,以獲取每一人臉圖片的嘴部的關(guān)鍵點位置;然后以每一人臉圖片的嘴部關(guān)鍵點位置為特征,采用soft-max回歸分類器訓(xùn)練一個分類模型;該分類模型用于步驟s12中對抽取的每一視頻幀的待測人臉的嘴部進行預(yù)測,從而獲取抽取的每一視頻幀的嘴部的分數(shù),即嘴部的狀態(tài)值。

第二種分類模型為通過svm分類器基于若干預(yù)先標注嘴部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型,具體,若干預(yù)先標注嘴部的狀態(tài)值的人臉圖片標注的嘴部的狀態(tài)值包括兩類。示例,人工選擇一定數(shù)量張嘴的人臉圖片,標注人臉圖片的嘴部的狀態(tài)值為1,然后人工選擇一定數(shù)量的閉合的人臉圖片,標注人臉圖片的嘴部狀態(tài)為0,對若干已標注的嘴部的狀態(tài)值的人臉圖片的嘴部進行關(guān)鍵點檢測,以獲取每一人臉圖片的嘴部的關(guān)鍵點位置;然后以每一人臉圖片的嘴部關(guān)鍵點位置為特征,采用svm分類器訓(xùn)練一個分類模型;該分類模型用于步驟s12中對抽取的每一視頻幀的待測人臉的嘴部進行預(yù)測,從而獲取抽取的每一視頻幀的嘴部的狀態(tài)值。

上述兩種實施方式均在本實施例的保護范圍之內(nèi)。

本實施例的步驟s14與本發(fā)明一種人臉部位運動檢測方法的步驟s14相似,可以參見圖2的流程示意圖,步驟s14包括:

s141、計算抽取的每一視頻幀的待測人臉部位的狀態(tài)值中的最大值和最小值的差值;

s142、若差值大于預(yù)設(shè)閾值,則判定待測人臉視頻的待測人臉部位有運動。

由于本實施例檢測的部位運動為嘴部運動,則通過步驟s142判斷的待測人臉視頻的待測人臉的對應(yīng)部位為嘴部。此處,若當步驟s13中采用的分類模型為svm分類器時,示例,當預(yù)先標注嘴部的狀態(tài)值的人臉圖片的嘴部狀態(tài)值包括1和0兩類狀態(tài)值時,此時步驟s142對應(yīng)設(shè)置的預(yù)設(shè)閾值為1;即可對應(yīng)檢測待測人臉視頻幀中是否同時包括嘴部為張開狀態(tài)的視頻幀和嘴部為閉眼狀態(tài)的視頻幀,從而判斷待測人臉視頻幀的是否有運動。

步驟s11優(yōu)選從待測人臉視頻中抽取每一視頻幀;或,步驟s11按照一定的頻率抽取視頻幀。

本實施例的步驟s12與本發(fā)明一種人臉部位運動檢測方法的步驟s12相似,可以參見圖3的流程示意圖,參見圖3,圖3是步驟s12的流程示意圖,步驟s12具體包括:

s121、對從待測人臉視頻中抽取的每一視頻幀用dlib庫做人臉檢測和人臉關(guān)鍵點檢測,獲取待測人臉的若干關(guān)鍵點位置;

dlib庫指的是一個使用c++技術(shù)編寫的跨平臺的通用庫。

參見圖4,圖4是采用dlib庫做人臉檢測和人臉關(guān)鍵點檢測獲取的待測人臉的68點模型圖;步驟s121中獲取的若干人臉關(guān)鍵點位置即為圖4中關(guān)鍵點1~關(guān)鍵點68所示的關(guān)鍵點位置;

s122、從每一抽取的視頻幀的若干人臉關(guān)鍵點中獲取待測人臉部位的若干關(guān)鍵點位置。

由于本實施例的待測人臉部位為嘴部,則通過步驟s122獲取待測人臉部位的若干關(guān)鍵點位置為嘴部的若干關(guān)鍵點位置;獲取的嘴部的若干關(guān)鍵點位置即為圖4中關(guān)鍵點49~關(guān)鍵點68這20個關(guān)鍵點所示的關(guān)鍵點位置。

具體實施時,本實施例從待測人臉視頻中獲取若干視頻幀,然后根據(jù)從抽取的每一視頻幀中確定待測人臉的嘴部的若干關(guān)鍵點位置,并通過預(yù)先訓(xùn)練好的分類模型對抽取的每一視頻幀的嘴部的狀態(tài)進行預(yù)測,獲取對應(yīng)的視頻幀的嘴部狀態(tài)值;最后,通過計算抽取的每一視頻幀的嘴部的狀態(tài)值中的最大值和最小值的差值,并判定差值大于預(yù)設(shè)閾值的待測人臉視頻的待測人臉的嘴部有運動。

與現(xiàn)有技術(shù)相比,本實施例采用分類模型基于視頻幀的嘴部的關(guān)鍵點位置來預(yù)測視頻幀的狀態(tài)值,并通過視頻幀的狀態(tài)值來判斷待測人臉視頻的嘴部運動,簡單高效,且準確率較高;任何普通攝像頭或者移動端手機的攝像頭均可作為待測人臉視頻的輸入硬件,對設(shè)備硬件要求簡單。

本發(fā)明一種人臉部位運動檢測裝置提供的實施例一,參見圖5,圖5是本實施例一的結(jié)構(gòu)示意圖,包括:

視頻幀抽取單元11,用于從待測人臉視頻中抽取若干視頻幀;

部位關(guān)鍵點位置檢測單元12,用于獲取從所述待測人臉視頻中抽取的每一所述視頻幀的待測人臉部位的若干關(guān)鍵點位置;

狀態(tài)值獲取單元13,用于基于所述待測人臉部位的若干關(guān)鍵點位置,通過分類模型對抽取的每一所述視頻幀的待測人臉部位進行預(yù)測,從而獲取抽取的每一所述視頻幀的待測人臉部位的狀態(tài)值;其中,所述分類模型為通過分類器基于若干預(yù)先標注待測人臉部位的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型;

部位運動判斷單元14,用于基于抽取的每一所述視頻幀的待測人臉部位的狀態(tài)值的變化程度判斷所述待測人臉視頻的待測人臉部位運動的情況。

本實施例,所檢測的待測人臉部位為眼部;則對應(yīng)的,在狀態(tài)值獲取單元13中所采用的預(yù)先訓(xùn)練好的分類模型有兩種:

第一種分類模型為通過soft-max回歸分類器基于若干預(yù)先標注眼部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型;具體,若干預(yù)先標注眼部的狀態(tài)值的人臉圖片為根據(jù)眼部睜開的不同程度進行眼部的狀態(tài)值標注的人臉圖片。示例,按照眼部的睜開程度給眼部標注分數(shù),以標注的分數(shù)來表示眼部的狀態(tài)值,分數(shù)分為10級,取值在0到1之間,完全閉眼為0分,完全睜開為1分,半睜眼眼為0.5分;對若干已標注的眼部的狀態(tài)值的人臉圖片的眼部進行關(guān)鍵點檢測,以獲取每一人臉圖片的眼部的關(guān)鍵點位置;然后以每一人臉圖片的眼部關(guān)鍵點位置為特征,采用soft-max回歸分類器訓(xùn)練一個分類模型;該分類模型用于步驟s12中對抽取的每一視頻幀的待測人臉的眼部進行預(yù)測,從而獲取抽取的每一視頻幀的眼部的分數(shù),即眼部的狀態(tài)值。

第二種分類模型為通過svm分類器基于若干預(yù)先標注眼部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型,具體,若干預(yù)先標注眼部的狀態(tài)值的人臉圖片標注的眼部的狀態(tài)值包括兩類。示例,人工選擇一定數(shù)量睜眼的人臉圖片,標注人臉圖片的眼部的狀態(tài)值為1,然后人工選擇一定數(shù)量的閉眼的人臉圖片,標注人臉圖片的眼部狀態(tài)為0,對若干已標注的眼部的狀態(tài)值的人臉圖片的眼部進行關(guān)鍵點檢測,以獲取每一人臉圖片的眼部的關(guān)鍵點位置;然后以每一人臉圖片的眼部關(guān)鍵點位置為特征,采用svm分類器訓(xùn)練一個分類模型;該分類模型用于步驟s12中對抽取的每一視頻幀的待測人臉的眼部進行預(yù)測,從而獲取抽取的每一視頻幀的眼部的狀態(tài)值。

上述兩種實施方式可任選一種,均在本實施例的保護范圍之內(nèi)。

部位運動判斷單元14具體包括:

差值計算模塊141,用于計算抽取的每一視頻幀的待測人臉部位的狀態(tài)值中的最大值和最小值的差值;

部位運動判斷模塊142,用于若差值大于預(yù)設(shè)閾值,則判定待測人臉視頻的待測人臉的眼部有運動。

此處,若當狀態(tài)值獲取單元13中采用的分類模型為svm分類器時,示例,當預(yù)先標注眼部的狀態(tài)值的人臉圖片的眼部狀態(tài)值包括1和0兩類時,此時步驟部位運動判斷模塊142對應(yīng)設(shè)置的預(yù)設(shè)閾值為1;即可對應(yīng)檢測待測人臉視頻幀中是否同時包括眼部為睜開狀態(tài)的視頻幀和眼部為閉眼狀態(tài)的視頻幀,從而判斷待測人臉視頻幀的是否有運動。

優(yōu)選,視頻幀抽取單元11用于從待測人臉視頻中抽取每一視頻幀;或,視頻幀抽取單元11用于按照一定的頻率抽取視頻幀。

具體,部位關(guān)鍵點位置檢測單元12包括:

人臉關(guān)鍵點檢測模塊121,用于對從待測人臉視頻中抽取的每一視頻幀用dlib庫做人臉檢測和人臉關(guān)鍵點檢測,獲取待測人臉的若干關(guān)鍵點位置;

參見圖4,通過人臉關(guān)鍵點檢測模塊121獲取的若干人臉關(guān)鍵點位置即為圖4中關(guān)鍵點1~關(guān)鍵點68所示的關(guān)鍵點位置;

部位關(guān)鍵點位置檢測模塊122,用于從每一抽取的視頻幀的若干人臉關(guān)鍵點中獲取待測人臉部位的若干關(guān)鍵點位置。

由于本實施例的待測人臉部位為眼部,則通過部位關(guān)鍵點位置檢測模塊122獲取的待測人臉部位的若干關(guān)鍵點位置為眼部的若干關(guān)鍵點位置。圖4中,眼部的若干關(guān)鍵點位置即為關(guān)鍵點37~關(guān)鍵點48這12個關(guān)鍵點所示的關(guān)鍵點位置;其中,左眼的若干關(guān)鍵點位置為關(guān)鍵點37~關(guān)鍵點42這6個關(guān)鍵點所示的關(guān)鍵點位置,右眼的若干關(guān)鍵點位置為關(guān)鍵點43~關(guān)鍵點48這6個關(guān)鍵點所示的關(guān)鍵點位置。

類似的,狀態(tài)值獲取單元13采用的分類模型中若干已標注的眼部的狀態(tài)值的人臉圖片預(yù)先進行的眼部的關(guān)鍵點檢測,以獲取每一人臉圖片的眼部的關(guān)鍵點位置的過程與部位關(guān)鍵點位置12獲取部位關(guān)鍵點位置的過程相似,此處不贅述。

具體實施時,本實施例通過視頻幀抽取單元11從待測人臉視頻中獲取若干視頻幀,然后通過部位關(guān)鍵點位置檢測單元12根據(jù)從抽取的每一視頻幀中確定待測人臉的眼部的若干關(guān)鍵點位置,并通過狀態(tài)值獲取單元13用預(yù)先訓(xùn)練好的分類模型對抽取的每一視頻幀的眼部的狀態(tài)進行預(yù)測,獲取對應(yīng)的視頻幀的眼部狀態(tài)值;最后,通過部位運動判斷單元14計算抽取的每一視頻幀的眼部的狀態(tài)值中的最大值和最小值的差值,并判定差值大于預(yù)設(shè)閾值的待測人臉視頻的待測人臉的眼部有運動。

與現(xiàn)有技術(shù)相比,本實施例采用分類模型基于視頻幀的眼部的關(guān)鍵點位置來預(yù)測視頻幀的狀態(tài)值,并通過視頻幀的狀態(tài)值來判斷待測人臉視頻的眼部運動的情況,簡單高效,且準確率較高;任何普通攝像頭或者移動端手機的攝像頭均可作為待測人臉視頻的輸入硬件,對設(shè)備硬件要求簡單。

本發(fā)明一種人臉部位運動檢測裝置提供的實施例二,由于本實施例與本發(fā)明一種人臉部位運動檢測裝置提供的實施例一的主要流程相似,可參見圖5,包括:

視頻幀抽取單元11,用于從待測人臉視頻中抽取若干視頻幀;

部位關(guān)鍵點位置檢測單元12,用于獲取從所述待測人臉視頻中抽取的每一所述視頻幀的待測人臉部位的若干關(guān)鍵點位置;

狀態(tài)值獲取單元13,用于基于所述待測人臉部位的若干關(guān)鍵點位置,通過分類模型對抽取的每一所述視頻幀的待測人臉部位進行預(yù)測,從而獲取抽取的每一所述視頻幀的待測人臉部位的狀態(tài)值;其中,所述分類模型為通過分類器基于若干預(yù)先標注待測人臉部位的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型;

部位運動判斷單元14,用于基于抽取的每一所述視頻幀的待測人臉部位的狀態(tài)值的變化程度判斷所述待測人臉視頻的待測人臉部位運動的情況。

本實施例,所檢測的待測人臉部位為嘴部;則對應(yīng)的,在狀態(tài)值獲取單元13中所采用的預(yù)先訓(xùn)練好的分類模型有兩種:

第一種分類模型為通過soft-max回歸分類器基于若干預(yù)先標注嘴部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型;具體,若干預(yù)先標注嘴部的狀態(tài)值的人臉圖片為根據(jù)嘴部張開的不同程度進行嘴部的狀態(tài)值標注的人臉圖片。示例,按照嘴部的張開程度給嘴部標注分數(shù),以標注的分數(shù)來表示嘴部的狀態(tài)值,分數(shù)分為10級,取值在0到1之間,完全閉合為0分,完全張開為1分,半張嘴為0.5分;對若干已標注的嘴部的狀態(tài)值的人臉圖片的嘴部進行關(guān)鍵點檢測,以獲取每一人臉圖片的嘴部的關(guān)鍵點位置;然后以每一人臉圖片的嘴部關(guān)鍵點位置為特征,采用soft-max回歸分類器訓(xùn)練一個分類模型;該分類模型用于步驟s12中對抽取的每一視頻幀的待測人臉的嘴部進行預(yù)測,從而獲取抽取的每一視頻幀的嘴部的分數(shù),即嘴部的狀態(tài)值。

第二種分類模型為通過svm分類器基于若干預(yù)先標注嘴部的狀態(tài)值的人臉圖片訓(xùn)練好的分類模型,具體,若干預(yù)先標注嘴部的狀態(tài)值的人臉圖片標注的嘴部的狀態(tài)值包括兩類。示例,人工選擇一定數(shù)量張嘴的人臉圖片,標注人臉圖片的嘴部的狀態(tài)值為1,然后人工選擇一定數(shù)量的閉合的人臉圖片,標注人臉圖片的嘴部狀態(tài)為0,對若干已標注的嘴部的狀態(tài)值的人臉圖片的嘴部進行關(guān)鍵點檢測,以獲取每一人臉圖片的嘴部的關(guān)鍵點位置;然后以每一人臉圖片的嘴部關(guān)鍵點位置為特征,采用svm分類器訓(xùn)練一個分類模型;該分類模型用于步驟s12中對抽取的每一視頻幀的待測人臉的嘴部進行預(yù)測,從而獲取抽取的每一視頻幀的嘴部的狀態(tài)值。

上述兩種實施方式可任選一種,均在本實施例的保護范圍之內(nèi)。

部位運動判斷單元14具體包括:

差值計算模塊141,用于計算抽取的每一視頻幀的待測人臉部位的狀態(tài)值中的最大值和最小值的差值;

部位運動判斷模塊142,用于若差值大于預(yù)設(shè)閾值,則判定待測人臉視頻的待測人臉的嘴部有運動。

此處,若當狀態(tài)值獲取單元13中采用的分類模型為svm分類器時,示例,當預(yù)先標注嘴部的狀態(tài)值的人臉圖片的嘴部狀態(tài)值包括1和0兩類時,此時步驟部位運動判斷模塊142對應(yīng)設(shè)置的預(yù)設(shè)閾值為1;即可對應(yīng)檢測待測人臉視頻幀中是否同時包括嘴部為張開狀態(tài)的視頻幀和嘴部為閉合狀態(tài)的視頻幀,從而判斷待測人臉視頻幀的是否有運動。

優(yōu)選視頻幀抽取單元11用于從待測人臉視頻中抽取每一視頻幀;或,視頻幀抽取單元11用于按照一定的頻率抽取視頻幀。

具體,部位關(guān)鍵點位置檢測單元12包括:

人臉關(guān)鍵點檢測模塊121,用于對從待測人臉視頻中抽取的每一視頻幀用dlib庫做人臉檢測和人臉關(guān)鍵點檢測,獲取待測人臉的若干關(guān)鍵點位置;

參見圖4,通過人臉關(guān)鍵點檢測模塊121獲取的若干人臉關(guān)鍵點位置即為圖4中關(guān)鍵點1~關(guān)鍵點68所示的關(guān)鍵點位置;

部位關(guān)鍵點位置檢測模塊122,用于從每一抽取的視頻幀的若干人臉關(guān)鍵點中獲取對應(yīng)部位的若干關(guān)鍵點位置。

由于本實施例的待測人臉部位為嘴部,則通過部位關(guān)鍵點位置檢測模塊122獲取的待測人臉部位的若干關(guān)鍵點位置為嘴部的若干關(guān)鍵點位置;參見圖4,獲取的嘴部的若干關(guān)鍵點位置即為中關(guān)鍵點49~關(guān)鍵點68這20個關(guān)鍵點所示的關(guān)鍵點位置。

類似的,狀態(tài)值獲取單元13采用的分類模型中若干已標注的嘴部的狀態(tài)值的人臉圖片預(yù)先進行的嘴部的關(guān)鍵點檢測,以獲取每一人臉圖片的嘴部的關(guān)鍵點位置的過程與部位關(guān)鍵點位置12獲取部位關(guān)鍵點位置的過程相似,此處不贅述。

具體實施時,本實施例通過視頻幀抽取單元11從待測人臉視頻中獲取若干視頻幀,然后通過部位關(guān)鍵點位置檢測單元12根據(jù)從抽取的每一視頻幀中確定待測人臉的嘴部的若干關(guān)鍵點位置,并通過狀態(tài)值獲取單元13用預(yù)先訓(xùn)練好的分類模型對抽取的每一視頻幀的嘴部的狀態(tài)進行預(yù)測,獲取對應(yīng)的視頻幀的嘴部狀態(tài)值;最后,通過部位運動判斷單元14計算抽取的每一視頻幀的嘴部的狀態(tài)值中的最大值和最小值的差值,并判定差值大于預(yù)設(shè)閾值的待測人臉視頻的待測人臉的嘴部有運動。

與現(xiàn)有技術(shù)相比,本實施例采用分類模型基于視頻幀的嘴部的關(guān)鍵點位置來預(yù)測視頻幀的狀態(tài)值,并通過視頻幀的狀態(tài)值來判斷待測人臉視頻的嘴部運動的情況,簡單高效,且準確率較高;任何普通攝像頭或者移動端手機的攝像頭均可作為待測人臉視頻的輸入硬件,對設(shè)備硬件要求簡單。

本發(fā)明一種活體識別方法提供的實施例,參見圖6,圖6是本實施例的流程示意圖,其中,本實施例具體包括步驟:

s21、檢測待測人臉視頻中的待測人臉的至少兩部位運動的情況,其中,一部位運動的檢測采用本發(fā)明一種人臉部位運動檢測方法提供的實施例一,對應(yīng)檢測的部位運動為眼部運動的情況,或,至少一部位運動的檢測采用本發(fā)明一種人臉部位運動檢測方法提供的實施例二,對應(yīng)檢測的部位運動為嘴部運動的情況,具體過程可以參見本發(fā)明一種人臉部位運動檢測方法提供的實施例一或?qū)嵤├?,此處不做贅述?/p>

s22、基于部位運動的情況獲取待測人臉的每一部位運動對應(yīng)的運動分值;

s23、計算每一部位運動對應(yīng)的運動分值加權(quán)后的總和,并將計算得到的總和作為活體識別分值;其中,每一部位運動已預(yù)設(shè)相應(yīng)的權(quán)值;

s24、判定活體識別分值不小于預(yù)設(shè)閾值的待測人臉為活體。

示例,本實施例步驟s21中除了采用本發(fā)明一種人臉部位運動檢測方法提供的實施例一檢測眼部運動和/或采用本發(fā)明一種人臉部位運動檢測方法提供的實施例二檢測嘴部運動的檢測,步驟s21還可以檢測其它的部位運動為頭部運動、面部運動、額頭運動和眉毛運動中的至少一種;通常來說,頭部運動包括頭部是否轉(zhuǎn)動;面部運動包括人臉部位的整體變化,如鬼臉動作,人臉的眼部和嘴部的整體變化程度超過預(yù)設(shè)條件;眉毛運動包括眉毛是否抖動;額頭運動包括額頭區(qū)域的皺紋有無變化。

示例,步驟s21中檢測待測人臉的其它至少一個部位運動具體包括:檢測待測人臉的人臉視頻每隔預(yù)設(shè)幀數(shù)所抽取的每一視頻幀檢測部位運動對應(yīng)的部位關(guān)鍵點位置,通過抽取的每一視頻幀的部位關(guān)鍵點位置的變化程度來確定部位運動的情況;或者,檢測待測人臉每隔預(yù)設(shè)幀數(shù)所抽取的每一視頻幀檢測部位運動對應(yīng)的部位灰度值特征,通過抽取的每一視頻幀的部位的灰度值的變化程度來確定部位運動的情況。上述實施方法僅為檢測其它至少一個部位運動的示例;基于本實施例的活體識別方法的原理基礎(chǔ)上,通過其它具體的實施方式實現(xiàn)對另外至少一部位運動的運動檢測,也在本實施例的保護范圍之內(nèi)。

本實施例的步驟s23中設(shè)定每一部位運動相對應(yīng)的權(quán)值的優(yōu)選實施方式為根據(jù)每一部位運動的明顯度設(shè)定。示例,當步驟s21檢測待測人臉視頻中的待測人臉的部位運動為眼部運動、嘴部運動和頭部運動;嘴部運動比較明顯,故權(quán)重最大,眼部次之,頭部運動的模擬精度最小,那么,對應(yīng)設(shè)置部位運動的權(quán)重策略為:嘴部運動>眼部運動>額頭皺紋動作;

或,步驟s23中設(shè)定每一部位運動相對應(yīng)的權(quán)值的另一優(yōu)選實施方式為根據(jù)不同應(yīng)用場景自動進行部位運動的權(quán)值調(diào)整而設(shè)定的,具體做法:在某一種場景下,收集待測人臉的各種部位運動的正常輸入視頻作為正樣本,攻擊視頻作為負樣本,取(正樣本通過數(shù)+負樣本拒絕數(shù))/(正樣本總數(shù)+負樣本總數(shù))作為該部位運動的準確率,然后把每一部位運動的準確率按照從大到小的順序進行排序,每一部位運動的權(quán)重也按照此順序從大到小,重新調(diào)整每一部位運動的權(quán)重。重新調(diào)整后的權(quán)重用以計算活體識別分值,該識別結(jié)果可以自適應(yīng)不同場景下的部位運動檢測的準確率,增加本實施例的活體識別結(jié)果的準確率。

上述兩種設(shè)定每一部位運動相對應(yīng)的權(quán)值的任一種優(yōu)選實施方式均在本實施例的保護范圍內(nèi)。

具體地,參見圖7,圖7是步驟s24的流程示意圖,包括步驟:

s241、通過活體識別分值占活體識別總分的比值計算待測人臉的活體識別置信度;

s242、當活體識別置信度不小于預(yù)設(shè)值時,確定活體識別分值不小于預(yù)設(shè)閾值;

s243、判定活體識別分值不小于預(yù)設(shè)閾值的待測人臉為活體。

具體地,在步驟s241中,活體識別總分即為本實施例對待測人臉進行識別后能獲得的最大值,待測人臉的活體識別置信度通過下述公式計算:

f=(s/s_max)*100%

其中,s_max表示活體識別總分,f表示活體識別置信度,且0<f<1;

用e表示預(yù)設(shè)值,當f≥e,即活體識別置信度不小于預(yù)設(shè)值時,則確定活體識別分值不小于預(yù)設(shè)閾值,判定活體識別分值不小于預(yù)設(shè)閾值的待測人臉為活體;當f<e,即活體識別置信度小于預(yù)設(shè)值時,則確定活體識別分值小于預(yù)設(shè)閾值,判定活體識別分值小于預(yù)設(shè)閾值的待測人臉為非活體。

利用活體識別分值所獲得的活體識別置信度,還可以進一步擴展,用于本實施例建立分級制度進行活體判斷和活體分級,以獲得豐富的活體識別結(jié)果。

步驟s22基于部位運動的情況獲取待測人臉的每一部位運動對應(yīng)的運動分值包括:

當步驟s21中的檢測待測人臉的對應(yīng)運動情況為待測人臉的對應(yīng)部位有運動,則獲取的對應(yīng)部位運動的運動分值為1分;否則獲取的運動分值為0分。

除了通過有無運動的判斷獲取對應(yīng)的運動分值,若在步驟s21中所獲取的部位運動的運動情況為部位運動的運動程度,還可以根據(jù)其運動程度在分值區(qū)間中獲取對應(yīng)的運動分值,如設(shè)定分數(shù)分為10級,取值在0到1之間。

具體實施時,檢測待測人臉視頻部位運動從而獲得對應(yīng)的部位的運動情況,其中,一部位運動的檢測采用本發(fā)明提供的一種人臉部位運動檢測方法的實施例一或?qū)嵤├?;根?jù)每一部位運動的情況獲取對應(yīng)的運動分值,具體為該部位運動有運動,則獲取的運動分值為1分,否則獲取的運動分值為0分;接著計算上述得到每一部位運動分值進行加權(quán)后的總和,該總和表示活體識別分值;最后用該活體識別分值占活體識別總分的比值計算活體識別置信度,其中,當活體識別置信度不小于預(yù)設(shè)值時,確定活體識別分值不小于預(yù)設(shè)閾值,從而判定待測人臉為活體;否則,判定待測人臉為非活體。

本實施例可運用于多種設(shè)備端,此處以運用于移動手機端的實施場景為例進行說明:在手機端活體識別時,隨機出現(xiàn)一種活體動作要求順序,例如為要求待測人臉分別進行張嘴、眨眼和頭部左轉(zhuǎn)的活體動作;此時若預(yù)設(shè)的部位運動的權(quán)重為:張嘴對應(yīng)的嘴部運動的權(quán)重w1=3,眨眼對應(yīng)的眼部運動的權(quán)重w2=2,頭部左轉(zhuǎn)對應(yīng)的運動的權(quán)重w3=1;計算活體識別總分,即活體識別最高分s_max為3*1+2*1+1*1=6分。假設(shè)檢測出張嘴得分為1分,眨眼得分為1分,頭部左轉(zhuǎn)得分為0分,活體識別分值s為每一部位運動加權(quán)后的總和,代入上述部位運動的運動分值,計算活體識別分值s=3*1+2*1+1*0=5分;最后,計算活體識別置信度f=s/s_max=5/6=83.33%。若設(shè)定此時設(shè)定值e為80%,則判定該待測人臉為活體,且活體置信度為83.33%。

本實施例解決了現(xiàn)有技術(shù)中算法單一,安全性不高的問題,可擴展性強;其中采用的本發(fā)明提供的一種人臉部位運動檢測方法的實施例一或?qū)嵤├挠嬎愫唵胃咝?,對設(shè)備的硬件要求不高;另外,在本實施例中采用對多個部位運動的檢測來進行活體識別,并對不同部位運動加權(quán)再進行分數(shù)融合,活體識別準確度高,且有利于提高安全性。

本發(fā)明一種活體識別系統(tǒng)提供的實施例,參見圖8,圖8為本實施例的結(jié)構(gòu)示意圖,本實施例包括:

至少2個人臉部位運動檢測裝置1,每一個人臉部位運動檢測裝置1用于檢測待測人臉一對應(yīng)的部位運動的情況;圖8中的人臉部位運動檢測裝置1a和人臉部位運動檢測裝置1b表示檢測兩不同人臉的部位運動的兩人臉部位運動檢測裝置1;其中1個人臉部位運動檢測裝置1采用本發(fā)明一種人臉部位運動檢測裝置提供的實施例一或?qū)嵤├?,可參見圖5,此處不做贅述。

部位運動分值獲取裝置2,用于基于每一部位運動的情況獲取待測人臉的每一部位運動對應(yīng)的運動分值;

活體識別分值計算裝置3,用于計算每一部位運動對應(yīng)的運動分值加權(quán)后的總和,并將計算得到的總和作為活體識別分值;其中,活體識別分值計算裝置3已預(yù)設(shè)與每一部位運動相對應(yīng)的權(quán)值;

活體判斷裝置4,用于判定活體識別分值不小于預(yù)設(shè)閾值的待測人臉為活體。

除采用本發(fā)明一種人臉部位運動檢測裝置提供的實施例一對應(yīng)檢測眼部運動或采用本發(fā)明一種人臉部位運動檢測裝置提供的實施例二對應(yīng)檢測嘴部運動外,示例,另外一人臉部位運動檢測裝置1對應(yīng)檢測的待測人臉的部位運動包括頭部運動、眉毛運動、額頭運動和面部運動中的至少一部位運動;通常頭部運動包括頭部是否轉(zhuǎn)動;眉毛運動包括眉毛是否有抖動動作;額頭運動包括額頭區(qū)域的皺紋有無變化;面部運動包括人臉部位的整體變化,如鬼臉動作,人臉的眼部和嘴部的整體變化程度超過預(yù)設(shè)條件。

示例,另外至少一人臉部位運動檢測裝置1具體用于檢測待測人臉的人臉視頻每隔預(yù)設(shè)幀數(shù)所抽取的每一視頻幀檢測部位運動對應(yīng)的部位關(guān)鍵點位置,通過抽取的每一視頻幀的部位關(guān)鍵點位置的變化程度來確定部位運動的情況;或者,人臉部位運動檢測裝置1還可以具體用于檢測待測人臉每隔預(yù)設(shè)幀數(shù)所抽取的每一視頻幀檢測部位運動對應(yīng)的部位灰度值特征,通過抽取的每一視頻幀的部位的灰度值的變化程度來確定部位運動的情況,該實施方式通常適用于人臉部位運動檢測裝置1檢測的部位運動為眼部運動或額頭運動。上述實施方法僅為另外至少一人臉部位運動檢測裝置1檢測部位運動的示例,當人臉部位運動檢測裝置1通過其他實施方式實現(xiàn)對另外至少一部位運動的運動檢測,也在本實施例的保護范圍之內(nèi)。

部位運動分值獲取裝置2具體用于基每一部位運動的運動情況獲取對應(yīng)的運動分值:當待測人臉的對應(yīng)的部位運動情況為有運動,則獲取的對應(yīng)部位運動的運動分值為1分;否則獲取的運動分值為0分。

除上述部位運動分值獲取裝置2用于基于每一部位運動的是否有運動的情況而直接獲得一個是否有運動的運動分值的實施方式,當通過人臉部位運動檢測裝置1中獲取的部位運動的運動情況包括部位運動的運動程度,還可以通過部位運動分值獲取裝置2基于運動程度而獲取一個在0到1之間的運動分值,如設(shè)定運動分值分為10級,取值在0到1之間,該替代實施方式不僅能表示是否有運動,還能體現(xiàn)運動的程度。

活體識別分值計算裝置3中與每一部位運動相對應(yīng)的權(quán)值為根據(jù)每一部位運動的明顯度設(shè)定;如檢測的部位運動為頭部運動、眼部運動和嘴部運動時,此時,嘴部運動比較明顯,故權(quán)重最大,眼部運動次之,頭部運動權(quán)重最小,部位運動的權(quán)重策略對應(yīng)為:嘴部運動>眼部運動>頭部運動。

或,活體識別分值計算裝置3中與每一部位運動相對應(yīng)的權(quán)值為根據(jù)不同應(yīng)用場景自動進行部位運動的權(quán)值調(diào)整而設(shè)定的,具體做法:在某一種場景下,收集待測人臉的各種部位運動的正常輸入視頻作為正樣本,攻擊視頻作為負樣本,取(正樣本通過數(shù)+負樣本拒絕數(shù))/(正樣本總數(shù)+負樣本總數(shù))作為該部位運動的準確率,然后把每一部位運動的準確率按照從大到小的順序進行排序,每一部位運動的權(quán)重也按照此順序從大到小,重新調(diào)整每一部位運動的權(quán)重。

上述兩種設(shè)定每一部位運動相對應(yīng)的權(quán)值的任一種優(yōu)選實施方式均在本實施例的保護范圍內(nèi)。

活體判斷裝置4包括:

活體識別置信度計算單元41,用于通過活體識別分值占活體識別總分的比值計算待測人臉的活體識別置信度;

其中,活體識別總分即為通過活體識別分值計算裝置3獲取的所有部位運動的運動分值加權(quán)后的總和的最大值,活體識別總分用s_max表示;f表示活體識別置信度,且0<f<1;活體識別置信度計算單元41通過下述公式計算待測人臉的活體識別置信度:

f=(s/s_max)*100%

活體判斷單元42,用于當活體識別置信度不小于預(yù)設(shè)值時,確定活體識別分值不小于預(yù)設(shè)閾值,判定活體識別分值不小于預(yù)設(shè)閾值的待測人臉為活體。

其中,用e表示預(yù)設(shè)值,通過活體判斷單元42判斷:當f≥e,即活體識別置信度不小于預(yù)設(shè)值時,則確定活體識別分值不小于預(yù)設(shè)閾值,判定活體識別分值不小于預(yù)設(shè)閾值的待測人臉為活體;當f<e,即活體識別置信度小于預(yù)設(shè)值時,則確定活體識別分值小于預(yù)設(shè)閾值,判定活體識別分值小于預(yù)設(shè)閾值的待測人臉為非活體。

通過活體識別置信度計算單元41所獲得的活體識別置信度,還可以進一步擴展,用于本實施例活體識別系統(tǒng)建立分級制度進行活體判斷和活體分級,以獲得豐富的活體識別結(jié)果。

具體實施時,首先,通過每一人臉部位運動檢測裝置1獲取對應(yīng)的部位運動的運動的情況,其中,一人臉部位運動檢測裝置1為本發(fā)明一種人臉部位運動檢測裝置的實施例一或?qū)嵤├?;并通過部位運動分值獲取裝置2基于部位運動的運動情況獲取對應(yīng)的運動分值;然后,通過活體識別分值計算裝置3對獲取的每一部位運動的運動分值進行加權(quán)后求和作為活體識別分值,最后,通過活體判斷裝置4的活體識別置信度計算單元41利用活體識別分值占活體識別總分的比值計算待測人臉的活體識別置信度,并通過活體判斷單元42判定當計算所得的活體識別置信度不小于預(yù)設(shè)閾值的待測人臉為活體。

本實施例采用檢測至少2個人臉部位運動檢測裝置解決了現(xiàn)有技術(shù)中算法單一,安全性不高的問題,可擴展性強,且所采用的本發(fā)明提供的一種人臉部位運動檢測裝置的實施例一或?qū)嵤├τ布蟛桓?;另外,通過活體識別分值計算裝置對不同部位運動加權(quán)再進行分數(shù)融合,活體識別準確度高,獲得了活體識別準確率高、硬件要求低和安全性高的有益效果。

以上所述是本發(fā)明的優(yōu)選實施方式,應(yīng)當指出,對于本技術(shù)領(lǐng)域的普通技術(shù)人員來說,在不脫離本發(fā)明原理的前提下,還可以做出若干改進和潤飾,這些改進和潤飾也視為本發(fā)明的保護范圍。

當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
淳化县| 商城县| 黔东| 恭城| 晋宁县| 邮箱| 康平县| 石首市| 临城县| 德江县| 都昌县| 十堰市| 西丰县| 奈曼旗| 红原县| 堆龙德庆县| 浦江县| 河池市| 安多县| 宜君县| 三亚市| 永福县| 突泉县| 罗平县| 顺平县| 昭平县| 广东省| 南川市| 安塞县| 灯塔市| 垣曲县| 潜山县| 高阳县| 大渡口区| 措勤县| 万年县| 泽库县| 河间市| 邵阳县| 白朗县| 巫山县|