欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于五官幾何比例特征的快速人臉識別方法

文檔序號:6425384閱讀:1294來源:國知局
專利名稱:基于五官幾何比例特征的快速人臉識別方法
技術(shù)領(lǐng)域
本發(fā)明涉及人臉識別技術(shù)領(lǐng)域,具體涉及基于五官幾何比例特征的快速人臉識別方法。
背景技術(shù)
現(xiàn)今社會,諸如視覺監(jiān)控、遠程教育和人機交互技術(shù)及安全等各方面都迫切希望能夠進行快速、有效的身份驗證。生物特征因為自身的穩(wěn)定性和差異性,已成為身份驗證的主要手段。人臉是一種極為復雜的多變的物體,也是一種典型的非剛性物體。人的臉部特征十分豐富,除了形狀和表情之外,還有五官的特征分布。通過研究這些特征間的比例關(guān)系,可以得到不同的人臉的相似和差異程度。與利用視網(wǎng)膜識別及指紋識別等人體生物特征進行身分驗證相比,人臉識別技術(shù)具有直觀、友好及方便等特點,正越來越受到國際學術(shù)界、企業(yè)界、政府、公安部門和國防軍事部門的重視和青睞,具有廣泛的應用前景。目前學界所廣泛使用的人臉識別方式是先進行人臉的檢測和定位,進而對人臉進行面部特征的提取,最后得出識別的結(jié)果。其中,對人臉面部特征的提取,是在確定了人臉之后,對人臉圖像進行預處理之后開始的;特征提取和識別的方法包括基于局部特征和基于整體特征兩個方面。在基于整體特征的方法上,包括多種方法,如基于彈性匹配的方法、基于神經(jīng)網(wǎng)絡的方法和基于特征臉的方法等。但這些方法由于受到人臉的非剛性和光照條件的影響,只有在特定的環(huán)境下才有較高的識別率,而且這些方法所使用到的匹配參數(shù)相互依賴度較高、匹配的方法也沒有統(tǒng)一的科學標準,這影響了識別的準確性。這些原因使人臉識別成為了學界爭先研究的一個課題。

發(fā)明內(nèi)容
本發(fā)明的目的在于克服現(xiàn)有技術(shù)存在的上述不足,提供基于五官幾何比例特征的快速人臉識別方法。該方法通過分析人臉各部位灰度值的差異,對眼、鼻和嘴等特征進行定位,得到這些特征的坐標位置,根據(jù)需要將這些坐標點進行連接,組合成角度、長度等信息, 并存入數(shù)據(jù)庫,對需要檢索的正臉,首先獲取上述特征的坐標值,最后與數(shù)據(jù)庫中存儲的人臉信息進行對比,得到人臉檢索的綜合匹配結(jié)果,具體技術(shù)方案如下。一種基于五官幾何比例特征的快速人臉識別方法,具體步驟如下
(1)在隱馬爾可夫模型的基礎上,運用以Haar特征訓練出來的分類器,對包含正臉的人臉圖像進行人臉檢測,以及眼睛、鼻子和嘴巴的定位;
(2)通過對步驟(1)所檢測到的人臉進行灰度化,然后分別截取眼睛、鼻子和嘴巴的區(qū)域,提取并記錄相應的特征信息,特征信息包括左瞳孔、右瞳孔、左鼻孔、右鼻孔、左嘴角、右嘴角、嘴巴中心點和臉框四角的二維坐標值;
(3)將步驟(2)所得出的人臉各部位特征的二維坐標值與數(shù)據(jù)庫中所存儲的每一張人臉數(shù)據(jù)進行對比,得到眼鼻、眼嘴和鼻嘴的匹配率,以及綜合匹配率;(4)根據(jù)步驟(3)得到的匹配結(jié)果,進行下一步判斷處理若綜合匹配率高于90%,則提示查找成功;否則,提示查找失敗,數(shù)據(jù)庫中不存在所查人臉的相關(guān)信息。上述的基于五官幾何比例特征的快速人臉識別方法中,步驟(3)所述數(shù)據(jù)庫是通過如下方法建立獲取準備存入數(shù)據(jù)庫的多張正臉圖像;利用步驟(1)和步驟(2)對每一張正臉圖像進行處理,得到人臉相關(guān)特征信息,特征信息包括左瞳孔、右瞳孔、左鼻孔、右鼻孔、左嘴角、右嘴角、嘴巴中心點和臉框四角的二維坐標值;最后把每一張人臉的相關(guān)特征信息存入到數(shù)據(jù)庫;
上述的基于五官幾何比例特征的快速人臉識別方法,步驟(1)中,對人臉的檢測以及眼睛、鼻子和嘴巴的定位包括兩個步驟
(1. 1)先對圖像進行預處理,即灰度化和直方圖均衡化,然后利用Haar特征訓練分類器實現(xiàn)人臉檢測,得到人臉的臉框區(qū)域;在得到上述人臉臉框區(qū)域后,設定臉框區(qū)域的收縮系數(shù),把臉框區(qū)域縮小,再利用Haar特征訓練得到的分類器分別檢測出臉框區(qū)域中的眼睛區(qū)域、鼻子區(qū)域和嘴巴區(qū)域;
(1.2)在上述步驟(1. 1)檢測眼睛區(qū)域、鼻子區(qū)域和嘴巴區(qū)域的過程中,如果檢測到的眼睛區(qū)域、鼻子區(qū)域或嘴巴區(qū)域的中線偏離出人臉臉框區(qū)域的中線,則認為檢測出錯,需要擴大收縮系數(shù)再對眼睛、鼻子或嘴巴進行檢測。上述的基于五官幾何比例特征的快速人臉識別方法,步驟(2)中記錄的左瞳孔和右瞳孔坐標值的計算方法如下先在截取的眼睛區(qū)域中,分別提取左右眼的灰度值最低的一點;然后分別以這兩個點為中心提取在它們周圍的灰度值不高于該中心20的點,對這些點的二維坐標取平均值,求得的兩個平均值便是左瞳孔和右瞳孔的坐標值。上述的基于五官幾何比例特征的快速人臉識別方法,步驟(2)中記錄的左鼻孔和右鼻孔的坐標值的計算方式如下先在截取的鼻子區(qū)域中,分別提取左右鼻孔的灰度值最低的一點;然后分別以這兩個點為中心提取在它們周圍的灰度值不高于該中心20的點,對這些點的二維坐標取平均值,求得的兩個平均值便是左鼻孔和右鼻孔的坐標值。上述的基于五官幾何比例特征的快速人臉識別方法,步驟(2)中的記錄左嘴角、右嘴角和嘴巴中心點坐標值,是根據(jù)嘴巴的雙唇的顏色與臉部其他部位灰度的不同,得到左嘴角和右嘴角坐標,再取兩者所構(gòu)成線段的中點,作為嘴巴中心點坐標值。上述的基于五官幾何比例特征的快速人臉識別方法,步驟(3)中的眼鼻、眼嘴和鼻嘴的匹配率,分別是指
(a)眼鼻匹配率是指左瞳孔、右瞳孔和左右鼻孔連線中心點所形成的三角形的相似
度;
(b)眼嘴匹配率是指左瞳孔、右瞳孔和嘴巴中心點所形成的三角形的相似度;
(c)鼻嘴匹配率是指左鼻孔、右鼻孔和嘴巴中心點所組成的三角形的相似度。上述的基于五官幾何比例特征的快速人臉識別方法,步驟(3)中利用十五條線段, 包括左瞳孔與左右鼻孔連線中心點的連線、右瞳孔與左右鼻孔連線中心點的連線、左瞳孔與右瞳孔的連線、左右瞳孔連線中心點與左右鼻孔連線中心點的連線、左右鼻孔連線中心點與嘴巴中心點的連線、左瞳孔嘴巴中心點的連線、右瞳孔嘴巴中心點的連線、左鼻孔與右鼻孔的連線、左瞳孔與左鼻孔的連線、右瞳孔與右鼻孔的連線、左瞳孔與右鼻孔的連線、右瞳孔與左鼻孔的連線、左右瞳孔連線中心點與嘴巴中心點的連線、左鼻孔與嘴巴中心點的連線和右鼻孔與嘴巴中心點的連線,分別與數(shù)據(jù)庫中每張人臉圖像相應的線段進行比例得到比值;同樣,對左瞳孔、右瞳孔和左右鼻孔連線中心點連成的三角形和左瞳孔、右瞳孔和嘴巴中心點連成的三角形的六個角分別與數(shù)據(jù)庫中每張人臉圖像相應的角進行比例得到比值,求出十五條線段的所述比值的均值,把各條線段相對該均值的偏離值進行求和,記為 Suml ;求出所述六個角的所述比值的均值,并把各個角相對該均值的偏離值進行求和,記為 Sum2 ;最后用1-Suml*0. 05_Sum2*0. 1,即可得出最終的綜合匹配率。與現(xiàn)有技術(shù)相比,本發(fā)明具有如下優(yōu)點和效果本發(fā)明使用了一種新型的識別匹配方法,可以智能地識別人的正臉,并將其與數(shù)據(jù)庫中所存的人臉特征數(shù)據(jù)進行對比,搜索出匹配率最高的人臉,進而判斷兩者是否屬于同一個人。本發(fā)明適用的識別對象是人的正臉圖像,大大降低了人臉的非剛性所產(chǎn)生的影響;而根據(jù)生物學上的原理,人臉各部位間的長度比例和角度比例隨著人的年齡和肥瘦的變化不會出現(xiàn)太大的變動。本發(fā)明利用人臉各部位之間的長度和角度比例來進行對比匹配,可以保證匹配的科學性。另外,本發(fā)明還得出了眼鼻、眼嘴、鼻嘴的匹配率,以便用戶對被檢索者是否有整容等特殊應用進行判斷。


圖1人臉識別流程圖。圖2數(shù)據(jù)庫數(shù)據(jù)建立流程圖。
具體實施例方式以下僅是對本發(fā)明的實施進行舉例,本發(fā)明前述技術(shù)方案的實施不限于此。本發(fā)明提供的快速人臉搜索,是在人臉識別的基礎上產(chǎn)生的;而此處所用到的人臉識別,區(qū)別于現(xiàn)存的識別方法,在匹配方法上有著自身的獨特之處。以下結(jié)合附圖1對本發(fā)明基于五官幾何比例特征的快速人臉識別方法的實施步驟作說明
步驟1、把包含正臉的人臉圖像作為要處理的對象圖。步驟2、對人臉的檢測以及眼睛、鼻子和嘴巴的定位,包括下列步驟
(1)人臉圖像將會被分析成若干區(qū)域,區(qū)域包括臉框區(qū)域、眼睛區(qū)域、鼻子區(qū)域和嘴巴區(qū)域。對圖像進行預處理進行灰度化和直方圖均衡化;然后利用人臉分類器實現(xiàn)人臉檢測,即得到人臉的臉框區(qū)域;在得到上述臉框區(qū)域后,設定臉框區(qū)域的收縮系數(shù)為1.2 (初始值設為其他值時必須大于等于1),把臉框區(qū)域的長寬和寬度分別除以收縮系數(shù)得到新的長度和寬度,把臉框區(qū)域縮小到新的長度和寬度,再利用眼睛分類器、鼻子分類器和嘴巴分類器分別檢測出臉框區(qū)域中的眼睛區(qū)域、鼻子區(qū)域和嘴巴區(qū)域。上述的分類器可以采用現(xiàn)有的分類器,人臉分類器可采用英特爾通用adaboost正臉分類器,眼睛分類器可采用西班牙加那利島拉斯帕爾馬大學adaboost眼睛分類器,鼻子分類器可采用西班牙加那利島拉斯帕爾馬大學adaboost鼻子分類器,嘴巴分類器可采用西班牙加那利島拉斯帕爾馬大學 adaboost嘴巴分類器。(2)在上述步驟(1)檢測眼睛區(qū)域、鼻子區(qū)域和嘴巴區(qū)域的過程中,如果檢測到的眼睛區(qū)域、鼻子區(qū)域或嘴巴區(qū)域的中線偏離出人臉臉框區(qū)域的中線,則認為檢測出錯,需要擴大收縮系數(shù)再對眼睛區(qū)域、鼻子區(qū)域或嘴巴區(qū)域進行檢測。步驟3、在步驟2得出的眼睛區(qū)域、鼻子區(qū)域和嘴巴區(qū)域,對這些區(qū)域按下列方法進行特征提取
(1)提取眼睛的左瞳孔和右瞳孔的坐標值;
在截取的眼睛區(qū)域中,分別提取左右眼的灰度值最低的一點,然后分別以這兩個點為中心提取在它們周圍的灰度值不高于該中心20的點,對這些點的二維坐標值取平均值,便可得到左瞳孔和右瞳孔的坐標值。(2)提取鼻子的左鼻孔和右鼻孔的坐標值;
在截取的鼻子區(qū)域中,分別提取左右鼻孔的灰度值最低的一點,然后分別以這兩個點為中心提取在它們周圍的灰度值不高于該中心20的點,對這些點的二維坐標值取平均值, 便可得到左鼻孔和右鼻孔的坐標值。(3)提取左嘴角、右嘴角和嘴巴中心點的坐標值;
根據(jù)嘴部雙唇的顏色與臉部其他部位灰度的不同,可以得到嘴巴的左嘴角和右嘴角坐標值,兩者取中值,則可得到嘴巴中心點的坐標值。步驟4、將所得出的人臉特征坐標值與數(shù)據(jù)庫中所存儲的每一條人臉數(shù)據(jù)記錄進行對比,分別得到眼鼻、眼嘴和鼻嘴的匹配率,以及綜合匹配率。其中
(a)眼鼻匹配率是指人臉特征值中的左瞳孔、右瞳孔和左右鼻孔連線中心點所形成的三角形與數(shù)據(jù)庫人臉數(shù)據(jù)記錄中的對應點形成的三角形的相似度;
(b)眼嘴匹配率是指人臉特征值中的左瞳孔、右瞳孔和嘴巴中心點所形成的三角形與數(shù)據(jù)庫人臉數(shù)據(jù)記錄中的對應點形成的三角形的相似度;
(c)鼻嘴匹配率是指人臉特征值中的左鼻孔、右鼻孔和嘴巴中心點所組成的三角形與數(shù)據(jù)庫人臉數(shù)據(jù)記錄中的對應點形成的三角形的相似度。(d)綜合匹配率的算法如下
利用十五條線段,包括左瞳孔與左右鼻孔連線中心點的連線、右瞳孔與左右鼻孔連線中心點的連線、左瞳孔與右瞳孔的連線、左右瞳孔連線中心點與左右鼻孔連線中心點的連線、左右鼻孔連線中心點與嘴巴中心點的連線、左瞳孔嘴巴中心點的連線、右瞳孔嘴巴中心點的連線、左鼻孔與右鼻孔的連線、左瞳孔與左鼻孔的連線、右瞳孔與右鼻孔的連線、左瞳孔與右鼻孔的連線、右瞳孔與左鼻孔的連線、左右瞳孔連線中心點與嘴巴中心點的連線、左鼻孔與嘴巴中心點的連線和右鼻孔與嘴巴中心點的連線,分別與數(shù)據(jù)庫中每張人臉圖像相應的線段進行比例得到比值;同樣,對左瞳孔、右瞳孔和左右鼻孔連線中心點連成的三角形和左瞳孔、右瞳孔和嘴巴中心點連成的三角形的六個角分別與數(shù)據(jù)庫中每張人臉圖像相應的角進行比例得到比值,求出十五條線段的所述比值的均值,把各條線段相對該均值的偏離值進行求和,記為Suml ;求出所述六個角的所述比值的均值,并把各個角相對該均值的偏離值進行求和,記為Sum2 ;最后用1-Suml*0. 05_Sum2*0. 1,即可得出最終的綜合匹配率。步驟5、根據(jù)步驟4得到的匹配結(jié)果,進行下一步判斷處理若數(shù)據(jù)庫中存在與所查人臉的綜合匹配率高于90%的記錄,則提示查找成功,并把該記錄中的個人信息顯示給用戶,此時如果有多條記錄的綜合匹配率高于90%,則按照相應的眼鼻、眼嘴、鼻嘴匹配率以及綜合匹配率的大小進行取舍(一般取綜合匹配率最高的人臉作為檢索結(jié)果);否則,提示查找失敗,數(shù)據(jù)庫中不存在所查人臉的相關(guān)信息。如圖2,上述步驟4中所述數(shù)據(jù)庫是通過如下方法建立
(1)獲取準備存入數(shù)據(jù)庫的多張正臉圖像,圖像的背景顏色為單一顏色;(2)利用步驟2檢測每張人臉圖像中的人臉區(qū)域并定位相應的眼睛區(qū)域、鼻子區(qū)域和嘴巴區(qū)域;再利用步驟3對人臉區(qū)域、眼睛區(qū)域、鼻子區(qū)域和嘴巴區(qū)域進行處理,得到人臉特征信息,特征信息包括左瞳孔、右瞳孔、左鼻孔、右鼻孔、左嘴角、右嘴角、嘴巴中心點和臉框四角的二維坐標值;
(3)把每一張人臉的特征信息,特征信息包括左瞳孔、右瞳孔、左鼻孔、右鼻孔、左嘴角、 右嘴角、嘴巴中心點和臉框四角的二維坐標值,以及人臉圖像的二進制信息、人臉所屬對象的個人信息作為一條整體記錄存儲到數(shù)據(jù)庫中。 按照上述的實施過程,即可實現(xiàn)人臉的智能快速搜索。凡在本發(fā)明的精神和原則之內(nèi),包括特征提取方式、匹配方法和數(shù)據(jù)庫所存數(shù)據(jù)的形式等,所作的任何修改、等同替換或改進等,都應在本發(fā)明的保護范圍之內(nèi)。
權(quán)利要求
1.一種基于五官幾何比例特征的快速人臉識別方法,具體步驟如下(1)在隱馬爾可夫模型的基礎上,運用以Haar特征訓練出來的分類器,對包含正臉的人臉圖像進行人臉檢測,以及眼睛、鼻子和嘴巴的定位;(2)通過對步驟(1)所檢測到的人臉進行灰度化,然后分別截取眼睛、鼻子和嘴巴的區(qū)域,提取并記錄相應的特征信息,特征信息包括左瞳孔、右瞳孔、左鼻孔、右鼻孔、左嘴角、右嘴角、嘴巴中心點和臉框四角的二維坐標值;(3)將步驟(2)所得出的人臉各部位特征的二維坐標值與數(shù)據(jù)庫中所存儲的每一張人臉數(shù)據(jù)進行對比,得到眼鼻、眼嘴和鼻嘴的匹配率,以及綜合匹配率;(4)根據(jù)步驟(3)得到的匹配結(jié)果,進行下一步判斷處理若綜合匹配率高于90%,則提示查找成功;否則,提示查找失敗,數(shù)據(jù)庫中不存在所查人臉的相關(guān)信息。
2.如權(quán)利要求1所述的基于五官幾何比例特征的快速人臉識別方法中,其特征在于步驟(3)所述數(shù)據(jù)庫是通過如下方法建立獲取準備存入數(shù)據(jù)庫的多張正臉圖像;利用步驟 (1)和步驟(2)對每一張正臉圖像進行處理,得到人臉相關(guān)特征信息,特征信息包括左瞳孔、 右瞳孔、左鼻孔、右鼻孔、左嘴角、右嘴角、嘴巴中心點和臉框四角的二維坐標值;最后把每一張人臉的相關(guān)特征信息存入到數(shù)據(jù)庫。
3.如權(quán)利要求1所述的基于五官幾何比例特征的快速人臉識別方法中,其特征在于步驟(1)中,對人臉的檢測以及眼睛、鼻子和嘴巴的定位包括兩個步驟(1. 1)先對圖像進行預處理,即灰度化和直方圖均衡化,然后利用Haar特征訓練分類器實現(xiàn)人臉檢測,得到人臉的臉框區(qū)域;在得到上述人臉臉框區(qū)域后,設定臉框區(qū)域的收縮系數(shù),把臉框區(qū)域縮小,再利用Haar特征訓練得到的分類器分別檢測出臉框區(qū)域中的眼睛區(qū)域、鼻子區(qū)域和嘴巴區(qū)域;(1.2)在上述步驟(1. 1)檢測眼睛區(qū)域、鼻子區(qū)域和嘴巴區(qū)域的過程中,如果檢測到的眼睛區(qū)域、鼻子區(qū)域或嘴巴區(qū)域的中線偏離出人臉臉框區(qū)域的中線,則認為檢測出錯,需要擴大收縮系數(shù)再對眼睛、鼻子或嘴巴進行檢測。
4.如權(quán)利要求1所述的基于五官幾何比例特征的快速人臉識別方法,其特征在于,步驟(2)中記錄的左瞳孔和右瞳孔坐標值的計算方法如下先在截取的眼睛區(qū)域中,分別提取左右眼的灰度值最低的一點;然后分別以這兩個點為中心提取在它們周圍的灰度值不高于該中心20的點,對這些點的二維坐標取平均值,求得的兩個平均值便是左瞳孔和右瞳孔的坐標值。
5.如權(quán)利要求1所述的基于五官幾何比例特征的快速人臉識別方法,其特征在于,步驟(2)中記錄的左鼻孔和右鼻孔的坐標值的計算方式如下先在截取的鼻子區(qū)域中,分別提取左右鼻孔的灰度值最低的一點;然后分別以這兩個點為中心提取在它們周圍的灰度值不高于該中心20的點,對這些點的二維坐標取平均值,求得的兩個平均值便是左鼻孔和右鼻孔的坐標值。
6.如權(quán)利要求1所述的基于五官幾何比例特征的快速人臉識別方法,其特征在于,步驟(2)中的記錄左嘴角、右嘴角和嘴巴中心點坐標值,是根據(jù)嘴巴的雙唇的顏色與臉部其他部位灰度的不同,得到左嘴角和右嘴角坐標,再取兩者所構(gòu)成線段的中點,作為嘴巴中心點坐標值。
7.如權(quán)利要求1所述的基于五官幾何比例特征的快速人臉識別方法,其特征在于,步驟(3)中的眼鼻、眼嘴和鼻嘴的匹配率,分別是指(a)眼鼻匹配率是指左瞳孔、右瞳孔和左右鼻孔連線中心點所形成的三角形的相似度;(b)眼嘴匹配率是指左瞳孔、右瞳孔和嘴巴中心點所形成的三角形的相似度;(c)鼻嘴匹配率是指左鼻孔、右鼻孔和嘴巴中心點所組成的三角形的相似度。
8.如權(quán)利要求7所述的基于五官幾何比例特征的快速人臉識別方法,其特征在于,步驟(3)中利用十五條線段,包括左瞳孔與左右鼻孔連線中心點的連線、右瞳孔與左右鼻孔連線中心點的連線、左瞳孔與右瞳孔的連線、左右瞳孔連線中心點與左右鼻孔連線中心點的連線、左右鼻孔連線中心點與嘴巴中心點的連線、左瞳孔嘴巴中心點的連線、右瞳孔嘴巴中心點的連線、左鼻孔與右鼻孔的連線、左瞳孔與左鼻孔的連線、右瞳孔與右鼻孔的連線、左瞳孔與右鼻孔的連線、右瞳孔與左鼻孔的連線、左右瞳孔連線中心點與嘴巴中心點的連線、 左鼻孔與嘴巴中心點的連線和右鼻孔與嘴巴中心點的連線,分別與數(shù)據(jù)庫中每張人臉圖像相應的線段進行比例得到比值;同樣,對左瞳孔、右瞳孔和左右鼻孔連線中心點連成的三角形和左瞳孔、右瞳孔和嘴巴中心點連成的三角形的六個角分別與數(shù)據(jù)庫中每張人臉圖像相應的角進行比例得到比值,求出十五條線段的所述比值的均值,把各條線段相對該均值的偏離值進行求和,記為Suml ;求出所述六個角的所述比值的均值,并把各個角相對該均值的偏離值進行求和,記為Sum2 ;最后用1-Suml*0. 05_Sum2*0. 1,即可得出最終的綜合匹配率。
全文摘要
本發(fā)明涉及基于五官幾何比例特征的快速人臉識別方法,其識別和搜索的對象是人的正臉圖像,是根據(jù)人臉各部位灰度值的不同,得出眼、鼻、嘴等特征的二維坐標,將這些坐標點進行適當?shù)倪B接,組合成角度、長度等信息。通過對兩張人臉進行匹配分析,得出眼鼻、眼嘴和鼻嘴的匹配率以及綜合匹配率。同時,可將所得到的二維坐標連同人臉圖像及人臉所屬個體的信息存入數(shù)據(jù)庫。本發(fā)明將需要被識別的人臉與數(shù)據(jù)庫的人臉逐一地進行對比匹配,從中取出綜合匹配率最高的人臉,實現(xiàn)人臉的快速搜索。
文檔編號G06T7/40GK102194131SQ20111014617
公開日2011年9月21日 申請日期2011年6月1日 優(yōu)先權(quán)日2011年6月1日
發(fā)明者楊忠明, 秦勇, 蔡昭權(quán), 謝瀟雨, 郝志峰, 魯夢平, 黃翰 申請人:華南理工大學
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
修水县| 涞水县| 东莞市| 库车县| 隆林| 石首市| 仪陇县| 灵台县| 平罗县| 资中县| 宁城县| 拉孜县| 普陀区| 洛宁县| 萍乡市| 盐亭县| 彭水| 屏东市| 商南县| 长沙市| 英山县| 桃源县| 察哈| 永宁县| 肃宁县| 永仁县| 红安县| 铜陵市| 正宁县| 晋城| 巢湖市| 岳普湖县| 营口市| 平泉县| 沂南县| 阜阳市| 巧家县| 华容县| 葫芦岛市| 云南省| 湟源县|