專利名稱:眼神定位全景互動控制方法
技術(shù)領(lǐng)域:
本發(fā)明涉及一種人臉識別控制相關(guān)技術(shù),尤其是涉及一種眼神定位全景互動控制方法。
背景技術(shù):
當(dāng)前的多媒體行業(yè)已經(jīng)不再是幾年前擺放幾個展柜播放幾部電影就可以了,越來越多的展項需要與觀眾的互動。當(dāng)前的多媒體行業(yè)中互動設(shè)備多為可觸控式的,如觸摸屏、按鈕等,在過了新鮮期后也開始無法滿足觀眾需求,越來越多的非接觸式交互游戲開始顯現(xiàn)。目前市面上的非接觸式的多半也只是以指令式為主:如在鏡頭前揮手,點頭等,實時地對人的身體某個部分進(jìn)行跟蹤的很少,對于人臉的跟蹤幾乎沒有發(fā)現(xiàn)。
發(fā)明內(nèi)容
本發(fā)明的目的就是為了克服上述現(xiàn)有技術(shù)存在的缺陷而提供一種眼神定位全景互動控制方法。本發(fā)明的目的可以通過以下技術(shù)方案來實現(xiàn):一種眼神定位全景互動控制方法,其特征在于,包括以下步驟:I)左右兩側(cè)的攝像頭同時采集圖像,并將其發(fā)送給控制器;2)控制器對接收的兩幅圖像進(jìn)行圖像校正和立體標(biāo)定;3)處理器進(jìn)行左圖像人臉區(qū)域圖像的選?。?)處理器在選取的人臉區(qū)域圖像上進(jìn)行面部區(qū)域的精確配準(zhǔn);5)篩選出面部區(qū)域內(nèi)的角點信息;6)根據(jù)篩選出來的左圖像的角點來尋找右圖像中的對應(yīng)點,并根據(jù)三角視差法來計算角點的空間坐標(biāo)信息;7)將步驟6)得到所有角點的空間坐標(biāo)信息進(jìn)行最小二乘擬合,得到這些角點的中心坐標(biāo)即空間中人臉的中心點,得到人臉的朝向。所述的步驟2)中的圖像校正包括徑向畸變校正和切向畸變校正。所述的步驟2)中立體標(biāo)定具體為:畸變校正后的兩幅圖像進(jìn)行行對應(yīng),使得兩幅圖像的對極線在同一水平線上,SP一幅圖像上任意一點與其在另一幅圖像上的對應(yīng)點具有相同的行號。所述的步驟3)處理器進(jìn)行左圖像人臉區(qū)域圖像的選取具體為:31)通過輸入已知的人臉樣本圖像及非人臉樣本圖像進(jìn)行AdaBoost人臉訓(xùn)練,得到訓(xùn)練結(jié)果;32)對攝像頭采集的左圖像分成多個矩形框,根據(jù)訓(xùn)練結(jié)果來判斷每個矩形框內(nèi)的圖像是否為人臉,從而搜索出左圖像中所有的人臉區(qū)域。所述的步驟4)中的進(jìn)行面部區(qū)域的精確配準(zhǔn)為:
檢測到的人臉區(qū)域中進(jìn)行雙向投影求取峰值點的方式確定眼睛、鼻子、嘴部三個特殊區(qū)域,具體為:采用紅外光源補(bǔ)光,人臉部分的皮膚為白色,眼睛、嘴部色彩偏暗,將圖像分別在橫向及縱向加合,即圖像向X軸及Y軸投影:a)向Y軸作投影積分,得到
權(quán)利要求
1.一種眼神定位全景互動控制方法,其特征在于,包括以下步驟: 1)左右兩側(cè)的攝像頭同時采集圖像,并將其發(fā)送給控制器; 2)控制器對接收的兩幅圖像進(jìn)行圖像校正和立體標(biāo)定; 3)處理器進(jìn)行左圖像人臉區(qū)域圖像的選??; 4)處理器在選取的人臉區(qū)域圖像上進(jìn)行面部區(qū)域的精確配準(zhǔn); 5)篩選出面部區(qū)域內(nèi)的角點信息; 6)根據(jù)篩選出來的左圖像的角點來尋找右圖像中的對應(yīng)點,并根據(jù)三角視差法來計算角點的空間坐標(biāo)信息; 7)將步驟6)得到所有角點的空間坐標(biāo)信息進(jìn)行最小二乘擬合,得到這些角點的中心坐標(biāo)即空間中人臉的中心點,得到人臉的朝向。
2.根據(jù)權(quán)利要求1所述的一種眼神定位全景互動控制方法,其特征在于,所述的步驟2)中的圖像校正包括徑向畸變校正和切向畸變校正。
3.根據(jù)權(quán)利要求2所述的一種眼神定位全景互動控制方法,其特征在于,所述的步驟2)中立體標(biāo)定具體為: 畸變校正后的兩幅圖像進(jìn)行行對應(yīng),使得兩幅圖像的對極線在同一水平線上,即一幅圖像上任意一點與其在另一幅圖像上的對應(yīng)點具有相同的行號。
4.根據(jù)權(quán)利要求2所述的一種眼神定位全景互動控制方法,其特征在于,所述的步驟3)處理器進(jìn)行左圖像人臉區(qū)域圖像的選取具體為: 31)通過輸入已知的人臉樣本圖像及非人臉樣本圖像進(jìn)行AdaBoost人臉訓(xùn)練,得到訓(xùn)練結(jié)果; 32)對攝像頭采集的左圖像分成多個矩形框,根據(jù)訓(xùn)練結(jié)果來判斷每個矩形框內(nèi)的圖像是否為人臉,從而搜索出左圖像中所有的人臉區(qū)域。
5.根據(jù)權(quán)利要求2所述的一種眼神定位全景互動控制方法,其特征在于,所述的步驟4)中的進(jìn)行面部區(qū)域的精確配準(zhǔn)為: 檢測到的人臉區(qū)域中進(jìn)行雙向投影求取峰值點的方式確定眼睛、鼻子、嘴部三個特殊區(qū)域,具體為: 采用紅外光源補(bǔ)光,人臉部分的皮膚為白色,眼睛、嘴部色彩偏暗,將圖像分別在橫向及縱向加合,即圖像向X軸及Y軸投影: a)向Y軸作投影積分,得到
6.根據(jù)權(quán)利要求5所述的一種眼神定位全景互動控制方法,其特征在于,所述的角點信息包括嘴部中心點坐標(biāo)和兩`個眼睛中心點坐標(biāo)。
全文摘要
本發(fā)明涉及一種眼神定位全景互動控制方法,包括以下步驟1)左右兩側(cè)的攝像頭同時采集圖像,并將其發(fā)送給控制器;2)控制器對接收的兩幅圖像進(jìn)行圖像校正和立體標(biāo)定;3)處理器進(jìn)行左圖像人臉區(qū)域圖像的選??;4)處理器在選取的人臉區(qū)域圖像上進(jìn)行面部區(qū)域的精確配準(zhǔn);5)篩選出面部區(qū)域內(nèi)的角點信息;6)根據(jù)篩選出來的左圖像的角點來尋找右圖像中的對應(yīng)點,并根據(jù)三角視差法來計算角點的空間坐標(biāo)信息;7)將步驟6)得到所有角點的空間坐標(biāo)信息進(jìn)行最小二乘擬合,得到這些角點的中心坐標(biāo)即空間中人臉的中心點,得到人臉的朝向。與現(xiàn)有技術(shù)相比,本發(fā)明具有簡化了人眼定位技術(shù),并可以實時獲取到當(dāng)前攝像頭組前人臉的空間位置及朝向等優(yōu)點。
文檔編號G06K9/66GK103186233SQ20111045791
公開日2013年7月3日 申請日期2011年12月31日 優(yōu)先權(quán)日2011年12月31日
發(fā)明者楊青青, 飛蘋果 申請人:上海飛來飛去新媒體展示設(shè)計有限公司