欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

眼神定位全景互動控制方法

文檔序號:6355120閱讀:276來源:國知局
專利名稱:眼神定位全景互動控制方法
技術(shù)領(lǐng)域
本發(fā)明涉及一種人臉識別控制相關(guān)技術(shù),尤其是涉及一種眼神定位全景互動控制方法。
背景技術(shù)
當(dāng)前的多媒體行業(yè)已經(jīng)不再是幾年前擺放幾個展柜播放幾部電影就可以了,越來越多的展項需要與觀眾的互動。當(dāng)前的多媒體行業(yè)中互動設(shè)備多為可觸控式的,如觸摸屏、按鈕等,在過了新鮮期后也開始無法滿足觀眾需求,越來越多的非接觸式交互游戲開始顯現(xiàn)。目前市面上的非接觸式的多半也只是以指令式為主:如在鏡頭前揮手,點頭等,實時地對人的身體某個部分進(jìn)行跟蹤的很少,對于人臉的跟蹤幾乎沒有發(fā)現(xiàn)。

發(fā)明內(nèi)容
本發(fā)明的目的就是為了克服上述現(xiàn)有技術(shù)存在的缺陷而提供一種眼神定位全景互動控制方法。本發(fā)明的目的可以通過以下技術(shù)方案來實現(xiàn):一種眼神定位全景互動控制方法,其特征在于,包括以下步驟:I)左右兩側(cè)的攝像頭同時采集圖像,并將其發(fā)送給控制器;2)控制器對接收的兩幅圖像進(jìn)行圖像校正和立體標(biāo)定;3)處理器進(jìn)行左圖像人臉區(qū)域圖像的選?。?)處理器在選取的人臉區(qū)域圖像上進(jìn)行面部區(qū)域的精確配準(zhǔn);5)篩選出面部區(qū)域內(nèi)的角點信息;6)根據(jù)篩選出來的左圖像的角點來尋找右圖像中的對應(yīng)點,并根據(jù)三角視差法來計算角點的空間坐標(biāo)信息;7)將步驟6)得到所有角點的空間坐標(biāo)信息進(jìn)行最小二乘擬合,得到這些角點的中心坐標(biāo)即空間中人臉的中心點,得到人臉的朝向。所述的步驟2)中的圖像校正包括徑向畸變校正和切向畸變校正。所述的步驟2)中立體標(biāo)定具體為:畸變校正后的兩幅圖像進(jìn)行行對應(yīng),使得兩幅圖像的對極線在同一水平線上,SP一幅圖像上任意一點與其在另一幅圖像上的對應(yīng)點具有相同的行號。所述的步驟3)處理器進(jìn)行左圖像人臉區(qū)域圖像的選取具體為:31)通過輸入已知的人臉樣本圖像及非人臉樣本圖像進(jìn)行AdaBoost人臉訓(xùn)練,得到訓(xùn)練結(jié)果;32)對攝像頭采集的左圖像分成多個矩形框,根據(jù)訓(xùn)練結(jié)果來判斷每個矩形框內(nèi)的圖像是否為人臉,從而搜索出左圖像中所有的人臉區(qū)域。所述的步驟4)中的進(jìn)行面部區(qū)域的精確配準(zhǔn)為:
檢測到的人臉區(qū)域中進(jìn)行雙向投影求取峰值點的方式確定眼睛、鼻子、嘴部三個特殊區(qū)域,具體為:采用紅外光源補(bǔ)光,人臉部分的皮膚為白色,眼睛、嘴部色彩偏暗,將圖像分別在橫向及縱向加合,即圖像向X軸及Y軸投影:a)向Y軸作投影積分,得到
權(quán)利要求
1.一種眼神定位全景互動控制方法,其特征在于,包括以下步驟: 1)左右兩側(cè)的攝像頭同時采集圖像,并將其發(fā)送給控制器; 2)控制器對接收的兩幅圖像進(jìn)行圖像校正和立體標(biāo)定; 3)處理器進(jìn)行左圖像人臉區(qū)域圖像的選??; 4)處理器在選取的人臉區(qū)域圖像上進(jìn)行面部區(qū)域的精確配準(zhǔn); 5)篩選出面部區(qū)域內(nèi)的角點信息; 6)根據(jù)篩選出來的左圖像的角點來尋找右圖像中的對應(yīng)點,并根據(jù)三角視差法來計算角點的空間坐標(biāo)信息; 7)將步驟6)得到所有角點的空間坐標(biāo)信息進(jìn)行最小二乘擬合,得到這些角點的中心坐標(biāo)即空間中人臉的中心點,得到人臉的朝向。
2.根據(jù)權(quán)利要求1所述的一種眼神定位全景互動控制方法,其特征在于,所述的步驟2)中的圖像校正包括徑向畸變校正和切向畸變校正。
3.根據(jù)權(quán)利要求2所述的一種眼神定位全景互動控制方法,其特征在于,所述的步驟2)中立體標(biāo)定具體為: 畸變校正后的兩幅圖像進(jìn)行行對應(yīng),使得兩幅圖像的對極線在同一水平線上,即一幅圖像上任意一點與其在另一幅圖像上的對應(yīng)點具有相同的行號。
4.根據(jù)權(quán)利要求2所述的一種眼神定位全景互動控制方法,其特征在于,所述的步驟3)處理器進(jìn)行左圖像人臉區(qū)域圖像的選取具體為: 31)通過輸入已知的人臉樣本圖像及非人臉樣本圖像進(jìn)行AdaBoost人臉訓(xùn)練,得到訓(xùn)練結(jié)果; 32)對攝像頭采集的左圖像分成多個矩形框,根據(jù)訓(xùn)練結(jié)果來判斷每個矩形框內(nèi)的圖像是否為人臉,從而搜索出左圖像中所有的人臉區(qū)域。
5.根據(jù)權(quán)利要求2所述的一種眼神定位全景互動控制方法,其特征在于,所述的步驟4)中的進(jìn)行面部區(qū)域的精確配準(zhǔn)為: 檢測到的人臉區(qū)域中進(jìn)行雙向投影求取峰值點的方式確定眼睛、鼻子、嘴部三個特殊區(qū)域,具體為: 采用紅外光源補(bǔ)光,人臉部分的皮膚為白色,眼睛、嘴部色彩偏暗,將圖像分別在橫向及縱向加合,即圖像向X軸及Y軸投影: a)向Y軸作投影積分,得到
6.根據(jù)權(quán)利要求5所述的一種眼神定位全景互動控制方法,其特征在于,所述的角點信息包括嘴部中心點坐標(biāo)和兩`個眼睛中心點坐標(biāo)。
全文摘要
本發(fā)明涉及一種眼神定位全景互動控制方法,包括以下步驟1)左右兩側(cè)的攝像頭同時采集圖像,并將其發(fā)送給控制器;2)控制器對接收的兩幅圖像進(jìn)行圖像校正和立體標(biāo)定;3)處理器進(jìn)行左圖像人臉區(qū)域圖像的選??;4)處理器在選取的人臉區(qū)域圖像上進(jìn)行面部區(qū)域的精確配準(zhǔn);5)篩選出面部區(qū)域內(nèi)的角點信息;6)根據(jù)篩選出來的左圖像的角點來尋找右圖像中的對應(yīng)點,并根據(jù)三角視差法來計算角點的空間坐標(biāo)信息;7)將步驟6)得到所有角點的空間坐標(biāo)信息進(jìn)行最小二乘擬合,得到這些角點的中心坐標(biāo)即空間中人臉的中心點,得到人臉的朝向。與現(xiàn)有技術(shù)相比,本發(fā)明具有簡化了人眼定位技術(shù),并可以實時獲取到當(dāng)前攝像頭組前人臉的空間位置及朝向等優(yōu)點。
文檔編號G06K9/66GK103186233SQ20111045791
公開日2013年7月3日 申請日期2011年12月31日 優(yōu)先權(quán)日2011年12月31日
發(fā)明者楊青青, 飛蘋果 申請人:上海飛來飛去新媒體展示設(shè)計有限公司
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
永兴县| 凭祥市| 东光县| 龙胜| 宜宾县| 天长市| 察哈| 阿图什市| 镇原县| 茶陵县| 乌拉特中旗| 沁阳市| 红原县| 疏勒县| 镇雄县| 白朗县| 灵山县| 吉隆县| 潮安县| 建平县| 镇雄县| 新营市| 内乡县| 彝良县| 肥城市| 平安县| 阿瓦提县| 海丰县| 崇礼县| 内乡县| 永春县| 新兴县| 扶余县| 光山县| 佛教| 龙山县| 东平县| 临西县| 凤山市| 三台县| 台州市|