本公開涉及人機交互技術領域,具體而言,涉及一種游戲交互方法與裝置。
背景技術:
在現(xiàn)有的體感游戲或虛擬現(xiàn)實游戲中,通??梢酝ㄟ^對用戶肢體動作的捕捉來判斷用戶的交互意圖。但是,當用戶在游戲過程中想調(diào)整顯示界面的視覺焦距以放大顯示對象從而看得更清楚,或者當用戶想要瞄準一個顯示對象時,通常需要通過手動操控硬件來實現(xiàn)。由于手動操控的過程需要與硬件進行交互,具有一定的中斷和延時,影響了用戶游戲體驗的流暢性。
因此,需要一種能給用戶帶來流暢的游戲體驗的顯示界面調(diào)整方式。
需要說明的是,在上述背景技術部分公開的信息僅用于加強對本公開的背景的理解,因此可以包括不構成對本領域普通技術人員已知的現(xiàn)有技術的信息。
技術實現(xiàn)要素:
本公開的目的在于提供一種游戲交互方法與裝置,用于至少在一定程度上克服由于相關技術的限制和缺陷而導致的一個或多個問題。
根據(jù)本公開實施例的第一方面,提供一種游戲交互方法,包括:
獲取用戶在預設表情下的預設表情參數(shù);
獲取用戶的實時表情參數(shù);
判斷用戶的預設表情程度,所述預設表情程度表征實時表情與所述預設表情之間的接近度;
根據(jù)所述預設表情程度調(diào)整游戲顯示界面。
在本公開的一種示例性實施例中,獲取用戶的預設表情參數(shù)包括:
獲取用戶正常狀態(tài)下的面部特征點的第一坐標;
獲取用戶在所述預設表情下的所述面部特征點的第二坐標;
根據(jù)所述第一坐標與所述第二坐標獲取所述預設表情參數(shù)。
在本公開的一種示例性實施例中,獲取用戶的實時表情參數(shù)包括:
追蹤所述面部特征點,以獲取所述面部特征點的第三坐標;
根據(jù)所述第一坐標與所述第三坐標獲取所述實時表情參數(shù)。
在本公開的一種示例性實施例中,所述預設面部表情包括瞇眼表情和瞄準表情。
在本公開的一種示例性實施例中,獲取用戶的預設表情參數(shù)包括獲取用戶正常狀態(tài)下的視線焦點位置。
在本公開的一種示例性實施例中,通過所述實時表情參數(shù)與所述預設表情參數(shù)的比值判斷用戶的預設表情程度。
在本公開的一種示例性實施例中,當所述比值大于等于1時,顯示預設界面。
在本公開的一種示例性實施例中,當所述比值小于1時,根據(jù)所述比值調(diào)整游戲顯示界面的焦距。
根據(jù)本公開的一個方面,提供一種游戲交互裝置,包括:
參數(shù)設置模塊,用于獲取用戶在預設表情下的預設表情參數(shù);
表情監(jiān)控模塊,用于獲取用戶的實時表情參數(shù);
表情判斷模塊,用于判斷用戶的預設表情程度;
界面調(diào)整模塊,用于根據(jù)所述預設表情程度調(diào)整游戲顯示界面。
在本公開的一種示例性實施例中,所述預設面部表情包括瞇眼表情和瞄準表情。
本公開的游戲交互方法通過判斷用戶面部表情調(diào)整游戲顯示界面,在不需要用戶主動控制的情況下實現(xiàn)了對用戶意圖的適應,相比于傳統(tǒng)的游戲交互方式,具有交互速度快、交互方式自然等優(yōu)點,極大改善了用戶的游戲體驗。
應當理解的是,以上的一般描述和后文的細節(jié)描述僅是示例性和解釋性的,并不能限制本公開。
附圖說明
此處的附圖被并入說明書中并構成本說明書的一部分,示出了符合本公開的實施例,并與說明書一起用于解釋本公開的原理。顯而易見地,下面描述中的附圖僅僅是本公開的一些實施例,對于本領域普通技術人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其他的附圖。
圖1示意性示出本公開示例性實施例中一種游戲交互方法的流程圖。
圖2示意性示出本公開示例性實施例中面部特征點的示意圖。
圖3示意性示出本公開示例性實施例中面部特征參數(shù)示意圖。
圖4A示意性示出本公開示例性實施例中顯示焦距為初始顯示焦距的游戲顯示界面。
圖4B示意性示出本公開示例性實施例中顯示焦距為實時顯示焦距的游戲顯示界面
圖5A示意性示出本公開示例性實施例中正常顯示界面的示意圖。
圖5B示意性示出本公開示例性實施例中瞄準顯示界面的示意圖。
圖6示意性示出本公開示例性實施例中一種游戲交互裝置的方框圖。
具體實施方式
現(xiàn)在將參考附圖更全面地描述示例實施方式。然而,示例實施方式能夠以多種形式實施,且不應被理解為限于在此闡述的范例;相反,提供這些實施方式使得本公開將更加全面和完整,并將示例實施方式的構思全面地傳達給本領域的技術人員。所描述的特征、結構或特性可以以任何合適的方式結合在一個或更多實施方式中。在下面的描述中,提供許多具體細節(jié)從而給出對本公開的實施方式的充分理解。然而,本領域技術人員將意識到,可以實踐本公開的技術方案而省略所述特定細節(jié)中的一個或更多,或者可以采用其它的方法、組元、裝置、步驟等。在其它情況下,不詳細示出或描述公知技術方案以避免喧賓奪主而使得本公開的各方面變得模糊。
此外,附圖僅為本公開的示意性圖解,圖中相同的附圖標記表示相同或類似的部分,因而將省略對它們的重復描述。附圖中所示的一些方框圖是功能實體,不一定必須與物理或邏輯上獨立的實體相對應。可以采用軟件形式來實現(xiàn)這些功能實體,或在一個或多個硬件模塊或集成電路中實現(xiàn)這些功能實體,或在不同網(wǎng)絡和/或處理器裝置和/或微控制器裝置中實現(xiàn)這些功能實體。
下面結合附圖對本公開示例實施方式進行詳細說明。
圖1是本公開示例性實施例中一種游戲交互方法100的流程圖。
參考圖1,所述游戲交互方法100可以包括:
步驟S102:獲取用戶在預設表情下的預設表情參數(shù);
步驟S104:獲取用戶的實時表情參數(shù);
步驟S106:判斷用戶的預設表情程度,所述預設表情程度表征實時表情與所述預設表情之間的接近度;
步驟S108:根據(jù)所述預設表情程度調(diào)整游戲顯示界面。
通過本示例性實施例中的游戲交互方法通過判斷用戶面部表情調(diào)整游戲顯示界面,在不需要用戶主動控制的情況下實現(xiàn)了對用戶意圖的適應,相比于傳統(tǒng)的游戲交互方式,具有交互速度快、交互方式自然等優(yōu)點,極大改善了用戶的游戲體驗。
下面,將對本公開的示例性實施例中的游戲交互方法中的各步驟作進一步的說明。
在步驟S102中,獲取用戶在預設表情下的預設表情參數(shù)。
本公開提供的游戲交互方法可以適用于體感游戲設備、虛擬現(xiàn)實設備等具有運動捕捉功能的設備。
運動捕捉是一種用于準確測量運動物體在三維空間運動狀況的技術。它基于計算機圖形學原理,通過排布在空間中的數(shù)個視頻捕捉設備將運動物體(或附著在運動物體上的跟蹤器)的運動狀況以圖像的形式記錄下來,然后使用獲取機對該圖象數(shù)據(jù)進行處理,從而獲得不同時間計量單位上不同物體(跟蹤器)的空間坐標。
進一步地,在本公開的示例性實施方式中,所述步驟S102:獲取用戶在預設表情下的預設表情參數(shù),可以包括:
步驟S1022,獲取用戶正常狀態(tài)下的面部特征點的第一坐標。
首先,通過逆向建模獲得用戶面部模型以及特征點??梢酝ㄟ^設備的光傳感器捕捉用戶在正常狀態(tài)下面部肌肉反射光的光譜。這些光譜可以是自然光投射在面部肌肉上的反射光的光譜,也可以是設備投射在面部肌肉上的反射光的光譜。通過對上述光譜的分析,可以通過逆向建?!缫郧嬷貥嫷姆绞剑瑢τ脩裘娌窟M行建模。
曲面重構是一種逆向建模方法。在曲面重構過程中,可以先對離散數(shù)據(jù)點進行參數(shù)化,然后根據(jù)數(shù)據(jù)點塊的邊界構造初始曲面,并使各數(shù)據(jù)點的相對位置在初始曲面上得以呈現(xiàn),從而通過獲取數(shù)據(jù)點各自的參數(shù)(u,v)分布,使各數(shù)據(jù)點成為曲面片真正的節(jié)點。在對各節(jié)點進行順序排列,例如對各節(jié)點的節(jié)點次序、節(jié)點編號和節(jié)點參數(shù)化值進行排序后,可以得到具有有序的多個節(jié)點的曲面片。
在本示例實施方式中,可以通過獲取用戶面部的特征點來作為曲面重構過程中的數(shù)據(jù)點。此處可引入MPEG-4對三維人臉動畫定義的國際標準【ISO/IEC 1988a】和【IOS/IEC 1988b】,這兩種標準都包括了對FAP(facial animation parameter,人臉動畫參數(shù))的定義。FAP是一種具有通用性的參數(shù),可以用來表示人臉運動數(shù)據(jù),其值通常以FAPU(facial animation parameter unit,人臉動畫參數(shù)單元)為單位,以使同樣的FAP在應用到不同的模型上時,產(chǎn)生的是同樣的肌肉變化。
在本示例實施方式中,預設面部表情可以包括瞇眼表情和瞄準表情。因此,本步驟可以包括獲取用戶眼周肌肉的運動,從而獲取所述用戶的表情??梢詫㈩~肌、顳肌、眼輪匝肌、皺眉肌鼻肌、顴肌等眼周肌肉作為能夠最大程度反映用戶表情特征的肌肉,在這些肌肉位置上標記特征點,再通過曲面重構等逆向建模方式獲得用戶的眼周局部建模。值得一提的是,逆向建模方式并不僅限于此,本領域相關技術人員當可根據(jù)實際情況選擇逆向建模方式。
在獲得用戶的面部模型后,可以選取特征點,并記錄這些特征點的坐標。將此時的用戶面部特征點坐標記錄為第一坐標,以表示用戶在正常狀態(tài)下的面部表情特征。
步驟S1024,獲取用戶在所述預設表情下的所述面部特征點的第二坐標。
可以提示用戶做出預設表情。提示用戶的方法包括但不限于在游戲界面中進行視覺提示、通過設備進行音頻提示等。當發(fā)出上述提示后,可以通過對進行圖像處理、分析與模式識別,實時捕捉上述用戶面部特征點的坐標,以判斷用戶面部肌肉運動,并在用戶面部肌肉保持穩(wěn)定時記錄用戶的表情。
可以將此時的用戶面部特征點坐標記錄為第二坐標,以表示用戶在預設表情下的面部表情特征。
步驟S1026,根據(jù)所述第一坐標與所述第二坐標獲取所述預設表情參數(shù)。
可以根據(jù)第一坐標得出選定特征點之間的距離以獲取第一面部表情參數(shù)K0,根據(jù)第二坐標得出選定特征點之間的距離以獲取第二面部表情參數(shù)K1,計算K1與K0的比值K1/K0,將所述比值記錄為預設表情參數(shù)。
當預設面部表情包括瞇眼表情和瞄準表情時,獲取用戶的預設表情參數(shù)除了獲取用戶眼周肌肉特征點的坐標,也可以包括獲取用戶正常狀態(tài)下的視線焦點位置。例如,可以通過追蹤用戶瞳孔位置確定用戶的視線焦點位置,而所述位置是根據(jù)顯示界面的坐標預先設置的,一旦檢測到用戶視線焦點停留于所述位置超過預設時間閾值時,則觸發(fā)相應的游戲操作(如,在射擊游戲中,執(zhí)行瞄準對焦和射擊)。
在步驟S104中,獲取用戶的實時表情參數(shù)。
通過追蹤上述面部特征點,以獲取所述面部特征點的第三坐標,并根據(jù)所述第一坐標與所述第三坐標獲取所述實時表情參數(shù)。根據(jù)第三坐標記得出選定特征點之間的距離以獲取第三面部表情參數(shù)K2,實時表情參數(shù)例如可以通過K2/K0來表示。
在步驟S106中,判斷用戶的預設表情程度,所述預設表情程度表征實時表情與所述預設表情之間的接近度。
通過所述實時表情參數(shù)與所述預設表情參數(shù)的比值判斷用戶的預設表情程度。例如,可以通過K2/K1來獲取實時表情與預設表情之間的接近度。
在步驟S108中,根據(jù)所述預設表情程度調(diào)整游戲顯示界面。
得出上述用戶表情判斷結果后,可以根據(jù)實時表情與預設表情之間的接近度調(diào)整游戲顯示界面。例如,在當所述比值大于等于1時,顯示預設界面。當所述比值大于1時,表示用戶的實時表情超出l預設表情的面部肌肉運動范圍,過度做出了預設表情;當所述比值等于1時,表示用戶的實時表情十分接近預設表情,可認為用戶做出了預設表情。因此,當用戶做出預設表情或過度做出預設表情時,可顯示預設界面。
當預設表情包括瞇眼表情和瞄準表情時,此時的顯示界面可以是允許顯示的最大視覺焦距界面或者瞄準界面(例如可以包括準星或者瞄準窗口)。在本公開的其他實施例中,當預設表情包括其他表情時,上述的預設界面也可以是其他顯示界面,本領域相關技術人員當可根據(jù)實際情況實施。
同時,當預設表情包括瞇眼表情,且當所述比值小于1時,可以根據(jù)所述比值調(diào)整游戲顯示界面的焦距。在這里,可以認為當所述比值小于1時,用戶的面部肌肉運動未達到預設表情的面部肌肉運動范圍,例如預設表情是瞇眼表情,用戶的瞇眼程度可能并未達到預設的瞇眼表情的瞇眼程度。此時,可以根據(jù)用戶的瞇眼程度調(diào)整游戲顯示界面的焦距,例如,用戶瞇眼程度越大,越接近預設瞇眼程度,則游戲顯示界面的焦距越大,用戶可以看到相對更遠的景象;用戶瞇眼程度越小,越接近正常狀態(tài)的面部表情,則游戲顯示界面的焦距越小,越接近用戶正常表情情況下能看到的游戲顯示界面。
由于人在看不清遠處較為模糊或者視線不清晰時,會下意識瞇眼來看清楚更遠的物體,因此,通過上述方法,可以通過檢測人眼周圍的肌肉的變化判斷用戶是否做出了瞇眼表情,從而判斷用戶是否有查看更遠目標的需求。通過建立用戶的瞇眼表情程度與游戲顯示界面的焦距之間比例參數(shù)關系,可以使用戶通過下意識的面部肌肉動作來控制游戲顯示界面,從而看到更符合需求的游戲顯示界面。同理,當用戶做出瞄準表情或其他預設表情時,上述方法也可以使游戲顯示界面顯示游戲瞄準界面或其他符合用戶需求的游戲顯示界面,本公開對此不作特殊限定。
下面通過具體實施例來對本公開實施例實施方式進行詳細說明。
圖2是MPEG-4標準規(guī)定的人面部特征點的示意圖。
參考圖2,在MPEG-4標準中,F(xiàn)AP包括84個面部特征點,面部特征點可以按部位命名。在本實施例中,可以將虹膜直徑、兩眼中心距離、眼睛-鼻子距離作為最能表征用戶眼部表情的特征值,選取能夠表達這些特征值的特征點,例如特征點3.10、3.14、5.4、4.4、4.6、3.12。
圖3是本公開示例性實施例中面部特征參數(shù)示意圖。
參考圖3,可以通過幾組特征點之間的長度(以右眼為例)L1(3.10&3.14)、L2(5.4&4.4)、L3(4.6&3.12)設置面部表情參數(shù)K。例如,將面部表情參數(shù)K定義為:K=a1*L1+a2*L2+a3*L3,其中a1、a2、a3為常量,用于分配三段L值的權重。
因此,可以首先通過用戶面部的反射光使用曲面重構等逆向建模方法獲取用戶的面部模型,并在面部模型上定位上述特征點。然后,提示用戶做出正常表情,記錄上述特征點的坐標作為第一坐標,并根據(jù)第一坐標計算特征點之間的長度,從而獲取第一面部表情參數(shù)K0。
接下來,可以提示用戶做出預設表情,例如瞇眼表情,獲取上述特征點的第二坐標,并根據(jù)第二坐標計算特征點之間的長度,獲取第二面部表情參數(shù)K1。獲取第二坐標的過程可以包括判斷用戶面部肌肉所呈現(xiàn)的表情狀態(tài)是否穩(wěn)定,例如各特征點坐標的穩(wěn)定時間超過預設時間,以判斷用戶按照指示做出了其想要表達的預設面部表情(例如為瞇眼表情)。
追蹤定位上述特征點,并計算特征點之間的長度,從而獲取用戶的實時面部表情參數(shù)K2,并根據(jù)K2獲取用戶的預設面部表情程度,例如瞇眼程度。
當預設面部表情為瞇眼表情時,可以設定游戲顯示界面可視范圍初始顯示焦距為J0,允許可看的最大焦距為J1,(K1/K0)=a(J1/J0),其中常數(shù)a的值可以由(K1/K0)/(J1/J0)確定。
此時,可以得到游戲顯示界面的焦距J和用戶面部表情參數(shù)K之間的對應關系J=K/a。由于實時面部表情參數(shù)可表示為K2/K0,因此,通過計算確定實時游戲顯示界面的實時顯示焦距J2,并根據(jù)J2調(diào)整游戲顯示界面。
圖4A是本公開示例實施例中焦距為初始顯示焦距J0的游戲顯示界面。圖4B是本公開示例實施例中焦距為實時顯示焦距J2的游戲顯示界面。
參考圖4A~圖4B,當用戶做出正常表情時,K2=K0,J2=J0,顯示焦距為J0的游戲顯示界面;當預設表情程度小于1時,J2<J1,顯示焦距為J2的游戲顯示界面;當預設表情程度大于等于1時,可以得出J2≥J1,此時可以仍然顯示最大焦距J1。
圖5A是本公開示例實施例中正常顯示界面的示意圖。圖5B是本公開示例性實施例中瞄準顯示界面的示意圖。
參考圖5A~圖5B,當預設表情為瞄準表情時,可以在獲取第一面部表情參數(shù)K0后,提示用戶做出瞄準表情,并在判斷用戶面部肌肉穩(wěn)定時間達到或超過一預設時間(例如可以為0.5s)時,獲取用戶面部特征點的第二坐標,從而獲取第二面部表情參數(shù)K1。需要注意的是,在本實施例中,獲取第二面部表情參數(shù)K1還包括獲取用戶視線在游戲顯示界面的焦點位置F。
當通過獲取用戶實時面部表情參數(shù)從而判斷用戶做出了瞄準表情時,可以顯示以上述焦點位置F為圓心、以預設數(shù)值為半徑的瞄準界面。進一步的,當判斷第三面部表情參數(shù)在預設時間內(nèi)從K1陡降到K0時,將游戲顯示界面還原為正常界面。上述瞄準界面的顯示方式可以為多種,例如矩形、靶形、準星標記等,本公開不以此為限。
對應于上述方法實施例,本公開還提供一種游戲交互裝置,用于執(zhí)行上述方法實施例。
圖2示意性示出本公開示例性實施例中一種游戲交互裝置的方框圖。參考圖2,游戲交互裝置200包括參數(shù)設置模塊202、表情監(jiān)控模塊204、表情判斷模塊206以及界面調(diào)整模塊208。
參數(shù)設置模塊202用于獲取用戶在預設表情下的預設表情參數(shù)。在本公開的一種示例性實施例中,預設面部表情可以包括瞇眼表情和瞄準表情。
表情監(jiān)控模塊204用于獲取用戶的實時表情參數(shù)。
表情判斷模塊206用于判斷用戶的預設表情程度,所述預設表情程度表征實時表情與所述預設表情之間的接近度。
界面調(diào)整模塊208用于根據(jù)所述預設表情程度調(diào)整游戲顯示界面。
由于裝置200的各部分功能已在對應的方法實施例中詳細描述,本公開于此不再贅述。
本公開的游戲交互方法與裝置通過對用戶面部進行逆向建模,并追蹤定位用戶面部特征點,判斷用戶面部表情,實現(xiàn)了根據(jù)用戶自然表情調(diào)整游戲顯示界面,在不需要用戶主動控制的情況下實現(xiàn)了對用戶意圖的適應,相比于傳統(tǒng)的游戲交互方式,具有交互速度快、交互方式自然等優(yōu)點,極大改善了用戶的游戲體驗。
本領域技術人員在考慮說明書及實踐這里公開的發(fā)明后,將容易想到本公開的其它實施方案。本申請旨在涵蓋本公開的任何變型、用途或者適應性變化,這些變型、用途或者適應性變化遵循本公開的一般性原理并包括本公開未公開的本技術領域中的公知常識或慣用技術手段。說明書和實施例僅被視為示例性的,本公開的真正范圍和精神由所附的權利要求指出。