欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

眼鏡虛擬試戴互動服務系統(tǒng)與方法

文檔序號:6428210閱讀:677來源:國知局
專利名稱:眼鏡虛擬試戴互動服務系統(tǒng)與方法
技術領域
本發(fā)明涉及ー種提供真人影像的眼鏡三維(3D)虛擬試戴互動服務系統(tǒng)與方法,特別涉及一種用于電子商務互動系統(tǒng)上的眼鏡3D試戴互動服務系統(tǒng)與方法。
背景技術
隨著電子商務的蓬勃發(fā)展,越來越多的消費者也越來越依賴電子商務互動平臺系統(tǒng)來選擇自己喜愛的貨物與商品。而商品與模特的合并展示圖片、電子商品試戴系統(tǒng)與軟件,也越來越吸引消費者的注意,進而引起消費者的購買欲望。而提供真人影像的眼鏡試戴系統(tǒng)更是受到消費者注目與歡迎的試戴系統(tǒng)之一,使用者只要應用自己的照片,便可從數(shù)以萬計的眼鏡商品中找到自己喜愛與合適的眼鏡。然而,傳統(tǒng)的眼鏡試戴系統(tǒng)多為ニ維(2D)平面,使用者只能觀看自己試戴眼鏡的正面影像,而無法由左右側面來觀看自己試戴眼鏡的側面影像。且傳統(tǒng)的眼鏡試戴系統(tǒng)也無法隨著消費者臉部的移動與轉(zhuǎn)動,適當?shù)貙⒀坨R與消費者的臉部作合成。因此,往往造成 所合成的影像過于突?;虿徽鎸?。因此,鑒于傳統(tǒng)眼鏡試戴系統(tǒng)與方法缺乏有效且經(jīng)濟機制來解決傳統(tǒng)的問題,因此亟需提出一種新穎的眼鏡虛擬試戴互動服務系統(tǒng)與方法,能夠經(jīng)過精確的模擬與運算,來解決上述的問題。

發(fā)明內(nèi)容
為解決上述問題,本發(fā)明提供真人影像的眼鏡虛擬試戴互動服務系統(tǒng)與方法,經(jīng)過精確的模擬與運算,解決當消費者臉部的移動與轉(zhuǎn)動時,無法將眼鏡與消費者的臉部作適當?shù)暮铣?,從而產(chǎn)生合成影像過于突兀或不真實的問題。根據(jù)具體實施例,本發(fā)明提供真人影像的一種眼鏡虛擬試戴互動服務方法,其特征包括透過畫面內(nèi)的框架以定位人臉,并取得第一人臉影像;對該第一人臉影像的眼睛,取得多個第一特征點;在每個第一特征點周圍取樣多個第一特征信息,并儲存該多個第一特征信息;利用畫面對比判斷該人臉是否有動態(tài)移動,并透過下ー個該畫面取得該第二人臉影像;結合搜尋對比范圍與追蹤特征信息方法取得該第二人臉影像內(nèi)多個第二特征點,進而取得多個第二特征點定位信息;對比該第一人臉影像與該第二人臉影像的相對位置信息差異,來判斷該人臉的位置、移動狀態(tài)與縮放比例,進而計算出該多個第二特征點的位置;以及將預設的眼鏡模型合成于該多個第二特征點的位置。根據(jù)該具體實施例,本發(fā)明提供真人影像的一種眼鏡虛擬試戴互動服務系統(tǒng),其特征包括影像擷取單元,透過畫面內(nèi)的框架來定位人臉,并取得第一人臉影像;處理單元,耦接該影像擷取單元,對該第一人臉影像的眼睛,取得多個第一特征點,且在每個第一特征點周圍設計取樣模式以取得有利的多個第一特征信息,并儲存該多個第一特征信息,且利用畫面對比判斷該人臉是否有動態(tài)移動,并透過下ー個該畫面取得該第二人臉影像,結合搜尋對比范圍與追蹤特征信息方法并取得該第二人臉影像內(nèi)多個第二特征點,進而取得多個第二特征點定位信息;分析単元,耦接該處理單元,用以對比該第一人臉影像與該第二人臉影像的相對位置信息差異,以判斷該人臉的位置、移動狀態(tài)與縮放比例,進而計算出該多個第二特征點的位置;以及合成単元,耦接該分析単元,將預設的一虛擬眼鏡模型合成于該多個第二特征點的位置。后續(xù)以此方法類推取得動態(tài)的第三、第四的特征點的位置。根據(jù)另一具體實施例,本發(fā)明提供一種隱形眼鏡虛擬試戴互動服務方法,其特征包括透過畫面內(nèi)的框架來定位一人臉,并取得第一人臉影像;對該第一人臉影像的眼睛瞳孔,取得多個第一特征點;在每個第一特征點周圍取樣多個第一特征信息,并儲存該多個第一特征信息;以及將預設的隱形眼鏡模型合成于該多個第二特征點的位置。后續(xù)以此方法類推取得動態(tài)的第三、第四的特征點的位置。為進一歩對本發(fā)明有更深入的說明,并借以下圖示、圖號說明及發(fā)明詳細說明,希望能夠?qū)彶楣ぷ饔兴鶐椭?


圖1A、圖IB是根據(jù)本發(fā)明具體實施例的一種眼鏡虛擬試戴互動服務方法;圖2A 圖2D是根據(jù)圖I方法的操作手段;圖3A 圖3C顯示人臉的傾斜、轉(zhuǎn)動與移動角度;圖4是眼鏡合成人臉的狀態(tài)示意圖;圖5A 圖5C是根據(jù)本發(fā)明具體實施例的三維眼鏡制作方法;圖6A 圖6B是根據(jù)本發(fā)明的另ー實施例的一種隱形眼鏡虛擬試戴互動服務方法;圖7A 圖7B是根據(jù)圖6方法的操作手段;圖8是根據(jù)本發(fā)明的具體實施例的一種眼鏡虛擬試戴互動服務系統(tǒng)。附圖標記步驟SlOl sl07步驟S6Ol S6O781影像擷取單元82處理單元83分析單元84合成單元85眼鏡數(shù)據(jù)庫
具體實施例方式配合下列圖式說明本創(chuàng)作的詳細結構,及其連結關系。圖I是根據(jù)本發(fā)明的具體實施例的真人影像一種眼鏡虛擬試戴互動服務方法,其特征包括透過畫面內(nèi)的框架來定位人臉,并取得第一人臉影像(步驟SlOl),例如,如圖2A所示,本具體實施例在畫面中顯示一虛線框架并要求使用者臉部正面進入框架,以符合虛線框大小并將雙眼對齊橫線,來定位使用者的臉部,并拍攝下該第一人臉影像。接著,對該第一人臉影像的眼睛特征處,例如兩側眼角,取得多個第一特征點(步驟sl02),此多個第一特征點可以但不限于包括左右眼的兩側眼角以及嘴角兩側。例如,如圖2B中畫叉所示,本具體實施例,可以手動點選該第一人臉影像的左右眼的兩側眼角點以及嘴角兩側點,以分別取得ー個或多個第一特征點。另外,在另ー具體實施例也可以使用人臉辨識方式讓程序自動抓取特征點。此外,本實施例在此步驟(sl02)之后,更可根據(jù)多個第一特征點,來判斷該第一人臉影像是否符合人臉邏輯,若不符合,則重新取得該第一人臉影像或該多個第ー特征點。若符合,則進行下ー步動作,應用搜尋運算,來判斷該多個第一特征點是否位于該框架內(nèi),若不是,則重新取得該第一人臉影像或該多個第一特征點,若是,則進行下一歩動作。其中,判斷特征點位置是否符合人臉邏輯的方式有左(右)眼的兩側眼角點是否在虛線框左(右)半邊、同一只眼的內(nèi)外眼角是否相隔一定間距、同一只眼的內(nèi)外眼角或左右嘴角高度是否差距過大等。若有ー項不符合上述限定條件,則要求重新取得該第一特征點或該第一人臉影像。接下來,在每個第一特征點周圍設計取樣模式以取得有利的多個第一特征信息,并儲存該多個第一特征信息(步驟sl03),且特征包括同時儲存該多個第一特征點與該多個第一特征點間的點間距。取樣模式進ー步而言,該特征信息為像素色彩信息,且該像素色 彩信息由每ー個該特征點輻射出m個方向,并在每ー個方向上取得n個像素點,以作為色彩信息,且該m與n為正整數(shù)?;蛘呤?,該像素色彩信息是由每一個該特征點呈半圓輻射出m個方向,并在姆ー個方向上取得n個像素點,以作為色彩信息,且該m與n為正整數(shù)以及該半圓至少涵蓋一眼角。如圖2C所示,本具體實施例以取樣模式的方法抓取特征點的鄰近像素色彩信息,同時記錄各特征點之間的點間距。例如,由特征點以半圓輻射擴散的方式向外延伸8個方向,并分別取7個點共56個色彩信息當作此特征點的特征信息,且該半圓至少完全涵蓋一眼角?;蛘呤牵鐖D2D所示,在另一具體實施例,該取樣模式由特征點以輻射擴散的方式向外延伸8個方向,并分別取7個點共56個色彩信息當作此特征點的特征信息。接著,取得下ー個畫面中該第二人臉影像,并利用畫面對比判斷該人臉是否有動態(tài)移動(步驟sl04)。其中在時間間隔內(nèi),對比該畫面與下ー個該畫面中的人臉,并動態(tài)追蹤該多個第一特征點是否有移動軌跡。例如,本具體實施例,該畫面與下ー個該畫面像素以相減的方式對比在此時間間隔內(nèi)移動的物體,若特征點附近有明顯移動痕跡,表示人臉在這段時間有動作,則進行后續(xù)步驟與運算。反之,如果人臉沒有動作,則不做后續(xù)追蹤處理。在另一具體實施例中,還可以以ー背景圖與該畫面相減的方式,對比在該時間間隔內(nèi)移動的物體?;蛘呤?,經(jīng)過前后畫面像素差的特征信息中的白點(動點)數(shù)量決定目前影像中移動量的程度,若白點數(shù)量多,則表示人臉正在移動,則進行后續(xù)步驟與運算。反之,如果特征點附近沒有白點,表示人臉沒有明顯移動痕跡,則不作后續(xù)追蹤處理。接著,應用噪聲濾除法,來濾除下ー個該畫面內(nèi)的噪聲,以避免后面對比過程中受到噪聲干擾而提高失誤率,且該噪聲濾除法為高斯模糊法、中值法與均值法的其中之一。當前述有移動痕跡時,將進一步結合搜尋對比范圍并追蹤特征信息,進而取得該第二人臉影像內(nèi)多個第二特征點,進而取得多個第二特征信息(步驟sl05),并且對比該第一人臉影像與該第二人臉影像的相對位置信息差異,來判斷該人臉的位置、移動狀態(tài)與縮放比例,進而計算出該多個第二特征點的位置(步驟sl06)。其中,至少預設ー對比范圍,來對比該多個第一特征信息與該多個第二特征信息,并取該多個第一特征信息與該多個第二特征之間多個誤差值,且排序該復數(shù)個誤差值,并取得前i個最小誤差值,進而取得該多個第二特征點的位置。在本具體實施例中,根據(jù)兩種不同的狀態(tài)而有不同的決定法(I)搜尋狀態(tài)當剛點選完特征點第一次開始偵測時或追蹤失敗時會進入此狀態(tài),在此狀態(tài)下,對比的范圍是靜態(tài)的,僅局限在使用者初次點選特征點的鄰近范圍內(nèi)作對比,意即強迫使用者臉對著虛線框的位置,才有可能進入對比范圍。(2)追蹤狀態(tài)在前ー個畫面有成功對比到特征點的情況下則為追蹤狀態(tài),在此狀態(tài)下,對比的區(qū)域為上ー個畫面中對比到的特征點的鄰近區(qū)域,意即此區(qū)域是動態(tài)的會跟著目前追到的特征點移動的。且在對比的范圍內(nèi),會包含依設計的取樣模式取N個像素,每個像素會以取樣模式的方法來取得該像素點的臨近56個點,將這些點的RGB與YCbCr色彩信息與起初錄制的第一特征信息作對比,兩者誤差值為Error I Error N,將該這N個值作排序,取最小誤差的前i個像素為候選點,例如10個,且再作一次分群去除離群值,最后平均這些較集中的像素值坐標,該結果即是最后追蹤結果。如果,在N個點中找出的Error值都太大,則表示使用者移動程度已超出追蹤范圍,或有額外的遮蔽物出現(xiàn)在特征點前,此時則判定追蹤失敗,不再進行后面的運算。
此外,本實例更可進行幾何計算,例如,根據(jù)該多個第一特征點與該多個第二特征點的位置,以斜率計算該人臉的傾斜度、根據(jù)該多個第一特征點間的距離與該多個第二特征點間的距離,以長度變化計算該人臉的遠近比例以及根據(jù)該多個第一特征點與該多個第ニ特征點的比例,以比例變化計算該人臉的旋轉(zhuǎn)角度與俯仰角度。若該人臉的傾斜度、遠近比例、旋轉(zhuǎn)角度或俯仰角度超過預設允許值,則重新取得該第二人臉影像。如圖3A所示,根據(jù)該第一人臉影像中的兩眼兩側眼角點的坐標位于水平軸,而該第二人臉影像的兩眼兩側眼角點坐標則為上仰角度,因此,可以用斜率計算該人臉的傾斜度。如圖3B所示,根據(jù)該第一人臉影像中兩眼眼角間的距離Dl與該第二人臉影像中兩眼眼角間的距離D2,以長度變化計算該人臉的遠近比例。如圖3C所示,根據(jù)該第一人臉影像中兩眼兩側眼角的比例II與該第二人臉影像中兩眼眼角的比例相比于該第一人臉影像中兩眼兩側眼角的比例為1.1 : I或1.2 : 1,以比例變化計算該人臉的旋轉(zhuǎn)角度以及根據(jù)該第一人臉影像中兩眼與嘴巴位于水平軸,而該第二人臉影像中兩眼與嘴巴相比較在該第一人臉影像中兩眼與嘴巴之比例為I : I. 1,則以比例變化計算該人臉的俯仰角度。接著,由預設的眼鏡數(shù)據(jù)庫提取預設的眼鏡模型,來合成該多個第二特征點的位置(步驟sl07),且根據(jù)該人臉的尺寸、該多個第一特征點與誤差值,以縮放與旋轉(zhuǎn)該眼鏡模型,進而合適地合成到該人臉,且該眼鏡數(shù)據(jù)庫用于儲存眼鏡模型的數(shù)據(jù)。如圖4所示,由上述步驟所計算出的三維空間信息,即可將眼鏡模型智能性地旋轉(zhuǎn)到符合目前使用者動向的位置,又由于人臉大小不同,需配合該多數(shù)的第一特征點坐標對眼鏡尺寸作縮放與旋轉(zhuǎn),并合成在該人臉上。在此步驟之后,可結束該方法,或者是繼續(xù)下一個搜尋與追蹤的步驟。本具體實施例,該眼鏡模型為三維(3D)眼鏡模型,其制作方法可透過攝像裝置(例如,數(shù)字相機)由ー實體眼鏡的正面、正左側面與正右側面三個方向個別取得該實體眼鏡的平面影像(如圖5A與5B所示),但不受限于此?;蛘呤?,將該實體眼鏡作正負90度旋轉(zhuǎn),以取得該實體眼鏡的正面、正左側面與正右側面三個平面影像。接著,將所取得的該三個平面影像應用影像合成軟件與硬件,將其組合成該三維眼鏡模型(如圖5C所示)。當該三維眼鏡模型制作完成后,還可應用各種參數(shù)(例如,旋轉(zhuǎn)參數(shù)、色彩參數(shù)、比例參數(shù)與透明度參數(shù)等),用于調(diào)整該三維眼鏡的位置與顔色,或者是應用選項(例如,選擇正面視圖或左右側視圖)來欣賞該三維眼鏡模型(如圖5C所示)。本具體實施例僅考慮不具有眼鏡鏡片三維鏡框的制作,然而,熟悉該技術人員都應明白本發(fā)明也可用于制作具有眼鏡鏡片的眼鏡模型。圖6根據(jù)本發(fā)明另一具體實施例是隱形眼鏡虛擬試戴互動服務方法。本具體實施例與上述具體實施例差異在于本實施例是以眼睛瞳孔為特征點與結合取樣模式來取得特征信息,且適用于虛擬模擬試戴隱形眼鏡,而其余方法與運算都與上述具體實施例近似,故在本實例僅詳述這些差異處的細節(jié),而與上述具體實施例近似的步驟與方法,則不再贅述。本具體實施例的3D模擬方法特征包括透過畫面內(nèi)一框架以定位人臉,并取得第一人臉影像(步驟s601)。對該第一人臉影像的眼睛瞳孔特征處,取得多個第一特征點(步驟s602),且多個第一特征點包括左右眼的瞳孔以及嘴角兩側,例如,如圖7A中畫叉所示,在本具體實施例中,手動點選該第一人臉影像的左右眼的瞳孔點以及嘴角兩側點,來分別所取得一個或多個第一特征點。在每個第一特征點周圍取樣多個第一特征信息,并儲存該多個第一特征信息(步驟s603)。而本具體實施例,判斷特征點位置是否符合人臉邏輯的方式有左(右)眼的瞳孔是否在虛線框左(右)半邊、同一只眼的瞳孔與兩側眼角是否相隔一定間距、眼睛的瞳孔與左右嘴角高度是否差距過大等。若有ー項不符合上述限定條件,則要求重 新取得該第一特征點或該第一人臉影像。接著,取得下ー個畫面中該第二人臉影像,并判斷該人臉是否有動態(tài)移動(步驟s604),然后,搜尋對比范圍并追蹤特征信息,進而取得該第二人臉影像內(nèi)多個第二特征點,進而取得多個第二特征信息(步驟s605),且特征包括同時儲存該多個第一特征點之間的點間距。如圖7B所示,在本具體實施例取樣的方法抓取特征點的鄰近像素色彩信息,同時記錄各特征點之間的點間距,例如,由特征點來輻射擴散的方式向外延伸8個方向,并分別取7個點共56個色彩信息當作此特征點的特征信息。對比該第一人臉影像與該第二人臉影像,來判斷該人臉的位置、移動狀態(tài)與縮放比例,進而計算出該多個第二特征點的位置(步驟s606),例如,根據(jù)該第一人臉影像中瞳孔點的坐標位于水平軸,而該第二人臉影像瞳孔點坐標則為上仰角度,因此,可以用斜率計算該人臉的傾斜度。例如,根據(jù)該第一人臉影像中兩眼瞳孔間的距離與該第二人臉影像中兩眼瞳孔間的距離,以長度變化計算該人臉的遠近比例。例如,根據(jù)該第一人臉影像中兩眼瞳孔與該第二人臉影像中兩眼瞳孔的比例,來比例變化計算該人臉的旋轉(zhuǎn)角度以及根據(jù)該第一人臉影像中兩眼瞳孔與嘴巴與該第二人臉影像中兩眼瞳孔與嘴巴之間的比例,相比較該第一人臉影像中兩眼與嘴巴的比例,來比例變化計算該人臉的旋轉(zhuǎn)角度與俯仰角度。如果該人臉的傾斜度、遠近比例、旋轉(zhuǎn)角度或俯仰角度超過ー預設允許值,則重新取得該第二人臉影像。以及將預設的隱形眼鏡模型合成在該多個第二特征點的位置(步驟607),且根據(jù)該人臉的尺寸與該多個第一特征點,來縮放與旋轉(zhuǎn)該眼鏡模型,進而合適地合成到該人臉。在此步驟之后,可結束該方法,或者是繼續(xù)下一個搜尋■與追蹤的步驟。圖8根據(jù)本發(fā)明的具體實施例是眼鏡虛擬試戴互動服務系統(tǒng)。該系統(tǒng)特征包括擷取單元81、處理單元82、分析單元83與合成單元84。該擷取單元81透過畫面內(nèi)的框架來定位人臉,并取得第一人臉影像,且該擷取単元81可為ー攝影裝置,例如,網(wǎng)絡攝影機等。該處理単元82,耦接該擷取單元81,對該第一人臉影像的眼睛特征處如兩側眼角,取得多個第一特征點,且在每個第一特征點周圍依取樣模式取樣多個第一特征信息,并儲存該多個第一特征信息,且取得下ー個畫面中該第二人臉影像,并判斷該人臉是否有動態(tài)移動,且取得該第二人臉影像內(nèi)多個第二特征點,進而取得多個第二特征信息,且多個第一特征點包括但不限于左右眼的兩側眼角以及嘴角兩側。且處理単元82特征包括根據(jù)多個第ー特征點,來判斷該第一人臉影像是否符合人臉邏輯,若不符合,則重新取得該第一人臉影像。若符合,則進行下ー步動作,該處理単元82特征包括應用的搜尋運算,以判斷該多個第一特征點是否位于該框架內(nèi),若不是,則重新取得該第一人臉影像,若是,則進行下ー步動作。上述取樣模式中該特征信息為像素色彩信息,且該處理單元82是由每一個該特征點輻射出m個方向,并在姆ー個方向上取得n個像素點,以作為色彩信息,其中該m與n為正整數(shù)。或者是,該處理單元82由每ー個該特征點呈半圓輻射出m個方向,并在每ー個方向上取得n個像素點,以作為色彩信息,且該半圓至少涵蓋一眼角,其中該m與n為正整數(shù)。該分析単元83,耦接該處理單元82,用以對比該第一人臉影像與該第二人臉影像的相對位置信息的差異,來判斷該人臉的位置、移動狀態(tài)與縮放比例,進而計算出該多個第ニ特征點的位置。該分析単元83于時間間隔內(nèi),對比該畫面與下ー個該畫面中的人臉,并追蹤該多個第一特征點是否有移動軌跡,并應用噪聲濾除法,來濾除下ー個該畫面內(nèi)的噪聲,且該噪聲濾除法為高斯模糊法、中值法與均值法其中之一。該分析單元還用于預設至少ー對比范圍,以對比該多個第一特征信息與該多個第二特征信息,并取該多個第一特征信 息與該多個第二特征之間復數(shù)個誤差值,且排序該多個誤差值,并取得前i個最小誤差值,進而取得該多個第二特征點的位置,上述的i是正整數(shù)。該分析単元根據(jù)該多個第一特征點與該多個第二特征點的位置,以斜率計算該人臉的傾斜度、根據(jù)該多個第一特征點間的距離與該多個第二特征點間的距離,以長度變化計算該人臉的遠近比例以及根據(jù)該多個第一特征點與該多個第二特征點的比例,以比例變化計算該人臉的旋轉(zhuǎn)角度與俯仰角度,且若該人臉的傾斜度、遠近比例、旋轉(zhuǎn)角度或俯仰角度超過預設容許值,則重新取得該第二人臉影像。合成単元84,耦接該分析単元83,由預設的眼鏡數(shù)據(jù)庫85提取預設的一眼鏡模型并將預設的該眼鏡模型合成于該多個第二特征點的位置,且該合成単元根據(jù)該人臉的尺寸與該多個第一特征點,以縮放與旋轉(zhuǎn)該眼鏡模型,進而合成至該人臉。本實例的眼鏡試戴虛擬仿真系統(tǒng),透過適當?shù)男薷牟僮髋c步驟也可適用于隱形眼鏡虛擬試戴互動服務系統(tǒng)。以上所述,只是本發(fā)明的最佳實施例而已,不能以此來限定本發(fā)明所實施的范圍,在不背離本發(fā)明精神及其實質(zhì)的情況下,熟悉本領域的技術人員當可根據(jù)本發(fā)明作出各種相應的改變和變形,但這些相應的改變和變形都應屬于本發(fā)明所附的權利要求的保護范圍。
權利要求
1.一種眼鏡虛擬試戴互動服務方法,其特征在干, 透過一畫面中的框架來定位一人臉,并取得第一人臉影像; 在眼睛特征部位,依照取樣模式取得多個第一特征點與特征信息并儲存該多個第一特征信息與該多個第一特征點間的點間距; 用動態(tài)影像判斷與搜尋追蹤該特征信息取得下ー個畫面中的第二人臉影像,并取得該第二人臉影像內(nèi)多個第二特征點,從而取得多個第二特征信息; 對比該第一人臉影像與該第二人臉影像的相對位置信息的差異,以判斷該人臉的位置、移動狀態(tài)與縮放比例,進而計算出該多個第二特征點的位置;以及將預設的眼鏡模型合成于該多個第二特征點的位置。
2.如權利要求I所述的眼鏡虛擬試戴互動服務方法,其特征在干,該多個第一特征點包括左右眼的兩側眼角。
3.如權利要求2所述的眼鏡虛擬試戴互動服務方法,其特征在干,該多個第一特征點特征包括嘴角兩側。
4.如權利要求I所述的眼鏡虛擬試戴互動服務方法,其特征在于,根據(jù)該多個第一特征點,來判斷該第一人臉影像是否符合人臉邏輯,若不符合,則重新取得該第一人臉影像或該多個第一特征點。
5.如權利要求I所述的眼鏡虛擬試戴互動服務方法,其特征在干,應用搜尋運算,來判斷該多個第一特征點是否位于該框架內(nèi),若沒有,則重新取得該第一人臉影像或該復數(shù)個第一特征點。
6.如權利要求I所述的眼鏡虛擬試戴互動服務方法,其特征在干,該技術特征為像素色彩信息。
7.如權利要求6所述的眼鏡虛擬試戴互動服務方法,其特征在干,該像素色彩信息是由每ー個特征點輻射出m個方向,并在每ー個方向上取得η個像素點,來作為色彩信息,且該m與η為正整數(shù)。
8.如權利要求6所述的眼鏡虛擬試戴互動服務方法,其特征在干,該像素色彩信息是由每ー個特征點呈半圓輻射出m個方向,并在每ー個方向上取得η個像素點,以作為色彩信息,且該m與η為正整數(shù)以及該半圓至少涵蓋一眼角。
9.如權利要求I所述的眼鏡虛擬試戴互動服務方法,其特征在于,在時間間隔內(nèi),對比該畫面與下ー個該畫面中的人臉,并動態(tài)追蹤該多個第一特征點是否有移動軌跡。
10.如權利要求I所述的眼鏡虛擬試戴互動服務方法,其特征在于,應用一噪聲濾除法,來濾除下ー個該畫面內(nèi)的噪聲。
11.如權利要求10所述的眼鏡三維試戴互動服務方法,其特征在于,該噪聲濾除法是高斯模糊法、中值法與均值法其中之一。
12.如權利要求I所述的眼鏡虛擬試戴互動服務方法,其特征在于,預設ー對比范圍,來對比該多個第一特征信息與該多個第二特征信息,并取該多個第一特征信息與該多個第ニ特征資之間多個誤差值,且排序該多個誤差值,并取得前i個最小誤差值,進而取得該多個第二特征點的位置。
13.如權利要求I所述的眼鏡虛擬互動服務方法,其特征在于,根據(jù)該多個第一特征點與該多個第二特征點的位置,以斜率計算該人臉的傾斜度。
14.如權利要求I所述的眼鏡虛擬試戴互動服務方法,其特征在于,根據(jù)該多個第一特征點間的距離與該多個第二特征點間的距離,以長度變化計算該人臉的遠近比例。
15.如權利要求I所述的眼鏡虛擬試戴互動服務方法,其特征在于,根據(jù)該多個第一特征點與該多個第二特征點的比例,以比例變化計算該人臉的旋轉(zhuǎn)角度與俯仰角度。
16.如權利要求13、14或15項所述的眼鏡虛擬試戴互動服務方法,其特征在干,若該人臉的傾斜度、遠近比例、旋轉(zhuǎn)角度或俯仰角度超過預設容許值,則重新取得該第二人臉影像。
17.如權利要求I所述的眼鏡虛擬互動服務方法,其特征在于,根據(jù)該人臉的尺寸與該多個第一特征點,以縮放與旋轉(zhuǎn)該眼鏡模型,進而合成到該人臉。
18.如權利要求I所述的眼鏡虛擬互動服務方法,其特征在干,該眼鏡模型是一三維眼鏡模型。
19.如權利要求18所述的眼鏡三維虛擬互動服務方法,其特征在于,透過ー攝像裝置,由至少三個方向拍攝ー實體眼鏡,并取得該三個方向的平面影像;以及組合該三個方向的平面影像,來取得該三維眼鏡模型。
20.一種眼鏡虛擬試戴互動服務系統(tǒng),其特征在干, 一擷取單元,透過一畫面中的框架以定位一人臉,并取得第一人臉影像; 處理單元,耦接該擷取單元,位于眼睛特征處,依取樣模式取得多個第一特征點與特征信息并儲存該多個第一特征信息與該多個第一特征點間的點間距,且利用動態(tài)影像判斷與搜尋追蹤特征信息取得下ー個畫面中的第二人臉影像,并取得該第二人臉影像內(nèi)多個第二特征點,進而取得多個第二特征信息; 分析単元,耦接該處理單元,用以對比該第一人臉影像與該第二人臉影像的相對位置信息的差異,來判斷該人臉的位置、移動狀態(tài)與縮放比例,進而計算出該多個第二特征點的位置; 合成単元,耦接該分析単元,將預設的一眼鏡模型合成于該多個第二特征點的位置;以及一眼鏡數(shù)據(jù)庫,該數(shù)據(jù)庫儲存眼鏡模型的數(shù)據(jù)。
21.如權利要求20所述的眼鏡虛擬試戴互動服務系統(tǒng),其特征在干,該擷取單元是可為ー攝影裝置。
22.如權利要求20所述的眼鏡虛擬試戴互動服務系統(tǒng),其特征在干,該多個第一特征點包括左右眼的兩側眼角。
23.如權利要求22所述的眼鏡虛擬試戴互動服務系統(tǒng),其特征在干,該多個第一特征點還包括嘴角兩側。
24.如權利要求20所述的眼鏡虛擬試戴互動服務系統(tǒng),其特征在干,該處理単元特征包括根據(jù)多個第一特征點,來判斷該第一人臉影像是否符合人臉邏輯,若不符合,則重新取得該第一人臉影像或該多個第一特征點。
25.如權利要求20所述的眼鏡虛擬試戴互動服務系統(tǒng),其特征在干,該處理単元特征包括應用ー搜尋運算,來判斷該多個第一特征點是否位于該框架內(nèi),若沒有,則重新取得該第一人臉影像或該多個第一特征點。
26.如權利要求20所述的眼鏡虛擬試戴互動服務系統(tǒng),其特征在干,該特征信息是像素色彩信息,且該處理單元是由每一個該特征點輻射出m個方向,并在每ー個方向上取得η個像素點,以作為色彩信息,其中該m與η是正整數(shù)。
27.如權利要求20所述的眼鏡虛擬試戴互動服務系統(tǒng),其特征在干,該特征信息是像素色彩信息,且該處理單元由每ー個該特征點呈半圓輻射出m個方向,并在每ー個方向上取得η個像素點,以作為色彩信息,且該半圓至少涵蓋一眼角,其中該m與η是正整數(shù)。
28.如權利要求20所述的眼鏡虛擬試戴互動服務系統(tǒng),其特征在干,該分析単元在時間間隔內(nèi),對比該畫面與下ー個該畫面中的人臉,并追蹤該多個第一特征點是否有移動軌跡,并應用一噪聲濾除法,以濾除下ー個該畫面內(nèi)的噪聲。
29.如權利要求28所述的眼鏡虛擬試戴互動服務系統(tǒng),其特征在干,該噪聲濾除法是高斯模糊法、中值法與均值法其中之一。
30.如權利要求20所述的眼鏡虛擬試戴互動服務系統(tǒng),其特征在干,該分析単元預設ー對比范圍,以對比該多個第一特征信息與該多個第二特征信息,并取該多個第一特征信息與該多個第二特征資之間多個誤差值,且排序該多個誤差值,并取得前i個最小誤差值,進而取得該多個第二特征點的位置。
31.如權利要求20所述的眼鏡虛擬試戴互動服務系統(tǒng),其特征在干,該分析単元根據(jù)該多個第一特征點與該多個第二特征點的位置,以斜率計算該人臉的傾斜度、根據(jù)該多個第一特征點間的距離與該多個第二特征點間的距離,以長度變化計算該人臉的遠近比例以及根據(jù)該多個第一特征點與該多個第二特征點的比例,來比例變化計算該人臉的旋轉(zhuǎn)角度與俯仰角度,并且如果該人臉的傾斜度、遠近比例、旋轉(zhuǎn)角度或俯仰角度超過預設允許值,則重新取得該第二人臉影像。
32.如權利要求20所述的眼鏡虛擬試戴互動服務系統(tǒng),其特征在干,該合成単元根據(jù)該人臉的尺寸與該多個第一特征點,以縮放與旋轉(zhuǎn)該眼鏡模型,進而合成到該人臉。
33.一種眼鏡虛擬試戴互動服務方法,其特征在干, 透過一畫面中的一框架來定位一人臉,并取得第一人臉影像; 在眼睛瞳孔特征處,依取樣模式取得多個第一特征點與特征信息并儲存該多個第一特征信息與該多個第一特征點間的點間距; 利用動態(tài)影像判斷與搜尋追蹤特征信息取得下ー個畫面中的該第二人臉影像,并取得該第二人臉影像內(nèi)多個第二特征點,進而取得多個第二特征信息; 對比該第一人臉影像與該第二人臉影像的相對位置信息的差異,以判斷該人臉的位置、移動狀態(tài)與縮放比例,進而計算出該多個第二特征點的位置;以及將預設的ー隱形眼鏡模型合成在該多個第二特征點的位置。
34.如權利要求33所述的眼鏡虛擬試戴互動服務方法,其特征在干,該多個第一特征點特征包括嘴角兩側。
35.如權利要求33所述的眼鏡虛擬試戴互動服務方法,其特征在于,根據(jù)多個第一特征點,來判斷該第一人臉影像是否符合人臉邏輯,若不符合,則重新取得該第一人臉影像或該多個第一特征點。
36.如權利要求33所述的眼鏡虛擬試戴互動服務方法,其特征在于,應用ー搜尋運算,來判斷該多個第一特征點是否位于該框架內(nèi),若沒有,則重新取得該第一人臉影像或該多個第一特征點。
37.如權利要求33所述的眼鏡虛擬試戴互動服務方法,其特征在干,該特征信息是像素色彩信息,且該像素色彩信息是由每一個該特征點輻射出m個方向,并在每ー個方向上取得η個像素點,以作為色彩信息,且該m與η是正整數(shù)。
38.如權利要求33所述的眼鏡虛擬試戴互動服務方法,其特征在于,在時間間隔內(nèi),對比該畫面與下ー個該畫面中的人臉,并動態(tài)追蹤該多個第一特征點是否有移動軌跡,并應用一噪聲濾除法,以濾除下ー個該畫面內(nèi)的噪聲。
39.如權利要求33所述的眼鏡虛擬試戴互動服務方法,其特征在于,預設ー對比范圍,來對比該多個第一特征信息與該多個第二特征信息,并取該多個第一特征信息與該多個第ニ特征資之間多個誤差值,且排序該多個誤差值,并取得前i個最小誤差值,進而取得該多個第二特征點的位置。
40.如權利要求33所述的眼鏡虛擬試戴互動服務方法,其特征在干,根據(jù)該多個第一特征點與該多個第二特征點的位置,以斜率計算該人臉的傾斜度、根據(jù)該多個第一特征點間的距離與該多個第二特征點間的距離,以長度變化計算該人臉的遠近比例以及根據(jù)該多個第一特征點與該多個第二特征點的比例,以比例變化計算該人臉的旋轉(zhuǎn)角度與俯仰角度,并且如果該人臉的傾斜度、遠近比例、旋轉(zhuǎn)角度或俯仰角度超過預設容許值,則重新取得該第二人臉影像。
41.如權利要求33所述的眼鏡虛擬試戴互動服務方法,其特征在于,根據(jù)該人臉的尺寸與該多個第一特征點,以縮放與旋轉(zhuǎn)該眼鏡模型,進而合成到該人臉。
全文摘要
本發(fā)明涉及一種以真人為服務對象的眼鏡虛擬試戴互動服務系統(tǒng)與方法。該方法包括透過畫面內(nèi)的框架來定位人臉,并取得相應的人臉影像,進而取得多個第一特征點位置。并且在每個第一特征點周圍取樣多個第一特征信息。并利用畫面對比判斷該人臉是否有動態(tài)移動,而透過下一個該畫面取得第二人臉影像。結合搜尋對比范圍與追蹤特征信息方法取得該第二人臉影像內(nèi)多個第二特征點,進而取得復數(shù)個第二特征點定位信息。然后利用該第一人臉影像與該第二人臉影像的相應位置信息差異,以判斷該人臉的位置、移動狀態(tài)與縮放比例,進而計算出該多個第二特征點的位置。以及將預設的眼鏡模型合成于該多個第二特征點的位置。
文檔編號G06F19/00GK102867321SQ201110192119
公開日2013年1月9日 申請日期2011年7月5日 優(yōu)先權日2011年7月5日
發(fā)明者吳念祖, 池瑞敏, 劉啟能, 周久善, 陳偉銘 申請人:艾迪訊科技股份有限公司, 小林鐘表眼鏡股份有限公司
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
广元市| 始兴县| 莱西市| 珠海市| 子长县| 张家口市| 冕宁县| 邳州市| 萝北县| 金平| 武宁县| 中西区| 宜都市| 屏东市| 连南| 克山县| 贵阳市| 鄂尔多斯市| 榕江县| 黎城县| 海口市| 老河口市| 田东县| 夹江县| 师宗县| 枣强县| 普陀区| 石棉县| 钟祥市| 朝阳县| 景洪市| 淮北市| 新和县| 宁陵县| 巴东县| 蒙山县| 杭州市| 新化县| 天镇县| 金乡县| 临澧县|