樣本超分辨率重構算法整體流程圖。
【具體實施方式】
[0081] W上內容W及對本發(fā)明的技術方案作了非常詳細的充分公開,下面再結合附圖對 本發(fā)明做進一步的說明?;谔O果公司的iOS平臺的移動客戶端,和基于微軟公司Windows 平臺的服務器,構建客戶端-服務器架構,實施本發(fā)明的移動智能終端數字化妝應用。服務 器端用編程語言c#編寫Windows Server,負責會話管理、基于樣本模板的數字化妝的算法 調用和數據庫管理等??蛻舳擞镁幊陶Z言Objective-C編寫移動端應用程序,負責圖像捜 集、數據傳輸和用戶交互。
[0082] 本發(fā)明的基于樣本模板的數字化妝算法整體流程如附圖1所示,在分別對妝容提 供圖像和待化妝人臉圖像進行人臉特征點定位后,首先進行的步驟是,利用多層次自由形 狀變形(Multi level Free-form Deformat ion, MF抑),將提供妝容的圖像E*中的人臉對準 到輸入的待化妝人臉圖像I,得到E;然后,分別將I和E轉換到CIELAB顏色空間,獲得亮度層 L嘴兩個顏色圖層a嘴項同組成了附圖1中的人臉色相圖層Ic、Ec。接著,利用改進 的引導濾波器分別對兩個圖像的1^層進行圖層分解,進而得到代表人臉結構的大尺度圖層 Is、Es和妝容所在的細節(jié)圖層Id、Ed;因為化妝前后人臉結構不變,因此化妝后人臉圖像的人 臉結構圖層Rs直接等于Is,而妝容的細節(jié)圖層RdW及色相圖層Rc則分別通過加權平均和 alpha混合算法計算;利用Rs、Rd、RcS個圖層就可W得到最終的化妝后人臉圖像R。附圖1中, 符號W代表對妝容提供圖像根據輸入圖像的形狀進行人臉圖像變形對齊,+代表對細節(jié)層進 行加權平均操作,α代表對色相層進行al地a混合操作。
[0083] 本發(fā)明的圖層分解流程圖如附圖2所示,先將原圖從RGB空間轉換到CIELAB顏色空 間,得到Ξ個通道信息,分別是L*、a*和b*通道,L*是亮度通道,a*和b*共同組成色相層。對 L*通道進行引導濾波,得到大尺度信息層,用于代表人臉結構層,L*層減去人臉結構層則可 W得到紋理細節(jié)信息層。
[0084] 本發(fā)明的基于樣本超分辨率重構算法整體流程如附圖3所示,主要目的是解決妝 容提供圖像和輸入的待化妝人臉圖像分辨率不同的問題。
[0085] 首先,收集到足夠多的高分辨率圖像組成數據集,然后將運些圖像縮小為原來大 小的四分之一得到低分辨率圖像數據集。接著分別將上述高、低分辨率的圖像劃分為局部 的小塊并且一一對應。對所有獲取的圖像塊儲存其高頻信息,所有圖像塊的高頻信息共同 組成所需的訓練數據。
[0086] 預測高頻信息步驟中,用到馬爾科夫網絡(Markov network)來對圖像塊之間的空 間信息進行建模,將輸入的低分辨率局部塊看成是馬爾科夫網絡中可見的觀察節(jié)點,而將 需要通過預測得到的對應的高分辨率局部塊信息看成的隱藏節(jié)點。求解出馬爾科夫網絡中 的所有隱藏節(jié)點,即可W獲得輸出圖像的高頻信息。用迭代的置信度傳播算法(Belief Propagation)來求解出馬爾科夫網絡的近似最優(yōu)解,一般迭代3到4次就足夠。
[0087] 如上即可較好地實現(xiàn)本發(fā)明并取得前述的技術效果。
【主權項】
1. 一種基于樣本模板的數字化妝方法,其特征在于先對移動智能終端采集到的淡妝、 或者素顏人臉照片和妝容提供照片進行人臉檢測、人臉特征點定位檢測和人臉圖像變形對 準,在此基礎上對人臉圖像進行圖層分解,利用基于樣本的超分辨率重構算法解決妝容提 供圖像和輸入人臉圖像的分辨率差異問題,最后進行人臉圖像的圖層合成,輸出淡妝或素 顏照片化妝之后的圖像。2. 根據權利要求1所述的基于樣本模板的數字化妝方法,其特征在于包括如下步驟: 1) 人臉檢測:檢測輸入圖像是否含有人臉,若是,則判斷人臉的位置、大小和數量;本步 驟利用類Haar特征的AdaBoost級聯(lián)分類器來檢測和標示圖像中人臉位置; 2) 人臉特征點檢測定位:在圖像的人臉區(qū)域內,標定出人臉特征點的位置;所述人臉特 征點是包括人臉五官的輪廓點,本步驟利用主動表觀模型AAM(Active Appearance Models)進行人臉特征點定位; 3) 人臉圖像變形配準:利用圖片變形算法將妝容提供圖像對準到輸入人臉圖像;圖像 變形算法包括:指定特征圖元,根據特征圖元的對應關系生成變形函數,最后映射并插值得 到最終的輸出圖像;本步驟利用人臉特征點作為特征圖元,采用層次自由形狀變形算法 (Multilevel Free-form Deformation,MFFD)進行變形映射,從而得到對準后的待化妝人 臉; 4) 人臉圖層分解:對妝容提供圖像進行圖層分解,把妝容信息從樣本圖像中分離出來; 利用引導濾波器對妝容提供圖像進行邊緣保留平滑濾波,進一步分解得到人臉結構層和紋 理細節(jié)層;針對數字化妝應用,人臉的不同區(qū)域采取完全不同的化妝策略,本步驟對引導濾 波器進行濾波參數自適應調整的改進,使引導濾波器在圖像不同區(qū)域根據位置信息獲得不 同程度的平滑和邊緣保留效果,縮減基于樣本模板的數字化妝算法的運算時間,提高算法 的實用性,使其能實現(xiàn)為i〇S平臺上的一個應用; 5) 人臉圖層合成:對輸入圖像和妝容提供圖像分解后得到的結構圖層、細節(jié)圖層和色 相圖層進行合成操作,獲得化妝后的人臉圖像。3. 根據權利要求2所述的數字化妝方法,其特征在于所述步驟1)利用訓練樣本的類 Haar特征訓練分類器,從而得到一個AdaBoost級聯(lián)分類器。4. 根據權利要求2所述的基于樣本模板的數字化妝方法,其特征在于,所述步驟2)具體 操作如下:利用AAM模型提取形狀及紋理先驗知識,首先,對事先人工標注好的訓練圖像集 進行形狀和紋理信息的統(tǒng)計、分析,從而獲得關于目標對象形狀和紋理的模型,然后根據此 形狀和紋理模型,對測試樣本進行多次迭代搜索、匹配,同時根據測試樣本的實際情況調整 先驗模型參數,從而得到最終的準確的特征點定位輸出。5. 根據權利要求2所述的基于樣本模板的數字化妝方法,其特征在于,所述步驟3)所述 圖像變形算法具體操作如下:指定人臉特征點作為特征圖元,根據特征圖元的對應關系,推 導出所需要的變形函數,將妝容提供圖像對準到輸入人臉圖像;設Ω代表變形目標對象,p =(^,¥)代表〇中任意一個點,1<11<111且1<¥<11,表示目標對象橫縱像素點數 ;函數¥(口) = (x(p),y(p))代表Ω變形后得到的形狀;針對目標對象Ω構建大小為(m+2)X(n+2)的覆 蓋于變形目標Ω上的控制網格Φ;控制網格Φ上的控制點在不同狀態(tài)下可能處于不同位 置;用<=(/,./)代表當Φ在算法開始時,第i j個控制點所在位置;通過控制網格Φ上控制點 的位置,計算出變形所需要的變形函數W;變形函數W定義為:式中,下標滿足條件是對變量U ,V取 整,函數Bk(S)、Bi(t)是均勻三次B樣條曲線的基函數,這些函數定義式如下: B〇( t) = (_t3+3t2_3t+l )/6 Bi(t) = (3t3+6t2+4)/6 B2 (t) = (_3t3+3t2+3t+l )/6 B3(t) =t3/6 式中〇<t〈l; 開始時,控制點在初始位置,經過兩個或者以上的共線控制點的B樣條曲線是線性的, 此時Φ并沒有變形,所以得到:先移動單個特征點,即假設變形目標Ω應該被變形以使得其中的p移動到指定的位置q 上,即w(p) = q,過程中位移為Δ q=w(p)-wQ(p) = q-p,為了簡化公式表示,假設p=(u,v),1 < u,v〈2,可得:式中¥1<1 = 1^(8)131(1:)且8 = 11-1