欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種圖像處理方法及系統(tǒng)的制作方法

文檔序號:6621066閱讀:662來源:國知局
一種圖像處理方法及系統(tǒng)的制作方法
【專利摘要】本發(fā)明提供了一種圖像處理方法及系統(tǒng),包括:根據(jù)至少一張包含第一人物的圖像,模擬出第一人物的模型;確定包含第二人物的目標圖像;確定在目標圖像中顯示第二人物的特征信息;在第一人物的模型中根據(jù)所述特征信息調(diào)整第一人物的顯示;在目標圖像中,將第二人物替換為顯示調(diào)整后的第一人物。本發(fā)明提供的技術(shù)方案解決了圖像處理替換前后人物之間沒有聯(lián)系,使得替換后的人物與背景出現(xiàn)不協(xié)調(diào)、沖突等問題。
【專利說明】一種圖像處理方法及系統(tǒng)

【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及圖像處理技術(shù),特別涉及一種圖像處理方法及系統(tǒng)。

【背景技術(shù)】
[0002] 現(xiàn)有技術(shù)在進行圖像處理,將圖像中的一個人物替換到另一張圖像中時,只是簡 單的將一個人物的頭部或者面部沿著輪廓裁剪下來,疊加在另一個人物的圖像相應(yīng)位置, 類似于大頭貼的效果。一方面,其所替換的人物會因光照、視角等與背景不一致而會出現(xiàn)人 物與背景顏色相沖突、色調(diào)不搭配的情況;另一方面,當把人物面部替換到另外一個人的面 部時,只能保留原來人物的表情,而這表情通常都與背景不一致,這種按現(xiàn)有技術(shù)替換后出 現(xiàn)的人物與背景的不協(xié)調(diào)顯然無法滿足人們的需求。
[0003] 現(xiàn)有技術(shù)的不足在于:
[0004] 替換前后人物之間沒有聯(lián)系,使得替換后的人物與背景出現(xiàn)不協(xié)調(diào)、沖突等問題。


【發(fā)明內(nèi)容】

[0005] 本發(fā)明針對上述問題,提出了一種圖像處理方法及系統(tǒng),用以解決了圖像模擬替 換時,人物圖像與所替換的圖像背景不相符的問題。
[0006] 本發(fā)明實施例中提供了一種圖像處理方法,可以包括如下步驟:
[0007] 根據(jù)至少一張包含第一人物的圖像,模擬出第一人物的模型;
[0008] 確定包含第二人物的目標圖像;
[0009] 確定在目標圖像中顯示第二人物的特征信息;
[0010] 在第一人物的模型中根據(jù)所述特征信息調(diào)整第一人物的顯示;
[0011] 在目標圖像中,將第二人物替換為顯示調(diào)整后的第一人物。
[0012] 本發(fā)明實施例中提供了一種圖像處理系統(tǒng),可以包括:
[0013] 模型模擬模塊,用于根據(jù)至少一張包含第一人物的圖像,模擬出第一人物的模 型;
[0014] 目標圖像確定模塊,用于確定包含第二人物的目標圖像;
[0015] 特征信息確定模塊,用于確定在目標圖像中顯示第二人物的特征信息;
[0016] 調(diào)整顯示模塊,用于在第一人物的模型中根據(jù)所述特征信息調(diào)整第一人物的顯 示;
[0017] 人物替換模塊,用于在目標圖像中,將第二人物替換為顯示調(diào)整后的第一人物。
[0018] 本發(fā)明有益效果如下:
[0019] 在本發(fā)明實施例提供的技術(shù)方案中,首先模擬出第一人物的模型,然后根據(jù)作為 被替代對象的第二人物在目標圖像中顯示的特征信息進行調(diào)整,這樣,使得第一人物與第 二人物在目標圖像中都具備同樣的顯示特征,從而克服了替換后與目標圖像背景等不協(xié)調(diào) 的問題。

【專利附圖】

【附圖說明】
[0020] 下面將參照附圖描述本發(fā)明的具體實施例,其中:
[0021] 圖1為本發(fā)明實施例中圖像處理方法實施流程示意圖;
[0022] 圖2為本發(fā)明實施例中人臉檢測算法實施流程示意圖;
[0023] 圖3為本發(fā)明實施例中提取Haar-1 ike特征示意圖;
[0024] 圖4為本發(fā)明實施例中積分圖的方法實施流程示意圖;
[0025] 圖5為本發(fā)明實施例中瀑布型級聯(lián)檢測器示意圖;
[0026] 圖6為本發(fā)明實施例中標定的人臉面部示意圖;
[0027] 圖7為本發(fā)明實施例中局部特征的創(chuàng)建過程示意圖;
[0028] 圖8為本發(fā)明實施例中計算每個特征點的新位置的方法實施流程示意圖;
[0029] 圖9為本發(fā)明實施例中人臉檢測結(jié)果示意圖;
[0030] 圖10為本發(fā)明實施例中二維人臉重建實施流程不意圖;
[0031] 圖11為本發(fā)明實施例中原始圖像和三維模型示意圖;
[0032] 圖12為本發(fā)明實施例中模型的表情實例示意圖;
[0033] 圖13為本發(fā)明實施例中人物表情特征點示意圖;
[0034] 圖14為本發(fā)明實施例中圖像處理系統(tǒng)結(jié)構(gòu)示意圖。

【具體實施方式】
[0035] 為使本發(fā)明實施例的目的、技術(shù)方案和優(yōu)點更加清楚明白,下面結(jié)合附圖對本發(fā) 明實施例做進一步詳細說明。在此,本發(fā)明的示意性實施例及其說明用于解釋本發(fā)明,但并 不作為對本發(fā)明的限定。
[0036] 圖1為圖像處理方法實施流程示意圖,如圖1所示,可以包括如下步驟:
[0037] 步驟101 :根據(jù)至少一張包含第一人物的圖像,模擬出第一人物的模型;
[0038] 步驟102 :確定包含第二人物的目標圖像;
[0039] 步驟103 :確定在目標圖像中顯示第二人物的特征信息;
[0040] 步驟104 :在第一人物的模型中根據(jù)所述特征信息調(diào)整第一人物的顯示;
[0041] 步驟105 :在目標圖像中,將第二人物替換為顯示調(diào)整后的第一人物。
[0042] 具體的,在對圖像進行替換時,可以根據(jù)用戶提供的圖片或圖像序列自動完成對 人物的編輯工作。例如可以如下:
[0043] a.用戶提供一張或多張圖片或者圖像序列作為素材,其所有素材中均含有同一個 人物,即:第一人物;
[0044] b.系統(tǒng)根據(jù)用戶提供的素材,模擬出該第一人物的模型。該模型可針對不同的視 角、光照等做出相應(yīng)的調(diào)整,并且可做出不同的形變;
[0045] c.用戶在圖片或圖像序列中指定另一個人物,S卩:第二人物;
[0046] d.系統(tǒng)檢測出該指定的第二人物在每幀圖像中的相關(guān)特征信息。這些特征信息是 指位置、輪廓、相對視角、光照及形變等特征;
[0047] e.在每幀圖像上,將第一人物模型調(diào)整到第二人物在該幀圖像的特性上,并替換 第二人物。
[0048] 實施中,對單張圖像進行的提取、處理、調(diào)整、轉(zhuǎn)換進行了說明,由于多張圖像序列 和視頻圖像的每一幀均是由單張圖像構(gòu)成,因此,以本發(fā)明實施例提供的技術(shù)方案為基礎(chǔ), 可以容易的得出對多張或批量圖片組成的圖像序列,或者是對視頻圖像的處理,比如,一種 最簡單的方式是:對圖像序列或視頻的每張圖像進行替換處理后,再組成替換后的圖像序 列或視頻。如何在單張圖像的處理基礎(chǔ)上擴展至對整個圖像序列或視頻的處理,這是本領(lǐng) 域技術(shù)人員容易理解并作出相應(yīng)修改的。
[0049] 實施中,本發(fā)明實施例中的人物可以是擬人化人物,如卡通人物、3D人物等,其不 僅限于人類的人物,也不必是自然存在的人物,在實施例中均稱為"人物"。下面的實施例中 大多也是以人類的圖像處理為例,這是因為其最具代表性,也最為復(fù)雜。所以這里以人像為 例進行說明;但是,本發(fā)明實施例提供的技術(shù)方案也可以用其它的圖像處理,因為其披露的 是一種用于圖像處理的涉及替換的方案,也即,只要是圖像處理領(lǐng)域內(nèi)所有的實現(xiàn)替換這 一目的的,都可以采用本發(fā)明實施例中的方案,理論上并不僅限于人物,只要是圖案的替換 都可以,人像僅用于教導(dǎo)本領(lǐng)域技術(shù)人員具體如何實施本定明,但不意味僅能使用于人像, 實施過程中可以結(jié)合實踐需要在相應(yīng)的環(huán)境中使用。
[0050] 實施中,在根據(jù)至少一張包含第一人物的圖像,模擬出第一人物的臉部的模型時, 可以包括:
[0051] 檢測出第一人物的臉部的區(qū)域;
[0052] 在檢測出的臉部的區(qū)域里,確定五官的區(qū)域和臉頰的輪廓;
[0053] 將檢測到的五官的區(qū)域和臉頰的輪廓,貼合到已有的人臉三維3D模型上后獲得 模擬出的第一人物的臉部的模型。
[0054] 具體的,根據(jù)模擬出的第一人物的模型,可以是人物全身的模型,也可以是人物臉 部的模型,實施例中將以人物臉部的實施為例,但本領(lǐng)域技術(shù)人員應(yīng)當知曉,采用相應(yīng)的圖 像工具進行處理,即可獲得不限于臉部的處理方式,比如人物全身的模型。
[0055] 以人物臉部的實施為例,可以如下:
[0056] a.從用戶提供的圖片或圖像序列中檢測出第一人物的人臉的位置和區(qū)域;
[0057] b.在檢測出的人臉的區(qū)域里,確定人臉的五官的區(qū)域和臉頰的輪廓,如:眼睛、鼻 子、眉毛、嘴和耳朵;
[0058] c.將檢測到的五官的區(qū)域和臉頰的輪廓,貼合到一個已有的人臉3維模型上,使 其能夠自動的根據(jù)參數(shù)的設(shè)定,呈現(xiàn)不同的視角、光照和表情的變化。
[0059] 實施中,在確定在目標圖像中顯示第二人物的臉部的特征信息時,可以包括:
[0060] 檢測出第二人物的臉部的區(qū)域;
[0061] 在檢測出的臉部的區(qū)域里,確定五官的區(qū)域和臉頰的輪廓;
[0062] 根據(jù)檢測到的五官的區(qū)域和臉頰的輪廓,確定在目標圖像中顯示第二人物的臉部 的特征信息。
[0063] 具體的,檢測出指定的第二人物在每幀圖像中的相關(guān)特性信息,可以如下:
[0064] a.從圖片或圖像序列中檢測出第二人物的人臉的位置和區(qū)域;
[0065] b.在檢測出的人臉的區(qū)域里,確定人臉的五官的區(qū)域和臉頰的輪廓,如:眼睛、鼻 子、眉毛、嘴和耳朵;
[0066] c.通過檢測到的五官的區(qū)域和臉頰的輪廓,推斷第二人物的相關(guān)特性信息。這些 特性信息包括視角、光照和表情的變化等。
[0067] 具體的,在檢測出的臉部的區(qū)域里,采用人臉識別算法確定五官的區(qū)域和臉頰的 輪廓,可以采用ASM(Active Shape Model,主動形狀模型)算法確定五官的區(qū)域和臉頰的輪 廓。
[0068] 在實施中,采用ASM算法來進行說明是因為ASM算法在人臉識別算法中比較典 型,也較為常用,容易被本領(lǐng)域技術(shù)人員理解實施,所以這里以ASM算法為例;但是,從理論 上來說,用其它的算法也是可以的,只要能夠達到確定五官的區(qū)域和臉頰的輪廓這一目的 即可,例如可以米用AAM(Active Appearance Model,主動表現(xiàn)模型)或SDM(Supervised Descent Method,監(jiān)督梯度下降法)等算法。因此,ASM算法僅用于教導(dǎo)本領(lǐng)域技術(shù)人員具 體如何實施本發(fā)明,但不意味僅能使用ASM算法,實施過程中可以結(jié)合實踐需要來確定相 應(yīng)的算法。
[0069] 實施中,將第二人物替換為顯示調(diào)整后的第一人物,是根據(jù)第一人物的臉部的區(qū) 域與第二人物的臉部的區(qū)域?qū)⒌诙宋锏哪槻刻鎿Q為顯示調(diào)整后的第一人物的臉部。
[0070] 具體的,將第一人物模型進一步替換第二人物,可以如下:
[0071] a.根據(jù)第二人物的相關(guān)特征信息,調(diào)整第一人物的模型,使其與第二人物的相關(guān) 特性相仿;
[0072] b.通過檢測到的五官的區(qū)域和臉頰的輪廓,將每幀圖像中的第二人物的臉部區(qū)域 抹去;
[0073] c.在每幀圖像中,將調(diào)整好的第一人物的模型放置在第二人物的臉部區(qū)域。
[0074] 實施中,在檢測出的臉部的區(qū)域里,可以采用人臉識別算法確定五官的區(qū)域和臉 頰的輪廓。
[0075] 實施中,在目標圖像中,將第二人物替換為顯示調(diào)整后的第一人物之后,進一步可 以包括:
[0076] 為目標圖像中的第一人物添加圖像。
[0077] 這是便于對替換后的原人物添加道具等圖像的,這些道具包括眼鏡、帽子、衣服、 背包、以及鞋子等。
[0078] 實施中,以上根據(jù)用戶提供的圖片或圖像序列中檢測出第一人物或第二人物的臉 部的位置和區(qū)域的方法有很多種,如圖3所示。
[0079] 所列方法中,基于統(tǒng)計模型的方法是目前比較流行的方法,具體可以參見:梁路宏 等所著《人臉檢測研究綜述》(載于計算機學報V〇125N 〇5May2002),該方案具有較大的優(yōu)越 性。其優(yōu)點有:
[0080] 1、不依賴于人臉的先驗知識和參數(shù)模型,可以避免不精確或不完整的知識造成的 錯誤;
[0081] 2、采用實例學習的方法獲取模型的參數(shù),統(tǒng)計意義上更加可靠;
[0082] 3、通過增加學習的實例可以擴種檢測模式范圍,提高魯棒性。
[0083] 一、統(tǒng)計模型的方法
[0084] 2001年左右由Viola和Jones提出的基于集成機器學習的人臉檢測算法相對于其 他方法具有明顯優(yōu)勢,具體可參見:艾海舟等所著《人臉檢測與檢索》(載于自然科學基金 項目60273005);武勃等所著《基于連續(xù)adaboost算法的多視角人臉檢測》(載于計算機研 究與發(fā)展,2005)。近期文獻也表明目前尚未發(fā)現(xiàn)優(yōu)于Viola和Jones方法的其他人臉檢測 方法,具體可參見:N Degtyarev et al.所著的《Comparative Testing of Face Detection Algorithms》(Image and Signal Processing, 2010)。該方法不僅檢測精度高,最關(guān)鍵的是 其運算速度大大快于其他方法。
[0085] Viola和Jones人臉檢測方法中幾個關(guān)鍵性步驟,具體可參見:Paul Viola and Michael Jones 所著《Rapid object detection using a boosted cascade of simple features〉〉(載于 Accepted Conference on Computer Vision and Pattern Recognition2001):
[0086] 1、提取 Haar-1 ike 特征(Haar-1 ike features,哈爾特征)
[0087] Haar-like型特征是Viola等人提出的一種簡單矩形特征,因為類似Haar小波而 得名。Haar型特征的定義是黑色矩形和白色矩形在圖像子窗口中對應(yīng)的區(qū)域的權(quán)重灰度級 總和之差。如圖4所示,顯示了兩種最簡單的特征算子。圖4中可以看到,在人臉特定結(jié)構(gòu) 處,算子計算得到較大的值。
[0088] 2、計算積分圖
[0089] 算子數(shù)量龐大時上述計算量顯得太大,Viola等人發(fā)明了積分圖方法,使得計算 速度大大加快。如圖5所示,點1處的值為A區(qū)域的像素積分,點2處的值為AB區(qū)域的像 素積分。對整張圖片進行一次積分操作,便可以方便的計算出任一區(qū)域D像素積分值為 4+1 _2_3 〇
[0090] 3、訓練 Adaboost 模型
[0091] 在離散Adaboost算法中,Haar-like特征算子計算結(jié)果減去某閾值,便可視 為一個人臉檢測器。因為其準確率不高,稱為弱分類器。Adaboost算法的循環(huán)中,首先 利用各種弱分類器對訓練圖片庫進行分類,準確度最高的弱分類器保留下來,同時提高 判斷錯誤的圖片的權(quán)重,進入下一循環(huán)。最終將每次循環(huán)所保留的弱分類器組合起來, 成為一個準確的人臉檢測器,稱為強分類器。具體計算流程見,具體可參見:武勃等所 著《基于連續(xù)adaboost算法的多視角人臉檢測》(載于計算機研究與發(fā)展,2005) ;Paul Viola and Michael Jones 所著《Rapid object detection using a boosted cascade of simple features》(載于 Accepted Conference on Computer Vision and Pattern Recognition2001)。
[0092] 4、建立瀑布型級聯(lián)檢測器
[0093] 瀑布型級聯(lián)檢測器是針對人臉檢測速度問題提出的一種檢測結(jié)構(gòu)。如圖6所示, 瀑布的每一層是一個由adaboost算法訓練得到的強分類器。設(shè)置每層的閾值,使得大多數(shù) 人臉圖像能夠通過,在此基礎(chǔ)上盡量拋棄反例。位置越靠后的層越復(fù)雜,具有越強的分類能 力。
[0094] 這樣的檢測器結(jié)構(gòu)就想一系列篩孔大小遞減的篩子,每一步都能篩除一些前面篩 子漏下的反例,最終通過所有篩子的樣本被接受為人臉。瀑布型檢測器訓練算法,具體可 參見:武勃等所著《基于連續(xù)adaboost算法的多視角人臉檢測》(載于計算機研究與發(fā)展 2005)。
[0095] 以上算法實現(xiàn)上,米用 OpenCV (Open Source Computer Vision Library,開源計算 機視覺庫)人臉檢測程序流程,具體程序源代碼可參見如下網(wǎng)址所記載:
[0096] http ://www. opencv. org. cn/index, php/% E4% BA% BA% E8% 84% B8% E6% A3% 80% E6% B5% 8B。
[0097] OpenCV是一個基于(開源)發(fā)行的跨平臺計算機視覺庫,可以運行在Linux、 Windows和Mac 0S操作系統(tǒng)上。它輕量級而且高效-由一系列C函數(shù)和少量C++類構(gòu)成, 同時提供了 Python、Ruby、MATLAB等語言的接口,實現(xiàn)了圖像處理和計算機視覺方面的很 多通用算法。
[0098] OpenCV的人臉檢測程序采用了 Viola和Jones人臉檢測方法,主要是調(diào)用訓練好 的瀑布級聯(lián)分類器cascade來進行模式匹配。
[0099] cvHaarDetectObjects,先將圖像灰度化,根據(jù)傳入?yún)?shù)判斷是否進行canny邊緣 處理(默認不使用),再進行匹配。匹配后收集找出的匹配塊,過濾噪聲,計算相鄰個數(shù)如果 超過了規(guī)定值(傳入的min_neighbors)就當成輸出結(jié)果,否則刪去。
[0100] 匹配循環(huán):將匹配分類器放大scale(傳入值)倍,同時原圖縮小scale倍, 進行匹配,直到匹配分類器的大小大于原圖,則返回匹配結(jié)果。匹配的時候調(diào)用 cvRunHaarClassifierCascade來進行匹配,將所有結(jié)果存入CvSeq*Seq(可動態(tài)增長元素序 列),將結(jié)果傳給 cvHaarDetectObjects。
[0101] cvRunHaarClassifierCascade函數(shù)整體是根據(jù)傳入的圖像和cascade來進行匹 配。并且可以根據(jù)傳入的cascade類型不同(樹型、stump (不完整的樹)或其他的),進行 不同的匹配方式。
[0102] 函數(shù)cvRunHaarClassifierCascade用于對單幅圖片的檢測。在函數(shù)調(diào)用前首先 利用cvSetlmagesForHaarClassifierCascade設(shè)定積分圖和合適的比例系數(shù)(=>窗口尺 寸)。當分析的矩形框全部通過級聯(lián)分類器每一層的時返回正值(這是一個候選目標),否 則返回〇或負值。
[0103] 其中分類器的訓練采用哈爾分類器,Haar分類器的訓練是獨立于人臉檢測過程 的。分類器的訓練分為兩個階段:
[0104] A.創(chuàng)建樣本,用 OpenCV 自帶的 creatsamples. exe 完成;
[0105] Β·訓練分類器,生成xml文件,由OpenCV自帶的haartraining. exe完成。
[0106] 訓練過程,具體可參見如下1和2 :
[0107] Uhttp ://034080116. blog. 163. com/blog/static/334061912009641073715/ ;
[0108] 2、\OpenCV\apps\HaarTraining\doc\haartraining. doc ;
[0109] 以上地址中,地址1可以在博客中看到,地址2提供的哈爾訓練的源文件可以在下 載安裝后的openCVS安裝包目錄中找到。
[0110] 同時,OpenCV中米用的訓練算法adaboost是gentle adaboost,為最適合人臉檢 測的方案。具體可參見:
[0111] l>http ://www. opencv. org. cn/forum/viewtopic. php ? f = l&t = 4264#pl5258
[0112] 2>http ://www. opencv. org. cn/forum/viewtopic. php ? t = 3880
[0113] 舉例來說,在檢測的人臉區(qū)域內(nèi),確定人臉的五官區(qū)域,位置關(guān)系及臉頰的輪廓信 息,如:眼睛、鼻子、眉毛、嘴和耳朵等,可以通過有很多算法實現(xiàn)。本發(fā)明專利優(yōu)先用ASM算 法,以下將對ASM算法進行介紹。
[0114] ASM 是一種基于分布模型(Point Distribution Model,PDM)的算法,在 PDM 中, 外形要相似的物體,例如人臉、人手、心臟、肺部等的幾何形狀可以通過若干關(guān)鍵特征點 (landmarks)的坐標依次串連形成一個形狀向量來表示。本專利就以人臉為例來介紹該算 法的基本原理和方法。首先給出一個標定好68個關(guān)鍵特征點的人臉面部圖片,如圖6所示。 ASM在實際應(yīng)用過程中,包括訓練和搜索兩個部分。
[0115] 一、ASM 的訓練
[0116] ASM訓練包括兩個部分。
[0117] 1、建立形狀模型:該部分由以下幾個步驟組成
[0118] 1. 1搜集η個訓練樣本
[0119] 如果需要對人臉的面部關(guān)鍵區(qū)域進行ASM訓練,就需要涉及η個含有人臉面部區(qū) 域的樣本圖片。需要提醒的是,搜集的圖片只要里面含有人臉面部區(qū)域就可以了,這里不用 考慮圖像尺寸的歸一化等問題。
[0120] 1. 2手動記錄下每個訓練樣本中的k個關(guān)鍵特征點
[0121] 如圖7所示,對于訓練集中任意一個圖片而言,需要記錄下若干個(圖7中是68 個)關(guān)鍵特征點的位置坐標信息,并在文本文件中將該坐標信息保存。該步驟一般程序員 均可以寫個小程序完成。程序每次加載一張訓練樣本,用戶依次按照順序點擊圖片中的關(guān) 鍵特征點,每點擊一次,程序自動記錄下當前鼠標點擊的位置坐標,予以保存,供后面使用。
[0122] 1.3構(gòu)建訓練集的形狀向量
[0123] 將一副圖中標定的k個關(guān)鍵特征點組成一個形狀向量。

【權(quán)利要求】
1. 一種圖像處理方法,其特征在于,包括如下步驟: 根據(jù)至少一張包含第一人物的圖像,模擬出第一人物的模型; 確定包含第二人物的目標圖像; 確定在目標圖像中顯示第二人物的特征信息; 在第一人物的模型中根據(jù)所述特征信息調(diào)整第一人物的顯示; 在目標圖像中,將第二人物替換為顯示調(diào)整后的第一人物。
2. 如權(quán)利要求1所述的方法,其特征在于,在根據(jù)至少一張包含第一人物的圖像,模擬 出第一人物的臉部的模型時,包括: 檢測出第一人物的臉部的區(qū)域; 在檢測出的臉部的區(qū)域里,確定五官的區(qū)域和臉頰的輪廓; 將檢測到的五官的區(qū)域和臉頰的輪廓,貼合到已有的人臉三維3D模型上后獲得模擬 出的第一人物的臉部的模型。
3. 如權(quán)利要求1或2所述的方法,其特征在于,在確定在目標圖像中顯示第二人物的臉 部的特征信息時,包括: 檢測出第二人物的臉部的區(qū)域; 在檢測出的臉部的區(qū)域里,確定五官的區(qū)域和臉頰的輪廓; 根據(jù)檢測到的五官的區(qū)域和臉頰的輪廓,確定在目標圖像中顯示第二人物的臉部的特 征信息。
4. 如權(quán)利要求3所述的方法,其特征在于,將第二人物替換為顯示調(diào)整后的第一人物, 是根據(jù)第一人物的臉部的區(qū)域與第二人物的臉部的區(qū)域?qū)⒌诙宋锏哪槻刻鎿Q為顯示調(diào) 整后的第一人物的臉部。
5. 如權(quán)利要求4所述的方法,其特征在于,在第一人物的模型中根據(jù)所述特征信息調(diào) 整第一人物的臉部的顯示時,所述特征信息為以下參數(shù)之一或者其組合:第二人物的臉部 的3D姿態(tài)、第二人物的臉部的基本動作單元AU的狀態(tài)、第二人物的臉部的輪廓的長寬的比 例、第二人物的臉部的特征點周圍的皮膚的亮暗程度。
6. 如權(quán)利要求3所述的方法,其特征在于,在檢測出的臉部的區(qū)域里,采用人臉識別算 法確定五官的區(qū)域和臉頰的輪廓。
7. 如權(quán)利要求1至6任一所述的方法,其特征在于,在目標圖像中,將第二人物替換為 顯示調(diào)整后的第一人物之后,進一步包括: 為目標圖像中的第一人物添加圖像。
8. -種圖像處理系統(tǒng),其特征在于,包括: 模型模擬模塊,用于根據(jù)至少一張包含第一人物的圖像,模擬出第一人物的模型; 目標圖像確定模塊,用于確定包含第二人物的目標圖像; 特征信息確定模塊,用于確定在目標圖像中顯示第二人物的特征信息; 調(diào)整顯示模塊,用于在第一人物的模型中根據(jù)所述特征信息調(diào)整第一人物的顯示; 人物替換模塊,用于在目標圖像中,將第二人物替換為顯示調(diào)整后的第一人物。
9. 如權(quán)利要求8所述的系統(tǒng),其特征在于,所述模型模擬模塊包括: 第一檢測單元,用于檢測出第一人物的臉部的區(qū)域; 第一確定單元,用于在檢測出的臉部的區(qū)域里,確定五官的區(qū)域和臉頰的輪廓; 貼合單元,用于將檢測到的五官的區(qū)域和臉頰的輪廓,貼合到已有的人臉3D模型上后 獲得模擬出的第一人物的臉部的模型。
10. 如權(quán)利要求8或9所述的系統(tǒng),其特征在于,所述目標圖像確定模塊包括: 第二檢測單元,用于檢測出第二人物的臉部的區(qū)域; 第二確定單元,用于在檢測出的臉部的區(qū)域里,確定五官的區(qū)域和臉頰的輪廓; 特征單元,用于根據(jù)檢測到的五官的區(qū)域和臉頰的輪廓,確定在目標圖像中顯示第二 人物的臉部的特征信息。
11. 如權(quán)利要求10所述的系統(tǒng),其特征在于,所述特征信息確定模塊進一步用于根據(jù) 第一人物的臉部的區(qū)域與第二人物的臉部的區(qū)域?qū)⒌诙宋锏哪槻刻鎿Q為顯示調(diào)整后的 第一人物的臉部。
12. 如權(quán)利要求11所述的系統(tǒng),其特征在于,所述調(diào)整顯示模塊進一步用于在第一人 物的模型中根據(jù)以下參數(shù)之一或者其組合的所述特征信息調(diào)整第一人物的臉部的顯示:第 二人物的臉部的3D姿態(tài)、第二人物的臉部的AU的狀態(tài)、第二人物的臉部的輪廓的長寬的比 例、第二人物的臉部的特征點周圍的皮膚的亮暗程度。
13. 如權(quán)利要求10所述的系統(tǒng),其特征在于,所述調(diào)整顯示模塊進一步用于在檢測出 的臉部的區(qū)域里,采用人臉識別算法確定五官的區(qū)域和臉頰的輪廓。
14. 如權(quán)利要求8至13任一所述的系統(tǒng),其特征在于,進一步包括: 道具添加模塊,用于在目標圖像中,將第二人物替換為顯示調(diào)整后的第一人物之后,為 目標圖像中的第一人物添加圖像。
【文檔編號】G06T17/00GK104123749SQ201410352939
【公開日】2014年10月29日 申請日期:2014年7月23日 優(yōu)先權(quán)日:2014年7月23日
【發(fā)明者】邢小月, 孟昭龍, 其他發(fā)明人請求不公開姓名 申請人:邢小月, 姜涌, 孟昭龍
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
政和县| 许昌县| 资中县| 抚州市| 渑池县| 齐齐哈尔市| 容城县| 长泰县| 江口县| 惠安县| 光泽县| 温州市| 长岭县| 丰城市| 本溪市| 布尔津县| 无锡市| 镇巴县| 信丰县| 沙湾县| 沅江市| 崇礼县| 长宁区| 温州市| 大宁县| 建平县| 新沂市| 永定县| 通化县| 米林县| 辽宁省| 集贤县| 清徐县| 通渭县| 莆田市| 广汉市| 沙雅县| 滦平县| 水城县| 隆回县| 舟山市|