欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于混合梯度場和混合邊界條件的圖像合成方法和裝置的制作方法

文檔序號:6618881閱讀:548來源:國知局
專利名稱:基于混合梯度場和混合邊界條件的圖像合成方法和裝置的制作方法
技術(shù)領(lǐng)域
本發(fā)明涉及圖像合成技術(shù)領(lǐng)域,特別是涉及一種基于混合梯度場 和混合邊界條件的圖像合成方法和裝置。
背景技術(shù)
隨著多媒體技術(shù)和網(wǎng)絡(luò)技術(shù)的發(fā)展,互聯(lián)網(wǎng)上豐富的圖像資源得 到廣泛的應(yīng)用,各種圖像處理技術(shù)成為計(jì)算機(jī)學(xué)科研究的熱門領(lǐng)域。 其中,圖像合成技術(shù)可以讓用戶通過多張照片拼合成 一 張以假亂真的 照片,并且滿足用戶對照片內(nèi)容的要求。 一些圖像處理相關(guān)的商業(yè)軟
件,如Adobe Photoshop和Pixel image editor可以通過復(fù)雜的用戶交 互實(shí)現(xiàn)這一目的。但是這些需要用戶有較強(qiáng)的美術(shù)專業(yè)知識以及對軟 件的熟練掌握,既便如此,還需要用戶付出長時間的枯燥勞動。近年 來,由于這種技術(shù)可以廣泛應(yīng)用于傳媒、娛樂、教育、軍事國防等諸 多領(lǐng)域,國內(nèi)外研究人員都對其進(jìn)行了大量深入研究。這些研究致力 于在提升圖像合成的真實(shí)效果的同時大大降低人工交互的復(fù)雜度。比 較有代表性的工作有基于圖像摳圖(Matting)技術(shù)的透明度融合 (alpha-blending )技術(shù),以及基于梯度場的泊松融合 (Poisson-blending)技術(shù)。前者可以摳取出精確的物體邊界,但是在 要合成的物體與目標(biāo)背景圖像光照和色彩差別較大時,合成的圖像缺 乏真實(shí)感。后者可以很好的保持一致的圖像光照和色彩,但是在融合 物體的邊緣會產(chǎn)生紋理的錯誤,合成的物體有時會產(chǎn)生明顯的色彩遷 移。

發(fā)明內(nèi)容
本發(fā)明實(shí)施例要解決的問題是提供一種基于混合梯度場和混合 邊界條件的圖像合成方法和裝置,以克服現(xiàn)有技術(shù)中不能實(shí)現(xiàn)既保持圖像光照色彩一致,又減少圖像合成錯誤的缺陷。
為達(dá)到上述目的,本發(fā)明實(shí)施例的技術(shù)方案提供一種基于混合梯
度場和混合邊界條件的圖像合成方法,所述方法包括以下步驟Sl, 獲取源圖像和目標(biāo)圖像,及源圖像中物體合成到目標(biāo)圖像的位置;S2 ,
獲取源圖像中的待合成物體的輪廓;S3,通過膨脹所述待合成物體的 輪廓,得到所述待合成物體周圍一圈的融合區(qū)域;s4,將所述融合區(qū)
域按照源圖像和目標(biāo)圖像在紋理和顏色上的差異分為Mo和Mi兩類 區(qū)域;S5,對兩類區(qū)域選取不同的梯度場和邊界條件,通過求解混合 邊界條件的泊松方程,求得圖像合成的中間結(jié)果;S6,對Mo區(qū)域進(jìn) 行中間結(jié)果和目標(biāo)圖像的透明度融合,對Mi和源圖像物體區(qū)域直接
釆用泊松方程求解的結(jié)果,得到最終合成圖像。
其中,所述步驟S2具體包括S21,選擇源圖像中的待合成物體; S22,通過Grab-cut技術(shù)摳取出所述待合成物體的輪廓。
其中,所述步驟S4具體包括S41,對融合區(qū)域上的源圖像和目 標(biāo)圖像進(jìn)行超像素分割;S42,根據(jù)Gabor特征向量確定紋理差異; S43,根據(jù)LUV空間向量確定顏色差異;S44,將分割區(qū)域按照所述
紋理差異和顏色差異的加權(quán)和進(jìn)行分類,所述差異加權(quán)和大于預(yù)先設(shè) 定的閾值T的區(qū)域?yàn)镸q區(qū)域,所述差異加權(quán)和小于或等于T的區(qū)域 為區(qū)域。
其中,所述差異加權(quán)和為『,xAG +『2xAV,其中AG為Gabor特征 向量確定紋理差異,A"為LUV空間向量確定顏色差異,w和k由 用戶預(yù)先設(shè)定。
其中,所述步驟S5具體包括S51,對Mo區(qū)域作透明度摳圖, 計(jì)算前景圖像梯度場,并在Mo區(qū)域計(jì)算合成邊界,使用Neumann邊 界條件;S52,對Mi區(qū)域和源圖像物體區(qū)域,計(jì)算源圖像梯度場,并 在M1區(qū)域計(jì)算合成邊界,使用Dirichlet邊界條件;S53,根據(jù)公式
<formula>formula see original document page 7</formula>獲取合成圖像的中間結(jié)果/',其中,初始梯度場為
if P 6線
夸)=1 V尸 ifp e M;L
邊界條件為V/lo輔o 和
其中,所述步驟S6具體為根據(jù)公式
= / 雍+ (1 — if〗"線
J w — I /, if j e ilii(cv = l).
獲取圖像合成的最終結(jié)果。
本發(fā)明實(shí)施例的技術(shù)方案還提供一種基于混合梯度場和混合邊
界條件的圖像合成裝置,所述裝置包括輸入單元,用于獲取源圖像
和目標(biāo)圖像,及源圖像中物體合成到目標(biāo)圖像的位置;輪廓獲取單元, 用于獲取源圖像中的待合成物體的輪廓;融合區(qū)域獲取單元,用于 通過膨脹所述待合成物體的輪廓,得到所述待合成物體周圍一圈的融 合區(qū)域;區(qū)域分類單元,用于將所述融合區(qū)域按照源圖像和目標(biāo)圖像 在紋理和顏色上的差異分為Mo和Mi兩類區(qū)域;合成單元,用于對 兩類區(qū)域選取不同的梯度場和邊界條件,通過求解混合邊界條件的泊 松方程,求得圖像合成的中間結(jié)果,并對Mo區(qū)域進(jìn)行中間結(jié)果和目 標(biāo)圖像的透明度融合,對M,和源圖像物體區(qū)域直接采用泊松方程求 解的結(jié)果,得到最終合成圖像。
其中,所述區(qū)域分類單元包括超像素分割子單元,用于對融合 區(qū)域上的源圖像和目標(biāo)圖像進(jìn)行超像素分割;紋理差異確定子單元, 用于根據(jù)Gabor特征向量確定紋理差異;顏色差異確定子單元,用于 根據(jù)LUV空間向量確定顏色差異;閾值存儲子單元,用于存儲預(yù)先 設(shè)定的閾值T;分類子單元,用于將分割區(qū)域按照所述紋理差異和顏色差異的加權(quán)和進(jìn)行分類,所述差異加權(quán)和大于T的區(qū)域?yàn)镸o區(qū)域,
所述差異加權(quán)和小于或等于T的區(qū)域?yàn)镸i區(qū)域。
其中,所述合成單元包括Mo區(qū)域梯度場和邊界條件選取子單 元,用于對M。區(qū)域作透明度摳圖,計(jì)算前景圖像梯度場,并在M0 區(qū)域計(jì)算合成邊界,使用Neumann邊界條件;區(qū)域梯度場和邊界 條件選取子單元,用于對M,區(qū)域和源圖像物體區(qū)域,計(jì)算源圖像梯 度場,并在M1區(qū)域計(jì)算合成邊界,使用Dirichlet邊界條件;中間結(jié) 果獲取子單元,用于通過求解混合邊界條件的泊松方程,求得圖像合 成的中間結(jié)果;圖像合成子單元,用于對Mo區(qū)域進(jìn)行中間結(jié)果和目 標(biāo)圖像的透明度融合,對Mt和源圖像物體區(qū)域直接釆用泊松方程求 解的結(jié)果,得到最終合成圖像。
與現(xiàn)有技術(shù)相比,本發(fā)明的技術(shù)方案具有如下優(yōu)點(diǎn) 本發(fā)明既能夠利用合成物體的精確邊界減少合成錯誤,又能夠利 用梯度場傳遞和求解泊松方程達(dá)到合成圖像在光照和色彩上的一致 性,通過簡單的用戶交互,生成具有真實(shí)感的合成圖像。


圖l為本發(fā)明實(shí)施例的 像合成方法的流程圖; 圖2為本發(fā)明實(shí)施例的
圖3為本發(fā)明實(shí)施例的 像合成裝置的結(jié)構(gòu)圖。
具體實(shí)施例方式
下面結(jié)合附圖和實(shí)施例,對本發(fā)明的具體實(shí)施方式
作進(jìn)一步詳細(xì) 描述。以下實(shí)施例用于說明本發(fā)明,但不用來限制本發(fā)明的范圍。
本發(fā)明實(shí)施例的一種基于混合梯度場和混合邊界條件的圖像合 成方法如圖l所示,包括以下步驟
一種基于混合梯度場和混合邊界條件的圖 一種建立和求解混合條件泊松方程的示意
一種基于混合梯度場和混合邊界條件的圖步驟S101,獲取源圖像和目標(biāo)圖像,及源圖像中物體合成到目標(biāo) 圖像的位置。即用戶輸入合成的源圖像(含有待合成物體的圖像,如 一只熊的照片)和目標(biāo)圖像(待合成的背景圖像,如雪山場景的照片, 用戶的目的是將熊合成到雪山場景中),以及源圖像中物體合成到目 標(biāo)圖像的位置。
步驟S102,獲取源圖像中的待合成物體的輪廓。本實(shí)施例中首先 選擇源圖像中的待合成物體,用戶可以使用鼠標(biāo)框選源圖像中的待合
成物體;然后通過Grab-cut技術(shù)摳取出所述待合成物體的輪廓。
步驟sl03,通過膨脹所述待合成物體的輪廓,得到所述待合成物 體周圍一圈的融合區(qū)域。本實(shí)施例中對步驟sl(X2中摳取出的輪廓進(jìn) 行形態(tài)學(xué)中的膨脹操作, 一般膨脹20個像素,在膨脹區(qū)域和物體輪 廓之間的區(qū)域就是融合區(qū)域。
步驟s104,將所述融合區(qū)域按照源圖像和目標(biāo)圖像在紋理和顏色 上的差異分為Mo和M!兩類區(qū)域。本實(shí)施例中首先對融合區(qū)域上的 源圖像和目標(biāo)圖像進(jìn)行超像素分割(Superpixel Segmentation )。然后, 對于每一對源圖像和目標(biāo)圖像對應(yīng)的分割區(qū)域,計(jì)算紋理和顏色的差 異;其中根據(jù)Gabor特征向量確定紋理差異,根據(jù)LUV空間向量確
定顏色差異。最后將分割區(qū)域按照所述紋理差異和顏色差異的加權(quán)和 進(jìn)行分類,所述差異加權(quán)和大于預(yù)先設(shè)定的閾值T的區(qū)域?yàn)镸q區(qū)域, 所述差異加權(quán)和小于或等于T的區(qū)域?yàn)镸!區(qū)域。其中閾值T由用戶 指定,所述差異加權(quán)和為^xAG + ^xAf/,其中AG為Gabor特征向量 確定紋理差異,Af/為LUV空間向量確定顏色差異,w和『2由用戶 預(yù)先設(shè)定。
步驟sl05,對兩類區(qū)域選取不同的梯度場和邊界條件,通過求解
混合邊界條件的泊松方程,求得圖像合成的中間結(jié)果。本發(fā)明實(shí)施例 的一種建立和求解混合條件泊松方程的示意圖如圖2所示。參照圖2, 對于M。區(qū)域(a),使用透明度摳圖(alpha-matting)的方法,計(jì)算出源圖像的待合成物體的前景圖//以及前景透明度《,并計(jì)算前景圖像 的梯度場^/,梯度場的邊界^在^。區(qū)域即為《不等于0的區(qū)域的邊 界(d);對于M,區(qū)域(b)和物體區(qū)域(C),直接計(jì)算源圖像的梯度 場V,,梯度場的邊界在M,區(qū)域?yàn)?一條在該區(qū)域內(nèi)源圖像和目標(biāo)
圖像顏色差變化最小的路徑,可由動態(tài)規(guī)劃算法求得該最短路徑(e )。 在確定了3Q包圍的求解區(qū)域Q后,合成圖像的中間結(jié)果/'可由優(yōu)化 下式得到
其中^為像素。該優(yōu)化過程相當(dāng)于求解 一個混合邊界條件的泊松 方程。其中初始梯度場為
W I
即在M。區(qū)域釆用Neumann (第二類)邊界條件,在M,區(qū)域采用 Dirichlet (第一類)邊界條件。求解這一混合邊界條件的泊松方程后, 即得到合成圖像的中間結(jié)果/'。本實(shí)施例通過對兩類融合區(qū)域分別釆 用 一 階邊界條件和零階邊界條件作為求解泊松方程的混合邊界條件, 使得泊松圖像融合對物體亮度和色彩的修正傳遞到應(yīng)用透明度摳圖 的區(qū)域。
步驟s106,對Mo區(qū)域進(jìn)行中間結(jié)果和目標(biāo)圖像的透明度融合, 對Mi和源圖像物體區(qū)域直接釆用泊松方程求解的結(jié)果,得到最終合 成圖像。本實(shí)施例中,具體根據(jù)公式
邊界條件為
獲取圖像合成的最終結(jié)果。本發(fā)明實(shí)施例的一種基于混合梯度場和混合邊界條件的圖像合
成裝置如圖3所示,包括輸入單元31、輪廓獲取單元32、融合區(qū)域 獲取單元33、區(qū)域分類單元34和合成單元35,其中輪廓獲取單元 32分別與輸入單元31和融合區(qū)域獲取單元33連接,區(qū)域分類單元 34分別與融合區(qū)域獲取單元33和合成單元35連接。
輸入單元31用于獲取源圖像和目標(biāo)圖像,及源圖像中物體合成 到目標(biāo)圖像的位置;輪廓獲取單元32用于獲取源圖像中的待合成物 體的輪廓;融合區(qū)域獲取單元33用于通過膨脹所述待合成物體的輪 廓,得到所述待合成物體周圍一圈的融合區(qū)域;區(qū)域分類單元34用 于將所述融合區(qū)域按照源圖像和目標(biāo)圖像在紋理和顏色上的差異分 為M。和Mi兩類區(qū)域;合成單元35用于對兩類區(qū)域選取不同的梯度
場和邊界條件,通過求解混合邊界條件的泊松方程,求得圖像合成的 中間結(jié)果,并對Mo區(qū)域進(jìn)行中間結(jié)果和目標(biāo)圖像的透明度融合,對 Mi和源圖像物體區(qū)域直接釆用泊松方程求解的結(jié)果,得到最終合成 圖像。
區(qū)域分類單元34包括超像素分割子單元341、紋理差異確定子 單元342、顏色差異確定子單元343、分類子單元344和閾值存儲子 單元345,其中超像素分割子單元341分別與紋理差異確定子單元342 和顏色差異確定子單元343連接,分類子單元344分別與紋理差異確 定子單元342、顏色差異確定子單元343和闊值存儲子單元345連接。
超像素分割子單元341用于對融合區(qū)域上的源圖像和目標(biāo)圖像 進(jìn)行超像素分割;紋理差異確定子單元342用于根據(jù)Gabor特征向量 確定紋理差異;顏色差異確定子單元343用于根據(jù)LUV空間向量確 定顏色差異;分類子單元344用于將分割區(qū)域按照所述紋理差異和顏 色差異的加權(quán)和進(jìn)行分類,所述差異加權(quán)和大于T的區(qū)域?yàn)镸o區(qū)域, 所述差異加權(quán)和小于或等于T的區(qū)域?yàn)镸!區(qū)域;閾值存儲子單元345 用于存儲預(yù)先設(shè)定的閾值T。合成單元35包括Mq區(qū)域梯度場和邊界條件選取子單元351、 M!區(qū)域梯度場和邊界條件選取子單元352、中間結(jié)果獲取子單元353 和圖像合成子單元354,其中中間結(jié)果獲取子單元353分別與Mo區(qū) 域梯度場和邊界條件選取子單元351、 Mi區(qū)域梯度場和邊界條件選取 子單元352和圖像合成子單元354連接。
M0區(qū)域梯度場和邊界條件選取子單元351用于對Mo區(qū)域作透明 度摳圖,計(jì)算前景圖像梯度場,并在MQ區(qū)域計(jì)算合成邊界,使用 Neumann邊界條件;區(qū)域梯度場和邊界條件選取子單元352用于 對Mi區(qū)域和源圖像物體區(qū)域,計(jì)算源圖像梯度場,并在M1區(qū)域計(jì) 算合成邊界,使用Dirichlet邊界條件;中間結(jié)果獲取子單元353用于 通過求解混合邊界條件的泊松方程,求得圖像合成的中間結(jié)果;圖像 合成子單元354用于對Mo區(qū)域進(jìn)行中間結(jié)果和目標(biāo)圖像的透明度融 合,對M!和源圖像物體區(qū)域直接采用泊松方程求解的結(jié)果,得到最 終合成圖像。
本發(fā)明既能夠利用合成物體的精確邊界減少合成錯誤,又能夠利 用梯度場傳遞和求解泊松方程達(dá)到合成圖像在光照和色彩上的一致 性,通過簡單的用戶交互,生成具有真實(shí)感的合成圖像。
以上所述僅是本發(fā)明的優(yōu)選實(shí)施方式,應(yīng)當(dāng)指出,對于本技術(shù)領(lǐng) 域的普通技術(shù)人員來說,在不脫離本發(fā)明技術(shù)原理的前提下,還可以 做出若干改進(jìn)和潤飾,這些改進(jìn)和潤飾也應(yīng)視為本發(fā)明的保護(hù)范圍。
權(quán)利要求
1、一種基于混合梯度場和混合邊界條件的圖像合成方法,其特征在于,所述方法包括以下步驟S1,獲取源圖像和目標(biāo)圖像,及源圖像中物體合成到目標(biāo)圖像的位置;S2,獲取源圖像中的待合成物體的輪廓;S3,通過膨脹所述待合成物體的輪廓,得到所述待合成物體周圍一圈的融合區(qū)域;S4,將所述融合區(qū)域按照源圖像和目標(biāo)圖像在紋理和顏色上的差異分為M0和M1兩類區(qū)域;S5,對兩類區(qū)域選取不同的梯度場和邊界條件,通過求解混合邊界條件的泊松方程,求得圖像合成的中間結(jié)果;S6,對M0區(qū)域進(jìn)行中間結(jié)果和目標(biāo)圖像的透明度融合,對M1和源圖像物體區(qū)域直接采用泊松方程求解的結(jié)果,得到最終合成圖像。
2、 如權(quán)利要求1所述的基于混合梯度場和混合邊界條件的圖像 合成方法,其特征在于,所述步驟S2具體包括S21,選擇源圖像中的待合成物體;S22,通過Grab-cut技術(shù)摳取出所述待合成物體的輪廓。
3、 如權(quán)利要求1所述的基于混合梯度場和混合邊界條件的圖像 合成方法,其特征在于,所述步驟S4具體包括S41,對融合區(qū)域上的源圖像和目標(biāo)圖像進(jìn)行超像素分割; S42,根據(jù)Gabor特征向量確定紋理差異;S43, 根據(jù)LUV空間向量確定顏色差異;S44, 將分割區(qū)域按照所述紋理差異和顏色差異的加權(quán)和進(jìn)行分 類,所述差異加權(quán)和大于預(yù)先設(shè)定的閾值T的區(qū)域?yàn)镸o區(qū)域,所述 差異加權(quán)和小于或等于T的區(qū)域?yàn)閰^(qū)域。
4、 如權(quán)利要求3所述的基于混合梯度場和混合邊界條件的圖像 合成方法,其特征在于,所述差異加權(quán)和為^xAG +『2xM/,其中AG為Gabor特征向量確定紋理差異,A"為LUV空間向量確定顏色差 異,W和『2由用戶預(yù)先設(shè)定。
5、 如權(quán)利要求1至4任一項(xiàng)所述的基于混合梯度場和混合邊界 條件的圖像合成方法,其特征在于,所述步驟S5具體包括S51,對Mo區(qū)域作透明度摳圖,計(jì)算前景圖像梯度場,并在Mo 區(qū)域計(jì)算合成邊界,使用Neumann邊界條件;552, 對區(qū)域和源圖像物體區(qū)域,計(jì)算源圖像梯度場,并在 Ml區(qū)域計(jì)算合成邊界,使用Dirichlet邊界條件;553, 根據(jù)公式<formula>formula see original document page 3</formula>獲取合成圖像的中間結(jié)果/',其中,初始梯度場為:<formula>formula see original document page 3</formula>
6、如權(quán)利要求5所述的基于混合梯度場和混合邊界條件的圖像 合成方法,其特征在于,所述步驟S6具體為 根據(jù)公式<formula>formula see original document page 3</formula>獲取圖像合成的最終結(jié)果。
7、 一種基于混合梯度場和混合邊界條件的圖像合成裝置,其特 征在于,所述裝置包括輸入單元,用于獲取源圖像和目標(biāo)圖像,及源圖像中物體合成到目標(biāo)圖像的位置;輪廓獲取單元,用于獲取源圖像中的待合成物體的輪廓;融合區(qū)域獲取單元,用于通過膨脹所述待合成物體的輪廓,得到所述待合成物體周圍一圈的融合區(qū)域;區(qū)域分類單元,用于將所述融合區(qū)域按照源圖像和目標(biāo)圖像在紋 理和顏色上的差異分為Mo和Mi兩類區(qū)域;合成單元,用于對兩類區(qū)域選取不同的梯度場和邊界條件,通過 求解混合邊界條件的泊松方程,求得圖像合成的中間結(jié)果,并對M0 區(qū)域進(jìn)行中間結(jié)果和目標(biāo)圖像的透明度融合,對Mi和源圖像物體區(qū)域直接釆用泊松方程求解的結(jié)果,得到最終合成圖像。
8、 如權(quán)利要求7所述的基于混合梯度場和混合邊界條件的圖像 合成裝置,其特征在于,所述區(qū)域分類單元包括超像素分割子單元,用于對融合區(qū)域上的源圖像和目標(biāo)圖像進(jìn)行 超像素分割;紋理差異確定子單元,用于根據(jù)Gabor特征向量確定紋理差異;顏色差異確定子單元,用于根據(jù)LUV空間向量確定顏色差異;閾值存儲子單元,用于存儲預(yù)先設(shè)定的閾值T;分類子單元,用于將分割區(qū)域按照所述紋理差異和顏色差異的加 權(quán)和進(jìn)行分類,所述差異加權(quán)和大于T的區(qū)域?yàn)镸o區(qū)域,所述差異 加權(quán)和小于或等于T的區(qū)域?yàn)镸i區(qū)域。
9、 如權(quán)利要求7或8所述的基于混合梯度場和混合邊界條件的 圖像合成裝置,其特征在于,所述合成單元包括M0區(qū)域梯度場和邊界條件選取子單元,用于對Mo區(qū)域作透明度 摳圖,計(jì)算前景圖像梯度場,并在Mo區(qū)域計(jì)算合成邊界,使用 Neumann邊界條件;Mi區(qū)域梯度場和邊界條件選取子單元,用于對Mi區(qū)域和源圖像 物體區(qū)域,計(jì)算源圖像梯度場,并在Ml區(qū)域計(jì)算合成邊界,使用Dirichlet邊界條件;中間結(jié)果獲取子單元,用于通過求解混合邊界條件的泊松方程,求得圖像合成的中間結(jié)果;圖像合成子單元,用于對Mo區(qū)域進(jìn)行中間結(jié)果和目標(biāo)圖像的透 明度融合,對M,和源圖像物體區(qū)域直接釆用泊松方程求解的結(jié)果,得到最終合成圖像。
全文摘要
本發(fā)明公開了一種基于混合梯度場和混合邊界條件的圖像合成方法和裝置,該方法包括獲取源圖像和目標(biāo)圖像及源圖像中物體合成到目標(biāo)圖像的位置;獲取源圖像中的待合成物體的輪廓;通過膨脹該輪廓得到融合區(qū)域;將融合區(qū)域按照源圖像和目標(biāo)圖像在紋理和顏色上的差異分為兩類;對兩類區(qū)域選取不同的梯度場和邊界條件,通過求解混合邊界條件的泊松方程,求得中間結(jié)果;對一類區(qū)域進(jìn)行中間結(jié)果和目標(biāo)圖像的透明度融合,其余區(qū)域采用泊松方程求解的結(jié)果,得到最終合成圖像。本發(fā)明既能夠利用合成物體的精確邊界減少合成錯誤,又能夠利用梯度場傳遞和求解泊松方程達(dá)到合成圖像在光照和色彩上的一致性,通過簡單的用戶交互,生成具有真實(shí)感的合成圖像。
文檔編號G06T5/50GK101551904SQ200910084769
公開日2009年10月7日 申請日期2009年5月19日 優(yōu)先權(quán)日2009年5月19日
發(fā)明者張松海, 程明明, 胡事民, 韜 陳 申請人:清華大學(xué)
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
1
娄底市| 迭部县| 无极县| 北海市| 新竹市| 桐城市| 新绛县| 大埔县| 淅川县| 张掖市| 华亭县| 于都县| 奎屯市| 台山市| 新昌县| 抚远县| 井冈山市| 尼木县| 集安市| 沅陵县| 鹤壁市| 会泽县| 西城区| 图片| 乐平市| 巴楚县| 论坛| 志丹县| 济宁市| 浮山县| 丽水市| 巩留县| 新龙县| 嘉兴市| 城口县| 湖北省| 奈曼旗| 晋江市| 嵩明县| 绥宁县| 克山县|