欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

用于多視點深度視頻編碼的虛擬視點合成失真預(yù)測方法與流程

文檔序號:12628387閱讀:230來源:國知局
用于多視點深度視頻編碼的虛擬視點合成失真預(yù)測方法與流程
本發(fā)明屬于視頻信號處理和計算機(jī)視覺
技術(shù)領(lǐng)域
,尤其涉及了一種虛擬視點合成失真預(yù)測方法,可用于多視點深度視頻編碼的率失真優(yōu)化過程中。
背景技術(shù)
:隨著視頻技術(shù)的不斷發(fā)展,2D視頻已經(jīng)不能夠滿足用戶的視覺體驗需求,自由視點視頻作為3D視頻,與人類視覺更加匹配,能夠為用戶觀看時提供豐富的立體感和沉浸感,并且支持用戶在一定范圍內(nèi)選擇任意的視點圖像,具有廣泛的發(fā)展前景。3D-HEVC作為視頻編碼專家組和動態(tài)圖像專家組聯(lián)合制定的下一代視頻編碼標(biāo)準(zhǔn)HEVC的擴(kuò)展,將用于3D視頻編碼。在3D-HEVC中,3D視頻采用多視點視頻加深度MVD作為其有效的表示格式,即采集多個視點的紋理視頻以及其相對應(yīng)的表征場景物體到相機(jī)之間距離的深度視頻作為編碼的數(shù)據(jù)。通過對采集到的多視點紋理數(shù)據(jù)和深度數(shù)據(jù)進(jìn)行編碼、傳輸、壓縮、解碼,最終在用戶端合成任意位置的視頻。由于深度數(shù)據(jù)在虛擬視點合成算法中,為紋理數(shù)據(jù)的映射提供了相應(yīng)的幾何信息,因此,解碼后的深度圖的質(zhì)量對合成視點的質(zhì)量有著重要的影響。在深度圖的編碼過程中,采用基于塊的率失真優(yōu)化方法,對深度圖像塊的多種編碼模式和編碼參數(shù)進(jìn)行嘗試,從而選擇出最優(yōu)的編碼模式和參數(shù),即選擇使得率失真代D+λR最小的編碼模式和參數(shù),其中D表示在不同編碼模式和參數(shù)下,編碼當(dāng)前塊所得到的失真;R表示在不同編碼模式和參數(shù)下,編碼當(dāng)前塊所需要的比特數(shù);λ代表拉格朗日乘子。由于深度視頻不直接進(jìn)行觀看,而是用來合成終端用戶觀看的虛擬視圖。因此,深度圖編碼的目的是為了獲得一定質(zhì)量的虛擬視圖。而影響虛擬視圖質(zhì)量的因素不僅僅只有深度圖,還有很多其他的因素,比如用于合成的紋理視頻質(zhì)量、合成過程中的取整操作等,只將深度圖自身的失真作為率失真優(yōu)化過程中的失真衡量是不恰當(dāng)?shù)?。所以把?dāng)前編碼深度塊引入的合成視點失真也作為率失真優(yōu)化過程中的失真衡量。傳統(tǒng)的失真計算方法,例如差值平方和SSD與差值絕對值的和SAD,最先用于深度視頻編碼的失真預(yù)測,該方法雖然有著算法復(fù)雜度低,易于實現(xiàn)等優(yōu)點,但忽略了深度圖對合成圖像的影響,因此不能從整體上保證合成圖像的質(zhì)量。在上述方法基礎(chǔ)上,Gerhard等人提出了合成虛擬視點失真差值SVDC等方法,該方法通過循環(huán)執(zhí)行視點合成算法,生成相應(yīng)的合成視點圖像,最終計算編碼深度圖造成的合成視點失真;然而,SVDC等方法雖然能夠準(zhǔn)確的計算合成視點失真,但是其算法復(fù)雜度極大,編碼時間較長,不能用于實時編碼。為了進(jìn)一步降低SVDC等方法的復(fù)雜度,減少編碼時間,Byung等人提出了虛擬視點合成失真估計VSD等方法,即不進(jìn)行實際的視點合成,而是通過估計的方法得到合成失真;該方法能夠極大的減少算法復(fù)雜度,并且能夠保證編碼的壓縮性能,但其估計模型的準(zhǔn)確性仍有待改進(jìn)。技術(shù)實現(xiàn)要素:為了解決上述已存在的技術(shù)不足,本發(fā)明提出了一種虛擬視點合成失真預(yù)測方法,以在保證虛擬視點合成質(zhì)量,減少計算復(fù)雜度的基礎(chǔ)上,提高用于多視點深度視頻編碼的虛擬視點合成失真估計的準(zhǔn)確性,以及3D視頻的整體編碼性能。為實現(xiàn)上述目的,本發(fā)明的技術(shù)方案包括如下:(1)構(gòu)建像素級虛擬視點合成失真預(yù)測值Dvs,p模型:(1a)定義第一合成圖像中的像素值是由有失真的紋理圖與深度圖a合成的合成圖像中的像素值,其中深度圖a由已編碼有失真的深度數(shù)據(jù)、原始無失真深度數(shù)據(jù),以及當(dāng)前深度模式編碼后的深度數(shù)據(jù)三部分組成;(1b)定義第二合成圖像中的像素值S'(x,y),是由有失真的紋理圖與深度圖b合成的合成圖像中的像素值,其中深度圖b由已編碼有失真深度數(shù)據(jù)和原始無失真深度數(shù)據(jù)兩部分組成;(1c)定義第三合成圖像中的像素值Sref(x,y),是由無失真的紋理圖與無失真的深度圖合成的合成圖像中的像素值;(1d)使用(1a)、(1b)、(1c)所定義第一、第二、第三合成圖像中的像素值S'(x,y)、Sref(x,y),根據(jù)高效視頻編碼標(biāo)準(zhǔn)的3D擴(kuò)展3D-HEVC參考軟件中所集成合成虛擬視點失真差值SVDC方法,構(gòu)建基于像素的合成視點失真預(yù)測值Dvs,p模型:Dvs,p=(S~(x,y)-S′(x,y))2+2(S~(x,y)-S′(x,y))(S(x,y)-Sref(x,y));]]>(2)獲得當(dāng)前深度編碼塊所對應(yīng)的數(shù)據(jù)塊,該數(shù)據(jù)塊包括無失真原始深度塊do、采用當(dāng)前深度模式編碼的有失真深度塊dc、對應(yīng)無失真原始紋理塊to、已編碼有失真紋理塊tc;(3)使用(2)中獲得的當(dāng)前深度編碼塊所對應(yīng)的數(shù)據(jù)塊,估計(1)中所述第一合成圖像中像素點值與第二合成圖像中像素點值S'(x,y)的差值:(3a)依據(jù)無失真原始深度塊do對已編碼紋理塊tc進(jìn)行映射,獲得do與tc所合成圖像塊中tc的像素點k對應(yīng)的像素位置Xc,k;(3b)依據(jù)已編碼有失真深度塊dc對已編碼紋理塊tc進(jìn)行映射,獲得dc與tc所合成圖像塊中tc的像素點k對應(yīng)的像素位置X,c,k;(3c)依據(jù)無失真原始深度塊do對已編碼紋理塊tc進(jìn)行映射,獲得do與tc所合成圖像塊中tc的像素點k、k-1和k+1對應(yīng)的像素值Tc,k、Tc,k-1和Tc,k+1;(3d)依據(jù)已編碼有失真深度塊dc對已編碼紋理塊tc進(jìn)行映射,獲得dc與tc所合成圖像塊中tc的像素點k對應(yīng)的像素值T'c,k;(3e)使用(3a)、(3b)、(3c)、(3d)中獲得的像素位置與像素值,估計第一合成圖像中像素點值與第二合成圖像中像素點值S'(x,y)的差值:S~(x,y)-S′(x,y)=12|Xc,k-Xc,k′|(|Tc,k-1-Tc,k|+|Tc,k-Tc,k+1|);]]>(4)使用(2)中獲得的當(dāng)前深度編碼塊所對應(yīng)的數(shù)據(jù)塊,估計(1)中所述第二合成圖像中像素點值S'(x,y)與第三合成圖像中像素點值Sref(x,y)的差值:(4a)依據(jù)無失真原始深度塊do對無失真原始紋理塊to進(jìn)行映射,獲得do與to所合成圖像塊中to的像素點k、k-1和k+1對應(yīng)的像素位置Xo,k、Xo,k-1和Xo,k+1;(4b)依據(jù)無失真原始深度塊do對無失真原始紋理塊to進(jìn)行映射,獲得do與to所合成圖像塊中to的像素點k、k-1和k+1對應(yīng)的像素值To,k、To,k-1和To,k+1;(4c)使用(4a)、(4b)、(3c)中獲得的像素位置與像素值,估計第二合成圖像中像素點值S'(x,y)與第三合成圖像中像素點值Sref(x,y)的差值:S′(x,y)-Sref(x,y)=12|Xo,k+1-Xo,k|(|To,k+1-Tc,k+1|+|To,k-Tc,k|)+12|Xo,k-Xo,k-1|(|To,k-Tc,k|+|To,k-1-Tc,k-1|);]]>(5)將(3)中得到的第一合成圖像中像素點值與第二合成圖像中像素點值S'(x,y)的差值定義為由深度圖失真所導(dǎo)致的第一合成誤差:D1=S~(x,y)-S′(x,y);]]>(6)將(4)中得到的第二合成圖像中像素點值S'(x,y)與第三合成圖像中像素點值Sref(x,y)的差值定義為由紋理圖失真所導(dǎo)致的第二合成誤差:D2=S'(x,y)-Sref(x,y);(7)將第一合成誤差D1與第二合成誤差D2帶入(1)所構(gòu)建的合成失真模型中,得到像素級合成失真值Dvs,p:Dvs,p=D12+2D1D2;(8)對當(dāng)前深度編碼塊中所有像素點的合成失真值求和,得到當(dāng)前編碼塊的合成視點失真值Dvs:Dvs=ΣNDvs,p=ΣN[D12+2D1D2];]]>其中,N是當(dāng)前深度編碼塊中所有像素點的集合。本發(fā)明與現(xiàn)有技術(shù)相比,具有以下優(yōu)點:本發(fā)明考慮紋理失真對深度視頻編碼過程中的合成失真的影響,將虛擬視點合成失真分為只由深度失真引入的合成失真和受紋理失真影響并由深度失真引入的合成失真兩部分,以對編碼當(dāng)前深度塊時得到的合成失真進(jìn)行預(yù)測,克服了現(xiàn)有技術(shù)中沒有考慮到紋理失真對由深度引入的合成失真產(chǎn)生影響的問題,避免了在深度編碼過程中多次進(jìn)行虛擬視點合成,在大幅度的降低自由視點深度視頻編碼的計算復(fù)雜度的基礎(chǔ)上,提升了預(yù)測多視點深度編碼中的虛擬視點合成失真的準(zhǔn)確性,并提升3D視頻的整體編碼性能。仿真結(jié)果表明,針對不同的3D標(biāo)準(zhǔn)測試序列,將本發(fā)明預(yù)測所得的合成失真,與采用高效視頻編碼標(biāo)準(zhǔn)的3D擴(kuò)展3D-HEVC參考軟件中集成的虛擬視點合成估計失真VSD算法得到的合成失真以及實際虛擬視點合成失真三者進(jìn)行比較,本發(fā)明預(yù)測得到的合成失真與實際的合成失真更為接近,預(yù)測的合成失真與實際合成失真之間相關(guān)系數(shù)的平方值SCC的均值為0.9961,均方根誤差RMSE的均值為0.2680。編碼結(jié)果表明,使用本發(fā)明對不同的3D標(biāo)準(zhǔn)測試序列進(jìn)行編碼,與高效視頻編碼標(biāo)準(zhǔn)的3D擴(kuò)展3D-HEVC參考軟件的編碼結(jié)果相比,在相同合成視點質(zhì)量下,平均能節(jié)省0.9%的總碼率。附圖說明圖1本發(fā)明所采用的多視點加深度視頻系統(tǒng)模型圖。圖2是本發(fā)明的實現(xiàn)流程圖。具體實施方式下面根據(jù)附圖對本發(fā)明的具體實施方案和效果作進(jìn)一步的描述。參照圖2,本發(fā)明的實現(xiàn)步驟如下:步驟1,構(gòu)建像素級虛擬視點合成預(yù)測值Dvs,p模型。(1a)定義第一合成圖像中的像素值是由有失真的紋理圖與深度圖a合成的合成圖像中的像素值,其中深度圖a由已編碼有失真的深度數(shù)據(jù)、原始無失真深度數(shù)據(jù),以及當(dāng)前深度模式編碼后的深度數(shù)據(jù)三部分組成;(1b)定義第二合成圖像中的像素值S'(x,y),是由有失真的紋理圖與深度圖b合成的合成圖像中的像素值,其中深度圖b由已編碼有失真深度數(shù)據(jù)和原始無失真深度數(shù)據(jù)兩部分組成;(1c)定義第三合成圖像中的像素值Sref(x,y),是由無失真的紋理圖與無失真的深度圖合成的合成圖像中的像素值;(1d)使用(1a)、(1b)、(1c)所定義第一、第二、第三合成圖像中的像素值S'(x,y)、Sref(x,y),根據(jù)高效視頻編碼標(biāo)準(zhǔn)的3D擴(kuò)展3D-HEVC參考軟件中所集成合成虛擬視點失真差值SVDC方法,構(gòu)建基于像素的合成視點失真預(yù)測值Dvs,p模型:Dvs,p=[S~(x,y)-Sref(x,y)]2-[S′(s,y)-Sref(x,y)]2=S~(x,y)2+Sref(x,y)2-2S~(x,y)Sref(x,y)-S′(x,y)2-Sref(x,y)2+2S′(x,y)Sref(x,y)=(S~(x,y)-S′(x,y))(S~(x,y)+S′(x,y))-2Sref(x,y)(S~(s,y)-S′(x,y))=(S~(x,y)-S′(x,y))(S~(x,y)+S′(x,y)-2Sref(x,y))=(S~(x,y)-S′(x,y))(S~(x,y)-S′(x,y)+2(S′(x,y)-Sref(x,y)))=(S~(x,y)-S′(x,y))2+2(S~(x,y)-S′(x,y))(S′(x,y)-Sref(x,y));]]>根據(jù)以上模型可知,由深度編碼失真造成的虛擬視點的合成失真不但與深度失真有關(guān),而且會受到相應(yīng)紋理失真的影響。步驟2,獲得當(dāng)前深度編碼塊所對應(yīng)的數(shù)據(jù)塊。參照圖1,本步驟的具體實現(xiàn)如下:(2a)使用多個不同視點位置的攝像機(jī)采集獲得多視點立體視頻序列中特定視點的無失真原始紋理圖像St_o;(2b)使用深度攝像機(jī)拍攝或者使用相應(yīng)的深度估計算法獲得多視點立體視頻序列中特定視點的無失真原始深度圖像Sd_o;(2c)使用高效視頻編碼標(biāo)準(zhǔn)的3D擴(kuò)展3D-HEVC參考軟件對無失真原始紋理圖像St_o和無失真原始深度圖像Sd_o進(jìn)行編碼后,獲得多視點立體視頻序列中特定視點的已編碼有失真紋理圖像St_c和已編碼有失真深度數(shù)據(jù)Md_c;(2d)從(2a)獲得的無失真原始紋理圖像St_o中提取無失真原始紋理塊to;(2e)從(2b)獲得的無失真原始深度圖像Sd_o中提取無失真原始深度塊do;(2f)從(2c)獲得的已編碼有失真紋理圖像St_c中提取已編碼有失真紋理塊tc;(2g)從(2c)獲得的已編碼有失真深度數(shù)據(jù)Md_c中提取采用當(dāng)前深度模式編碼的有失真深度塊dc。步驟3,使用步驟2中獲得的當(dāng)前深度編碼塊所對應(yīng)的數(shù)據(jù)塊,估計步驟1中所述第一合成圖像中像素點值S(x,y)與第二合成圖像中像素點值S'(x,y)的差值。(3a)依據(jù)無失真原始深度塊do對已編碼紋理塊tc進(jìn)行映射,獲得do與tc所合成圖像塊中tc的像素點k對應(yīng)的像素位置Xc,k,表示如下:Xc,k=Xtc,k+Po,k其中,Xtc,k是已編碼紋理塊tc中第k個像素點的像素位置,Po,k=cfldo,k表示已編碼紋理塊tc中第k個像素點在依據(jù)深度值do,k映射后的像素位置偏移量,do,k為無失真原始深度塊do的深度值,f為相機(jī)焦距,l為相機(jī)之間的基線距離,c=(1/znear-1/zfar)/255表示尺度參數(shù),znear與zfar分別為相機(jī)平面到最近與最遠(yuǎn)的深度平面的距離;(3b)依據(jù)已編碼有失真深度塊dc對已編碼紋理塊tc進(jìn)行映射,獲得dc與tc所合成圖像塊中tc的像素點k對應(yīng)的像素位置X'c,k,表示如下:X'c,k=Xtc,k+Pc,k其中,Pc,k=cfldc,k表示已編碼紋理塊tc中第k個像素點在依據(jù)深度值dc,k映射后的像素位置偏移量,dc,k為已編碼有失真深度塊dc的深度值;(3c)依據(jù)無失真原始深度塊do對已編碼紋理塊tc進(jìn)行映射,獲得do與tc所合成圖像塊中tc的像素點k、k-1和k+1對應(yīng)的像素值Tc,k、Tc,k-1和Tc,k+1,分別表示如下:Tc,k=Ttc,k;Tc,k-1=Ttc,k-1;Tc,k+1=Ttc,k+1;其中,Ttc,k是已編碼紋理塊tc中第k個像素點的像素值,Ttc,k-1是已編碼紋理塊tc中第k-1個像素點的像素值,Ttc,k+1是已編碼紋理塊tc中第k+1個像素點的像素值;(3d)依據(jù)已編碼有失真深度塊dc對已編碼紋理塊tc進(jìn)行映射,獲得dc與tc所合成圖像塊中tc的像素點k對應(yīng)的像素值T'c,k,表示如下:T'c,k=Ttc,k;(3e)使用(3a)、(3b)、(3c)、(3d)中獲得的像素位置與像素值,估計第一合成圖像中像素點值與第二合成圖像中像素點值S'(x,y)的差值:S~(x,y)-S′(x,y)=12∫Tc,kTc,k-1|Xc,k-X′c,k|Td′c,k+12∫Tc,k-1Tc,k|Xc,k-X′c,k|Td′c,k=12|Xc,k-X′c,k|(|Tc,k-1-Tc,k|+|Tc,k-Tc,k+1|).]]>步驟4,使用步驟2中獲得的當(dāng)前深度編碼塊所對應(yīng)的數(shù)據(jù)塊,估計步驟1中所述第二合成圖像中像素點值S'(x,y)與第三合成圖像中像素點值Sref(x,y)的差值。(4a)依據(jù)無失真原始深度塊do對無失真原始紋理塊to進(jìn)行映射,獲得do與to所合成圖像塊中to的像素點k、k-1和k+1對應(yīng)的像素位置Xo,k、Xo,k-1和Xo,k+1,分別表示如下:Xo,k=Xto,k+Po,k;Xo,k-1=Xto,k-1+Po,k-1;Xo,k+1=Xto,k+1+Po,k+1;其中,Xto,k是無失真原始紋理塊to中第k個像素點的像素位置;Xto,k-1是無失真原始紋理塊to中第k-1個像素點的像素位置Po,k-1=cfldo,k-1表示無失真原始紋理塊to中第k-1個像素點在依據(jù)深度值do,k-1映射后的像素位置偏移量,do,k-1為無失真原始深度塊do的深度值;Xto,k+1是無失真原始紋理塊to中第k+1個像素點的像素位置,Po,k+1=cfldo,k+1表示無失真原始紋理塊to中第k+1個像素點在依據(jù)深度值do,k+1映射后的像素位置偏移量,do,k+1為對應(yīng)無失真原始深度塊do的深度值;(4b)依據(jù)無失真原始深度塊do對無失真原始紋理塊to進(jìn)行映射,獲得do與to所合成圖像塊中to的像素點k、k-1和k+1對應(yīng)的像素值To,k、To,k-1和To,k+1,分別表示如下:To,k=Tto,k;To,k-1=Tto,k-1;To,k+1=Tto,k+1;其中,Tto,k是無失真原始紋理塊to中第k個像素點的像素值,Tto,k-1是無失真原始紋理塊to中第k-1個像素點的像素值,Tto,k+1是無失真原始紋理塊to中第k+1個像素點的像素值。(4c)使用(4a)、(4b)、(3c)中獲得的像素位置與像素值,估計第二合成圖像中像素點值S'(x,y)與第三合成圖像中像素點值Sref(x,y)的差值:S′(x,y)-Sref(x,y)=∫Xo,k-1Xo,k+1|Tc,k-To,k|Xdo,k=12|Xo,k+1-Xo,k|(|To,k+1-Tc,k+1|+|To,k-Tc,k|)+12|Xo,k-Xo,k-1|(|To,k-Tc,k|+|To,k-1-Tc,k-1|).]]>步驟5,定義虛擬視點的合成誤差。(5a)將步驟3中得到的第一合成圖像中像素點值與第二合成圖像中像素點值S'(x,y)的差值定義為由深度圖失真所導(dǎo)致的第一合成誤差:D1=S~(x,y)-S′(x,y);]]>(5b)將步驟4中得到的第二合成圖像中像素點值S'(x,y)與第三合成圖像中像素點值Sref(x,y)的差值定義為由紋理圖失真所導(dǎo)致的第二合成誤差:D2=S'(x,y)-Sref(x,y)。步驟6,將第一合成誤差D1與第二合成誤差D2帶入步驟1所構(gòu)建的合成失真模型中,得到像素級合成失真值Dvs,p:Dvs,p=D12+2D1D2。步驟7,根據(jù)上述像素級合成失真值Dvs,p,對當(dāng)前深度編碼塊中所有像素點的合成失真值求和,得到當(dāng)前編碼塊的合成視點失真值Dvs:Dvs=ΣNDvs,p=ΣN[D12+2D1D2];]]>其中,N是當(dāng)前深度編碼塊中所有像素點的集合。本發(fā)明的效果通過以下測試進(jìn)一步說明:測試內(nèi)容1:針對不同的3D標(biāo)準(zhǔn)測試序列,在3D-HEVC通用測試環(huán)境下,分別使用集成有虛擬視點合成失真估計VSD算法的3D-HEVC參考軟件HTM13.0、實際合成失真計算方法的3D-HEVC參考軟件HTM13.0、以及本發(fā)明方法的3D-HEVC參考軟件HTM13.0進(jìn)行編碼,其中,固定由深度圖失真所導(dǎo)致的合成像素位置偏移量為2,紋理圖編碼量化參數(shù)Qt={25,30,35,40}。提取上述三種方法在編碼過程中的虛擬視點合成失真值,并進(jìn)行曲線擬合,以實際合成失真曲線為基準(zhǔn),計算由VSD方法擬合曲線、本發(fā)明方法擬合曲線以及基準(zhǔn)曲線之間的相關(guān)系數(shù)的平方值SCC以及均方根誤差RMSE,結(jié)果如表1所示。相關(guān)系數(shù)的平方值SCC表征兩條曲線之間的相似性,值越大,則表明兩條曲線相似性越大。均方誤差根RMSE表征觀測值與真值之間的誤差,值越小,說明兩者越接近。表1失真相似性比較由表1可以看出,對于不同的3D標(biāo)準(zhǔn)測試序列,在受到深度失真影響后,產(chǎn)生相同的合成位置變化量的情況下,本發(fā)明方法預(yù)測的合成失真與實際合成失真相比,其相關(guān)系數(shù)的平方SCC的平均值為0.9961,大于VSD方法對應(yīng)的相關(guān)系數(shù)平方SCC的平均值0.9898。本發(fā)明方法與實際合成失真相比,其均方根誤差RMSE的平均值為0.2680,小于VSD方法對應(yīng)的均方誤差根RMSE的平均值0.3711,這兩個數(shù)據(jù)表明,使用本發(fā)明方法預(yù)測的合成失真更接近實際合成失真。測試內(nèi)容2:在3D-HEVC通用測試環(huán)境CTC中,使用本發(fā)明方法的3D-HEVC參考軟件HTM13.0對3D標(biāo)準(zhǔn)測試序列進(jìn)行編碼,其中紋理與深度編碼量化參數(shù)QP組合[Qt,Qd]為[25,34]、[30,39]、[35,42]、[40,45];用原始3D-HEVC參考軟件HTM13.0在相同紋理深度QP組合下對3D標(biāo)準(zhǔn)測試序列進(jìn)行編碼。將上述編碼結(jié)果以BDBR的形式進(jìn)行性能比較,得出在相同合成視圖質(zhì)量下,編碼紋理和深度的總碼率結(jié)果,如表2所示。所述BDBR,表示在相同合成視圖質(zhì)量下,用修正后的3D-HEVC軟件編碼得到的結(jié)果相對于原始3D-HEVC軟件在碼率上的變化情況,負(fù)號表示碼率節(jié)省量。表2編碼性能比較由表2可以看出,對于不同的3D標(biāo)準(zhǔn)測試序列,在相同合成視圖質(zhì)量下,本發(fā)明方法與VSD方法相比,能平均節(jié)省0.9%的總碼率。以上內(nèi)容對本發(fā)明做出了進(jìn)一步的詳細(xì)說明,但不能認(rèn)定本發(fā)明的具體實施僅局限于上述說明。在本發(fā)明所屬
技術(shù)領(lǐng)域
的普通技術(shù)人員來說,在不脫離本發(fā)明構(gòu)思前提下,還可以做出若干簡單推演或替換,都應(yīng)當(dāng)視為屬于本發(fā)明由所提交的權(quán)利要求書確定的專利保護(hù)范圍。當(dāng)前第1頁1 2 3 
當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
甘孜县| 屯门区| 全南县| 濉溪县| 长丰县| 玉林市| 镇远县| 砀山县| 连云港市| 彭州市| 老河口市| 新乐市| 济源市| 舞钢市| 古田县| 行唐县| 丹凤县| 景德镇市| 龙里县| 永济市| 河源市| 梨树县| 西吉县| 昌宁县| 惠州市| 西藏| 鹰潭市| 全南县| 乌鲁木齐县| 广南县| 横峰县| 永丰县| 涿鹿县| 东乌珠穆沁旗| 葵青区| 萍乡市| 大新县| 古浪县| 利川市| 保定市| 玛纳斯县|