技術(shù)總結(jié)
本發(fā)明公開了一種用于多視點(diǎn)深度視頻編碼的虛擬視點(diǎn)合成失真預(yù)測(cè)方法,主要解決現(xiàn)有技術(shù)合成失真計(jì)算復(fù)雜度高、預(yù)測(cè)不準(zhǔn)確的問題。其實(shí)現(xiàn)步驟是:1)構(gòu)建像素級(jí)虛擬視點(diǎn)合成失真預(yù)測(cè)模型;2)獲得當(dāng)前深度編碼塊的數(shù)據(jù)塊信息;3)利用數(shù)據(jù)塊信息估計(jì)由深度圖失真所導(dǎo)致的第一合成誤差D1,以及由紋理圖失真所導(dǎo)致的第二合成誤差D2;4)將兩個(gè)合成誤差帶入1)構(gòu)建的合成失真模型,得到像素級(jí)合成失真預(yù)測(cè)值;6)對(duì)當(dāng)前編碼深度塊所有像素點(diǎn)的合成失真預(yù)測(cè)值求和,得到虛擬視點(diǎn)合成失真值。本發(fā)明減少了預(yù)測(cè)復(fù)雜度,提高了合成失真估計(jì)準(zhǔn)確性,改善了3D視頻的整體編碼性能,可用于對(duì)任意紋理和深度量化參數(shù)QP組合方式的3D視頻進(jìn)行編碼。
技術(shù)研發(fā)人員:霍俊彥;鄭子麒;楊付正;李兵兵
受保護(hù)的技術(shù)使用者:西安電子科技大學(xué)
文檔號(hào)碼:201610802308
技術(shù)研發(fā)日:2016.09.06
技術(shù)公布日:2017.01.11