欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于H265引入視差補償的立體視頻編碼方法與流程

文檔序號:11524651閱讀:400來源:國知局
一種基于H265引入視差補償的立體視頻編碼方法與流程

本發(fā)明涉及視頻編碼技術領域,尤其涉及一種基于h265引入視差補償的立體視頻編碼方法。



背景技術:

視頻信息作為多媒體信息中最主要的一部分,是人們生活中的必備品。隨著社會進步和人們生活水平日益提高,人們對視頻的要求也越來越高,追求更加真實、生動的視頻體驗。當前視頻研究領域針對2d視頻圖像存在缺乏深度、互動性等不足,掀起了立體視頻顯示研究的熱潮。與傳統(tǒng)的2d視頻相比,立體視頻增加了第三維的“深度”,給人們帶來視覺上的巨大沖擊。從2d視頻圖像的顯示發(fā)展到立體視頻圖像的顯示,立體視頻圖像顯示技術具有傳統(tǒng)顯示技術所不能比擬的高度臨場感,給觀眾帶來無與倫比的視覺享受,它是根據人眼的雙目視差為原理的。人的雙眼中間存在一段距離,使得人的左右眼在觀看場景時的位置、角度不同,左右眼觀看物體時接收到的視覺圖像略有差異,即場景在人的左右眼視網膜上投影的位置不同,這個位置即是視差,視差反映了物體的深度信息,在大腦中通過對具有視差的兩幅圖像的復雜合成得到場景的深度信息,形成具有縱深感的立體畫面,也就體會到自然的立體感覺。

現有技術通常用攝像機來模擬人眼,立體視頻根據攝像機的數目可分為雙目、多視點立體視頻。雙目立體視頻是模擬人雙眼感知三維景物最簡單的方式。雙目立體視頻簡單實用的優(yōu)點使其成為立體視頻市場上應用最廣泛的格式。然而立體視頻相對于2d視頻增加了視點數量,現有技術的編碼方法沒有充分利用視頻中視點間存在的相關性,編碼壓縮程度低,使得編碼后的數據量巨大,相應的存儲和傳輸要求的帶寬高等要求都限制了立體視頻的發(fā)展。

故,針對目前現有技術中存在的上述缺陷,實有必要進行研究,以提供一種方案,解決現有技術中存在的缺陷。



技術實現要素:

有鑒于此,確有必要提供一種能有效減少碼率的基于h265引入視差補償的立體視頻編碼方法。

為了克服現有技術的缺陷,本發(fā)明的技術方案如下:

一種基于h265引入視差補償的立體視頻編碼方法,包括以下步驟:

步驟s1:將多個視角獲取的多路圖像序列進行幀交替形成混合序列,任選定一路圖像序列作為主序列,其余路為副序列;

步驟s2:主序列中的任一主幀參考該主序列的前一主幀作為參考,主幀按h.265標準進行編碼;

步驟s3:副序列中的任一副幀參考前一幀,副幀引入其與前一幀的視差后再進行編碼;

其中,步驟s3中,副幀引入其與前一幀的視差后再進行編碼的過程為:

先根據視角位置關系計算視差d;

再根據視差d調整搜索窗,并在該搜索窗范圍內做整數全搜索計算獲得運動矢量;

最后根據運動矢量完成編碼。

優(yōu)選地,立體視頻編碼為雙目立體視頻編碼或多視點立體視頻編碼。

優(yōu)選地,在所述步驟s3中,對副幀做幀間編碼時,引入lcu(largecodingunit)的視差,以lcu左上角為原點水平方向上±48像素范圍內計算當前l(fā)cu的視差d。

優(yōu)選地,計算lcu的單個預測單元pu(predictionunit)的運動矢量mv之前先將搜索窗根據視差d做偏移,在偏移后的位置整數全搜索計算獲得運動矢量mv0,將獲得的運動矢量mv0結合視差d即獲得最終的運動矢量mv。

與現有技術相比較,本發(fā)明在h.265編碼器的基礎上稍做改動,可以方便地應用于各種多視頻的立體視頻編碼;通過主幀和副幀選擇不同的幀間參考幀和副幀做幀間預測時引入視差偏移,在參考幀的搜索窗內獲得最佳匹配點,充分利用視頻中視點間存在的相關性,這樣得到最小率失真值rdcost,從而達到殘差小、碼率小和節(jié)省帶寬的技術效果。

附圖說明

圖1為本發(fā)明基于h265引入視差補償的立體視頻編碼方法的流程框圖。

圖2為本發(fā)明中雙視角情形時幀交替的示意圖。

圖3為本發(fā)明中參考幀選擇的示意圖。

圖4為h.265中幀間編碼示意圖。

圖5為采用視差偏移的幀間編碼示意圖。

圖6為本發(fā)明中引入視差編碼的流程圖。

圖7是平行式雙視角視覺模型。

圖8為幀間搜索運動矢量的示意圖。

圖9為lcu的視差搜索范圍。

圖10為根據視差d調整搜索窗的示意圖。

圖11為全搜索計算示意圖。

如下具體實施例將結合上述附圖進一步說明本發(fā)明。

具體實施方式

以下將結合附圖對本發(fā)明提供的基于h265引入視差補償的立體視頻編碼方法作進一步說明。

參見圖1,所示為本發(fā)明一種基于h265引入視差補償的立體視頻編碼方法的流程框圖,包括以下步驟:

步驟s1:將多個視角獲取的多路圖像序列進行幀交替形成混合序列,任選定一路圖像序列作為主序列,其余路為副序列;參見圖2,所示為本發(fā)明中雙視角情形時幀交替的示意圖,將左視角序列(l序列)和右視角序列(r序列)經過幀交替方式形成新的圖像序列(lr序列)。l序列里的幀定為偶數幀,r序列里的幀定為奇數幀,第0幀只做幀內預測。

步驟s2:主序列中的任一主幀參考該主序列的前一主幀作為參考,主幀按h.265標準進行編碼;

步驟s3:副序列中的任一副幀參考前一幀,副幀引入其與前一幀的視差后再進行編碼;

參見圖3,所示為本發(fā)明中參考幀選擇的示意圖,偶數幀(2n幀)的幀間參考幀是前一偶數幀(2(n-1)幀)的重建幀;奇數幀(2n+1幀)的幀間參考幀是前一幀(2n幀)的重建幀。偶數幀編碼參照h.265中幀間編碼方式,參見圖4,所示為h.265中幀間編碼示意圖,其中fn為主幀,f’n-1為前一主幀的重建幀。參見圖5,奇數幀編碼采用視差偏移的幀間編碼方式,即對奇數幀做幀間預測時,引入和前一幀的視差,如圖5所示,其中f’n-1為前一幀的重建幀。

其中,步驟s3中,副幀引入其與前一幀的視差后再進行編碼的過程如下,參見圖6,所示為引入視差編碼的流程圖,進一步包括以下步驟:

步驟s31:先根據視角位置關系計算視差d;通常當多個圖像采集裝置安裝后,其位置關系決定了視角位置關系,因此,視角位置模型是可以預先獲取的。圖7是以平行式雙視角視覺模型為例計算視差。

步驟s32:再根據視差d調整搜索窗,并在該搜索窗范圍內計算獲得運動矢量;具體的,計算視差后,再根據視差d做偏移,如圖8所示為幀間搜索運動矢量的示意圖,在偏移后的位置整數搜索計算獲得運動矢量mv0,將mv0疊加視差d即是最終的運動矢量mv。計算運動矢量前根據視差做偏移的目的是在匹配幀的匹配點處搜索最匹配點,這樣得到最小率失真值rdcost,最終得到的殘差小,碼率小,節(jié)省帶寬。

步驟s33:最后根據運動矢量完成編碼。

在一種優(yōu)選實施方式,采用視差偏移的幀間編碼時,假設需要編碼單元lcu(largecodingunit),大小為64x64,以lcu的左上點為原點(0,0),水平方向上±48像素范圍內計算當前l(fā)cu的視差d,圖9是lcu的視差搜索范圍。參見圖10,所示為根據視差d調整搜索窗的示意圖,計算lcu中單個預測單元pu(predictionunit)的運動矢量mv前,先將搜索窗根據視差d做偏移,再將搜索窗的大小由(±48,±32)調整為(±(48-d),±32),在新的搜索窗范圍內做整數全搜索計算獲得當前pu(predictionunit)的運動矢量mv0,將mv0結合視差d即是對應pu最終的運動矢量mv。在全搜索計算前,先對搜索窗進行視差偏移可以達到縮小匹配區(qū)域的目的,在根據視差做偏移后的搜索窗范圍內做全搜索更容易找到匹配塊。其中,搜索窗內做整數全搜索使用現有技術采用的對應像素點的絕對差之和(sad)或其他方法判斷相關性。

參見圖11,所示為全搜索計算示意圖。圖中陰影部分為需要編碼單元lcu(largecodingunit),大小為64x64;搜索窗大小為(±48,±32),以lcu左上點為原點(0,0),每個像素點做sad運算,計算時間復雜度為o(96*64)。視差偏移后,縮小了搜索范圍,搜索窗大小設為(±(48-d),±32),從而減小了計算復雜度。

當然,本發(fā)明技術方案用于立體視頻編碼時,可以為雙目立體視頻編碼或多視點立體視頻編碼。

在一種優(yōu)選實施方式中,本發(fā)明應用于三視點立體視頻編碼方法。將三路視角的第一路視角產生的序列定位主序列,主序列里的幀定為主幀,將第二路視角產生的序列定為副序列1,副序列1的幀定為副幀1,第三路視角產生的序列定為副序列2,副序列2的幀定為副幀2。

將主序列和副序列1、副序列2經過幀交替方式形成新的圖像序列(混合序列),第0幀是i幀,只做幀內預測,主幀的幀間參考幀是前一主幀,參照h.265中幀間編碼方式,副幀1的幀間參考幀是前一幀即主幀,副幀2的幀間參考幀也是前一幀即副幀1,都采用視差偏移的幀間編碼。

對副幀1和副幀2做幀間預測時,引入和前一幀的視差d,先計算當前幀中某一需要編碼的單元lcu(largecodingunit)的視差d,在當前l(fā)cu的原點處±48像素范圍內搜索計算獲得,計算lcu中單個預測單元pu(predictionunit)的運動矢量mv之前,先將搜索窗根據視差d在水平方向上做偏移,并將搜索窗大小由(±48,±32)調整為(±(48-d),±32),在新的搜索窗范圍內做整數全搜索計算獲得運動矢量mv0,結合視差d即是最終需要的運動矢量mv。計算運動矢量mv之前根據視差d對搜索窗做偏移的目的是在偏移后的位置做整數全搜索時,更容易找到匹配塊,視差偏移后,縮小了搜索范圍,達到縮小匹配區(qū)域的目的,從而減小了計算復雜度。最終得到的碼率小,節(jié)省帶寬。

以上實施例的說明只是用于幫助理解本發(fā)明的方法及其核心思想。應當指出,對于本技術領域的普通技術人員來說,在不脫離本發(fā)明原理的前提下,還可以對本發(fā)明進行若干改進和修飾,這些改進和修飾也落入本發(fā)明權利要求的保護范圍內。

對所公開的實施例的上述說明,使本領域專業(yè)技術人員能夠實現或使用本發(fā)明。對這些實施例的多種修改對本領域的專業(yè)技術人員來說將是顯而易見的,本文中所定義的一般原理可以在不脫離本發(fā)明的精神或范圍的情況下,在其它實施例中實現。因此,本發(fā)明將不會被限制于本文所示的這些實施例,而是要符合與本文所公開的原理和新穎特點相一致的最寬的范圍。

當前第1頁1 2 
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
麻城市| 泽普县| 崇义县| 渭南市| 句容市| 邛崃市| 清水河县| 伊春市| 津市市| 沐川县| 民乐县| 三原县| 伊宁市| 仁寿县| 武宁县| 营口市| 深州市| 五指山市| 庆元县| 武强县| 西青区| 宝清县| 禹州市| 德清县| 公主岭市| 海林市| 马尔康县| 皋兰县| 芒康县| 裕民县| 修武县| 绿春县| 临武县| 车致| 肥城市| 内丘县| 瑞丽市| 重庆市| 攀枝花市| 石狮市| 汾西县|