專利名稱:深度圖編碼方法及裝置的制作方法
技術領域:
本發(fā)明涉及視頻編碼技術領域,特別涉及一種深度圖編碼方法和裝置。
背景技術:
在立體視頻以及自由視點視頻系統中,由多視點視頻和多視點深度圖構成的數據格式獲得了廣泛的應用。其中,深度是指視頻幀中每個像素點對應到三維空間中的點到相機平面的距離。在立體視頻中,為了通過虛擬視點繪制獲得用戶期望觀看的視點所對應的視頻信息,我們需要獲得每一個視頻幀所對應的深度圖。因此,立體視頻序列通常包含多路彩色視頻信息以及每一路彩色視頻所對應的深度圖序列。由于深度圖中每個像素點的深度信息為0-255之間的一個整數值,因此深度圖可以被看作是一系列灰度圖像所組成的視頻序列。為了有效的存儲和傳輸海量的立體視頻數據,立體視頻系統通常采用多視點視頻編碼方法對多視點視頻和深度圖序列分別進行壓縮。通過視點內和視間預測編碼,多視點視·頻編碼方法能夠有效地壓縮多路深度圖之間的冗余。傳統的多視點視頻編碼方法是基于H. 264/MPEG-4編碼標準上的一種多視點視頻編碼拓展方案。在傳統的多視點視頻編碼中,編碼器以宏塊為單元對每一幀圖像進行編碼。每一個16X 16大小的宏塊又可以被進一步被劃分成16X8、8X16和8X8子塊以及8X4、4X8和4X4的亞塊。不同的子塊和亞塊被稱為預測單元。在編碼過程中,編碼器對每一個預測單元進行運動估計,獲得運動補償預測的率失真代價。然后進行基于率失真優(yōu)化的模式選擇,獲得每個塊最優(yōu)的編碼模式和預測殘差,并對殘差進行變換編碼。實驗證明,傳統的多視點視頻編碼能夠在深度圖上獲得較好的壓縮性能。區(qū)別于傳統的彩色視頻,深度圖僅包含每個像素點的距離信息,不包含任何視頻紋理信息。因此,深度圖中處于物體內部的編碼宏塊僅包含均一的深度紋理,處在物體邊緣的編碼宏塊則包含兩個或多個不連續(xù)的深度區(qū)域。傳統的宏塊劃分無法有效地表示物體邊緣。尤其是在低編碼碼率的條件下,通過劃分得到的子塊和亞塊模式較少被選用。然而,采用傳統的多視點視頻編碼方法對深度圖編碼時,編碼器仍然需要對所有的宏塊模式進行運動估計和模式決策。該過程需要消耗大量的計算資源,增大了編碼端的復雜度。為了獲得較高的深度圖壓縮效率,需要針對深度圖的特點設計更加高效的編碼方法。為此,本發(fā)明針對深度圖僅包含物體輪廓信息這一特征,提出一種基于幾何劃分的深度圖編碼方法。通過對包含不連續(xù)運動場的深度宏塊進行自適應幾何劃分,獲得了較好的預測結果。從而提高深度圖編碼的效率,同時降低深度圖編碼的復雜度。目前可以查到的與本發(fā)明比較相關的專利有四項,分別公開了一種應用于3DTV與FTV系統的深度圖編碼壓縮方法,一種立體電視系統中深度圖像編碼方法,一種立體電視系統中深度圖像的編碼方法和一種多視點深度視頻的編碼方法,申請?zhí)柗謩e為200810063741. 9,200810161597. 2,200810120082. 8 和 200910154138. 6。盡管所提及的四個專利均涉及立體視頻中深度圖的編碼方法,但是第一、第二以及第三項專利均分別僅提出了一種對不同區(qū)域的深度宏塊采用不同的量化參數的編碼方案。區(qū)別在于這三個方案設計了不同的深度宏塊分類方法;第四項專利則對不同的區(qū)域的深度宏塊的編碼模式進行了限定,對于物體邊緣區(qū)域的深度宏塊設定較多的編碼模式,而對非物體邊緣區(qū)域的深度宏塊設定較少的編碼模式。然而該發(fā)明中所有的編碼模式對應的預測單元仍然是基于傳統的H. 264/MPEG-4 AVC編碼標準中所規(guī)定的劃分方法獲得。因此,所提及的四個專利均未涉及基于幾何劃分的深度圖編碼方法。
發(fā)明內容
本發(fā)明旨在至少解決上述技術問題之一。為此,本發(fā)明的一個目的在于提出一種能夠提高深度圖壓縮效率且降低深度圖的編碼復雜度的深度圖編碼方法。本發(fā)明的另一目的在于提出一種深度圖編碼裝置。為了實現上述目的,本發(fā)明第一方面的實施例提出了一種深度圖編碼方法,包括·以下步驟建立多個劃分線并組成劃分集合,其中,多個劃分線用于對深度宏塊進行楔形劃分;以幀內編碼模式對深度宏塊進行編碼以獲取對應的第一率失真代價值;判斷是否以幀間編碼模式對所述深度宏塊進行編碼,如果是則以幀間編碼模式對所述深度宏塊進行編碼以獲取對應的第二率失真代價值;繼續(xù)判斷所述深度宏塊是否包含不連續(xù)的運動向量場,如果所述深度宏塊進行幀間編碼且包含不連續(xù)的運動向量場,則以幾何劃分編碼模式對所述深度宏塊進行編碼,其中,所述幾何劃分編碼模式進一步包括根據所述深度宏塊的所有像素點的亮度信息從所述劃分集合中選擇最優(yōu)劃分線對所述深度宏塊進行劃分以得到第一和第二深度子區(qū)域,且分別對所述第一和第二深度子區(qū)域進行運動估計和預測編碼以獲取對應的第三率失真代價值;以及比較不同編碼模式下深度宏塊的率失真代價值,以根據比較結果選擇率失真代價最小的編碼模式對所述深度宏塊進行編碼。另外,根據本發(fā)明上述實施例的深度圖編碼方法還可以具有如下附加的技術特征在一些示例中,所述劃分集合為G= { ^ (Pi, 0 D I i = 1,2,…,L},其中,€ (P i,e D為所述劃分線集合中的第i條劃分線,P i為深度宏塊至該劃分線的距離,e i為該劃分線與第一方向的夾角,L為劃分線的個數。在一些示例中,所述深度宏塊至多個劃分線的距離均位于
為了對本發(fā)明實施例的編碼方式進行驗證,在本發(fā)明的下述示例中,立體視頻編碼的測試序列采用標清格式的名字為“Book Arrival”的標準測試序列,該標清格式視頻序列的分辨率為1024X768,該測試序列包含16個視點的視頻和對應的深度圖。在本發(fā)明的以下示例中,均以該測試序列中的深度圖進行測試,采用該序列的第8個視點的深度圖序列作為測試序列。該序列包含100幀深度圖。如圖4所示,編解碼器采用H. 264/MPEG-4MVC標準參考軟件JMVC 6. 0 ;編碼器GOP (Group of Pictures,圖像組)的幀數為8 ;編碼的時域預測編碼采用Hierarchical B Picture (層次化雙向預測編碼巾貞,簡稱層次化B中貞)的預測結構,編碼預測結構圖如圖5所示。每個編碼的深度宏塊的大小為16X16。運動估計的精度為四分之一像素精度。其他編碼參數均采用與J1.264/MPEG-4 AVC標準中主檔次(Main Profile)中規(guī)定的參數設置。以下結合附圖首先描述根據本發(fā)明實施例的深度圖編碼方法。參考
圖1,根據本發(fā)明實施例的深度圖編碼方法,包括如下步驟步驟S101,建立多個劃分線并組成劃分集合,其中,多個劃分線用于對深度宏塊進行楔形劃分。在本發(fā)明的一個實施例中,劃分集合為=GHKPi, Qi) Ii = 1,2,…,L},其中,€ (P ” 9 i)為劃分線集合中的第i條劃分線,P i為深度宏塊至該劃分線的距離,0 i為該劃分線與第一方向的夾角,L為劃分線的個數。如圖2所示,定義楔形幾何劃分的多個劃分線組成的劃分集合。定義劃分線為一
條直線(如圖2所示的劃分線),該直線通過到深度宏塊中心點的距離P和該直線與y軸,
即第一方向的夾角9來表示。在該實施例中,多個劃分線的距離均位于
具體地,根據H. 264/MPEG-4 AVC編碼標準中的幀內編碼模式對深度宏塊進行幀內編碼,并將對應的最優(yōu)率失真代價作為第一率失真代價值。更為具體地,編碼采用與傳統
H.264/MPEG-4 AVC編碼標準中定義的幀內編碼模式相同的方法對該深度宏塊,記為Bk進行幀內預測編碼。在本實施例中,當前深度宏塊在幀內預測編碼模式下最優(yōu)率失真代價為h =5741即第一率失真代價值力JT =5741。步驟S103,判斷是否以幀間編碼模式對深度宏塊進行編碼,如果是則以幀間編碼模式對深度宏塊進行編碼以獲取對應的第二率失真代價值。具體地,根據H. 264/MPEG-4 AVC編碼標準中的幀間編碼模式對所述深度宏塊進行幀間模式編碼,并將對應的最優(yōu)率失真代價作為所述第二率失真代價值。在該實例中,上述幀間編碼模式為傳統的幀間編碼模式。步驟S104,繼續(xù)判斷深度宏塊是否包含不連續(xù)的運動向量場,如果深度宏塊進行幀間編碼且包含不連續(xù)的運動向量場,則以幾何劃分編碼模式對深度宏塊進行編碼,其中,·幾何劃分編碼模式進一步包括根據深度宏塊的所有像素點的亮度信息從劃分集合中選擇最優(yōu)劃分線對深度宏塊進行劃分以得到第一和第二深度子區(qū)域,且分別對第一和第二深度子區(qū)域進行運動估計和預測編碼以獲取對應的第三率失真代價值。具體地,在一些示例中,判斷是否以幾何劃分模式對深度宏塊進行編碼,即判斷深度宏塊是否包含不連續(xù)的運動向量場的步驟包括I、獲取深度宏塊中所有像素點的亮度值。例如當前編碼的深度宏塊Bk的全部像素點集合為| = I,2,3,…,,其中N代表該深度宏塊中像素點的個數,在本實施例中,N=256。假設該深度宏塊Bk為當前幀的第529個深度宏塊。設Bk的全部像素點的亮度值為
I = I, 2, 3,…,W,其中,的數值如下述矩陣所示
-38303838383830383838303838383838 -
3838383838383B383838383838383838
383838383838383838383B3838383838
38383838383838383838383838383838
38383838383838383838383838383838
383838383838383838383838383838IOB
3838383838383838383838383838108108
「 _! 30383838383838383838383838108103108
L 5 J 3838383S3838383838383838105108108100 ^
383838383838383838383838105105108108
3838383838383838303838105105105105105
38383838383838383838105 105105105105105
3838383838383838105105 105 105105105105105
38383838383838108105105 105 105105105105105
38383838383838108105105 105 108105105105105
^383838383838108108105105 105 105105105105105-2、計算深度宏塊中所有像素點的亮度值的方差。通過計算可以知道,該深度宏塊Bk的所有像素點的亮度值的方差為838。3、比較方差和預設閾值的大小,如果方差大于預設閾值,則判斷深度宏塊包含不連續(xù)的運動向量場。例如,該預設閾值為Ts=IOO,則Bk所有像素點的亮度值的方差大于Ts,因此判斷深度宏塊包含不連續(xù)的運動向量場。根據深度宏塊的所有像素點的亮度信息從劃分集合中選擇最優(yōu)劃分線對所述深度宏塊進行劃分以得到第一和第二深度子區(qū)域的步驟進一步包括I、分別以劃分集合中的每一條劃分線對深度宏塊進行劃分,并分別計算劃分所得的兩部分中各自的所有像素點的平均亮度值以得到對應的第一部分和第二部分平均亮度值。例如,編碼器通過遍歷集合G中的每一條劃分線來搜索Bk所對應的最優(yōu)劃分線。在遍歷過程中,對每一條劃分線I (P1, Qi),將Bk劃分成兩部分。計算兩個部分中各自所有像素點的平均亮度值,例如當參數P和參數9的取值均為0時,此時劃分線為位于宏塊Bk中心的垂直線段。該劃分線將宏塊Bk分成左右大小相等的兩部分,PYpci, 00)和P2(p0,00)。此時,區(qū)域PHpci, 9 0)中所有像素點的平均亮度值為40. 2 ;區(qū)域P2 (Ptl, 0 0)中所有像素點的平均亮度值為68. I。2、分別對每一條劃分線對應的第一部分和第二部分的平均亮度值做差得到差值。根據步驟I中的示例,P1(Pt), 90)和P2(Po,00)之間的平均亮度值做差結果為d=40. 2-68. 1=-27. 93、獲取使差值的絕對值最大的劃分線作為所述最優(yōu)劃分線,以對所述深度宏塊進行劃分以得到第一和第二深度子區(qū)域。根據步驟2中的示例,差值的絕對值為Ad= I 40. 2-68. 11=27. 9。同理,對劃分線集合G中的所有劃分線均以步驟1-3的方式求取其劃分后對應的深度劃分差,將獲得最大深度劃分差的劃分線作為所述當前宏塊最優(yōu)的劃分線,最優(yōu)劃分線記為I ( P opt, 0 opt) O在本實施例中,對于深度宏塊Bk的最大深度劃分差為Admax=65.6。
其對應的最優(yōu)劃分線I (P°pt, Qopt)的參數取值分別為p-=4,^根據上述的示例,分別對第一和第二深度子區(qū)域進行運動估計以獲取對應的第三率失真代價值,具體為對Bk采用最優(yōu)的劃分線I (Popt, e °pt)劃分成第一和第二深度子區(qū)域,記為pHp-,eopt)和P2(P°pt,0°pt)。然后對第一和第二深度子區(qū)域分別進行運動估計,并計算其對應的率失真代價,在該示例中,Bk在幾何劃分編碼模式下的第三率失真代價為Jf£° =1438 步驟S105,比較不同編碼模式下深度宏塊的率失真代價值,以根據比較結果選擇率失真代價最小的編碼模式對深度宏塊進行編碼。具體而言,包括如下步驟I、如果判斷不對深度宏塊進行幀間編碼,則僅對深度宏塊進行幀內編碼。2、如果判斷深度宏塊進行幀間編碼且沒有包含不連續(xù)的運動向量場,則根據第一和第二率失真代價值的比較結果選擇較小的率失真代價值對應的幀間編碼模式或者幀內編碼模式對深度宏塊進行編碼。3、如果判斷深度宏塊進行幀間編碼且包含不連續(xù)的運動向量場,則根據第一至第三率失真代價值的比較結果選擇最小的率失真代價值對應的幀間編碼模式、幀內編碼模式或者幾何劃分編碼模式對深度宏塊進行編碼。 作為一個具體的示例,以上述的Bk為例對Bk進行基于率失真優(yōu)化的模式選擇。在本實施例中,由于編碼器對Bk進行了幾何劃分模式的預測,因此需要在幾何劃分編碼模式,幀間編碼模式、幀內編碼模式這三種模式中選擇率失真代價最小的模式作為Bk的最優(yōu)編碼模式。對于Bk,最小的率失真代價為=Hiin(JffVfteVftra) = JTj =1438。
因此,Bk的最優(yōu)編碼模式為幾何劃分編碼模式。則該Bk采用幾何劃分編碼模式進行編碼。參見圖3,作為一個具體的例子,本發(fā)明實施例的深度圖編碼方法可按照如下步驟進行步驟S110,設置幾何劃分模式中的劃分線集合。步驟S120,開始編碼當前宏塊Bk。步驟S130,判斷Bk是否為幀內編碼宏塊,如果是則轉至步驟S140,否則轉至步驟S220。步驟S140,對Bk進行幀內預測編碼并計算該模式下的率失真代價,并轉入步驟S150。步驟S150,判斷Bk是否進行幀間模式編碼,如果是則轉至步驟S160,否則轉至步驟 S200。步驟S160,對Bk采用傳統幀間預測模式進行編碼并計算該模式下的率失真代價,并轉入步驟S170?!げ襟ES170,判斷Bk是否包含不連續(xù)運動場。如果是則轉至步驟S180,否則轉至步驟 S200。步驟S180,根據Bk中每個像素的亮度信息搜索對應的最優(yōu)劃分線。步驟S190,對最優(yōu)劃分線所劃分成的兩個部分進行運動估計和編碼,并計算其對應的率失真代價。步驟S200,選取率失真代價最小的模式作為Bk的最優(yōu)編碼模式。步驟S210,采用最優(yōu)模式編碼Bk。步驟S220,判斷Bk是否為當前幀的最后一個宏塊。如果是則編碼結束,否則轉至步驟S120中以便對下一個深度宏塊進行編碼。參考圖6,本發(fā)明進一步實施例提出了一種深度圖編碼裝置600,包括劃分線建立模塊610、幀內編碼模塊620、幀間編碼判斷模塊630、幀間編碼模塊640,幾何劃分判斷模塊650、幾何劃分編碼模塊660和編碼模式選擇模塊670。其中劃分線建立模塊610用于建立多個劃分線并組成劃分集合,其中,多個劃分線用于對深度宏塊進行楔形劃分。幀內編碼模塊620用于以幀內編碼模式對深度宏塊進行編碼以獲取對應的第一率失真代價值。幀間編碼判斷模塊630用于判斷是否以幀間編碼模式對所述深度宏塊進行編碼。幀間編碼模塊640用于在幀間編碼判斷模塊630判斷以幀間編碼模式對深度宏塊進行編碼時以幀間編碼模式對深度宏塊進行編碼以獲取對應的第二率失真代價值。幾何劃分判斷模塊650用于判斷深度宏塊是否包含不連續(xù)的運動向量場。幾何劃分編碼模塊660用于在幾何劃分判斷模塊650判斷深度宏塊包含不連續(xù)的運動向量場時,以幾何劃分編碼模式對深度宏塊進行編碼,其中,幾何劃分編碼模式包括根據深度宏塊的所有像素點的亮度信息從所述劃分集合中選擇最優(yōu)劃分線對深度宏塊進行劃分以得到第一和第二深度子區(qū)域,且分別對第一和第二深度子區(qū)域進行運動估計和預測編碼以獲取對應的第三率失真代價值。編碼模式選擇模塊670用于比較深度宏塊在不同編碼模式下的率失真代價值,以根據比較結果選擇率失真代價最小的編碼模式以便對所述深度宏塊進行編碼。
在一些示例中,劃分集合為G= { ^ (Pi, 0 D I i = 1,2,…,L},其中,€ (P i,e i)為所述劃分線集合中的第i條劃分線,P i為深度宏塊至該劃分線的距離,e i為該劃分線與第一方向的夾角,L為劃分線的個數。在一些示例中,深度宏塊至多個劃分線的距離均位于[0,8)之間,多個劃分線與第一方向的夾角均位于[0,2ji)之間。在一些示例中,幾何劃分判斷模塊650用于獲取深度宏塊中所有像素點的亮度值,并計算深度宏塊中所有像素點的亮度值的方差,并比較方差和預設閾值的大小,如果方差大于所述預設閾值,則判斷深度宏塊包含不連續(xù)的運動向量場。進一步地,幾何劃分編碼模塊660用于分別以所述劃分集合中的每一條劃分線對所述深度宏塊進行劃分,并分別計算劃分所得的兩部分中各自的所有像素點的平均亮度值·以得到對應的第一部分和第二部分的平均亮度值,分別對每一條劃分線對應的第一部分和第二部分的平均亮度值做差得到差值,并獲取使差值的絕對值最大的劃分線作為所述最優(yōu)劃分線,以對所述深度宏塊進行劃分以得到第一和第二深度子區(qū)域。在一些示例中,幀內編碼模塊620用于根據H. 264/MPEG-4 AVC編碼標準中的幀內編碼模式對所述深度宏塊進行幀內編碼,并將對應的最優(yōu)率失真代價作為所述第一率失真代價值。 在一些示例中,幀間編碼模塊640用于根據H. 264/MPEG-4 AVC編碼標準中的幀間編碼模式對所述深度宏塊進行幀間編碼,并將對應的最優(yōu)率失真代價作為所述第二率失真代價值。在一些示例中,編碼模式選擇模塊670用于在不對所述深度宏塊進行幀間編碼時,僅選擇幀內編碼模式,在所述深度宏塊進行幀間編碼且沒有包含不連續(xù)的運動向量場時,根據第一和第二率失真代價值的比較結果選擇較小的率失真代價值對應的幀間編碼模式或者幀內編碼模式,在所述深度宏塊進行幀間編碼且包含不連續(xù)的運動向量場時,根據第一至第三率失真代價值的比較結果選擇最小的率失真代價值對應的幀間編碼模式、幀內編碼模式或者幾何劃分編碼模式以便對所述深度宏塊進行編碼。根據本發(fā)明實施例的深度圖編碼方法及裝置,通過設計基于幾何劃分的深度圖編碼方法,根據合理的方式從幀間編碼模式、幀內編碼模式或者幾何劃分編碼模式選擇最佳的編碼模式對深度宏塊進行編碼,由此,不但提高了深度圖壓縮效率、減少壓縮時間,也降低深度圖編碼的復雜度,實現對深度圖的高效編碼。在本說明書的描述中,參考術語“一個實施例”、“一些實施例”、“示例”、“具體示例”、或“一些示例”等的描述意指結合該實施例或示例描述的具體特征、結構、材料或者特點包含于本發(fā)明的至少一個實施例或示例中。在本說明書中,對上述術語的示意性表述不一定指的是相同的實施例或示例。而且,描述的具體特征、結構、材料或者特點可以在任何的一個或多個實施例或示例中以合適的方式結合。盡管已經示出和描述了本發(fā)明的實施例,本領域的普通技術人員可以理解在不脫離本發(fā)明的原理和宗旨的情況下可以對這些實施例進行多種變化、修改、替換和變型,本發(fā)明的范圍由權利要求及其等同限定。
權利要求
1.一種深度圖編碼方法,其特征在于,包括以下步驟 建立多個劃分線并組成劃分集合,其中,多個劃分線用于對深度宏塊進行楔形劃分; 以幀內編碼模式對深度宏塊進行編碼以獲取對應的第一率失真代價值; 判斷是否以幀間編碼模式對所述深度宏塊進行編碼,如果是則以幀間編碼模式對所述深度宏塊進行編碼以獲取對應的第二率失真代價值; 繼續(xù)判斷所述深度宏塊是否包含不連續(xù)的運動向量場,如果所述深度宏塊包含不連續(xù)的運動向量場且進行幀間編碼,則以幾何劃分編碼模式對所述深度宏塊進行編碼,其中,所述幾何劃分編碼模式進一步包括根據所述深度宏塊的所有像素點的亮度信息從所述劃分集合中選擇最優(yōu)劃分線對所述深度宏塊進行劃分以得到第一和第二深度子區(qū)域,且分別對所述第一和第二深度子區(qū)域進行運動估計和預測編碼以獲取對應的第三率失真代價值;以及 比較不同編碼模式下深度宏塊的率失真代價值,以根據比較結果選擇率失真代價最小的編碼模式對所述深度宏塊進行編碼。
2.根據權利要求I所述的深度圖編碼方法,其特征在于,所述劃分集合為G= {I (p i, 0 汐 I i = 1,2,…,L}, 其中,I (P ” 0 J為所述劃分線集合中的第i條劃分線,P i為深度宏塊至該劃分線的距離,0 i為該劃分線與第一方向的夾角,L為劃分線的個數。
3.根據權利要求2所述的深度圖編碼方法,其特征在于,所述深度宏塊至多個劃分線的距離均位于[O,8)之間,多個劃分線與第一方向的夾角均位于[O,2 JI)之間。
4.根據權利要求I所述的深度圖編碼方法,其特征在于,所述判斷深度宏塊是否包含不連續(xù)的運動向量場的步驟進一步包括 獲取所述深度宏塊中所有像素點的亮度值; 計算所述深度宏塊中所有像素點的亮度值的方差;以及 比較所述方差和預設閾值的大小,如果所述方差大于所述預設閾值,則判斷所述深度宏塊包含不連續(xù)的運動向量場。
5.根據權利要求I所述的深度圖編碼方法,其特征在于,根據所述深度宏塊的所有像素點的亮度信息,從所述劃分集合中選擇最優(yōu)劃分線對所述深度宏塊進行劃分以得到第一和第二深度子區(qū)域的步驟進一步包括 分別以所述劃分集合中的每一條劃分線對所述深度宏塊進行劃分,并分別計算劃分所得的兩部分中各自的所有像素點的平均亮度值以得到對應的第一部分和第二部分的平均亮度值; 分別對每一條劃分線對應的第一部分和第二部分平均亮度值做差得到差值;以及獲取使差值的絕對值最大的劃分線作為所述最優(yōu)劃分線,以對所述深度宏塊進行劃分以得到第一和第二深度子區(qū)域。
6.根據權利要求I所述的深度圖編碼方法,其特征在于,所述以幀內編碼模式對深度宏塊進行編碼以獲取對應的第一率失真代價值的步驟包括 根據H. 264/MPEG-4 AVC編碼標準中的幀內編碼模式對所述深度宏塊進行幀內編碼,并將對應的最優(yōu)率失真代價作為所述第一率失真代價值; 所述以幀間編碼模式對深度宏塊進行編碼以獲取對應的第二率失真代價值的步驟包括 根據H. 264/MPEG-4 AVC編碼標準中的幀間編碼模式對所述深度宏塊進行幀間模式編碼,并將對應的最優(yōu)率失真代價作為所述第二率失真代價值。
7.根據權利要求I所述的深度圖編碼方法,其特征在于,所述比較不同編碼模式下深度宏塊的率失真代價值,以根據比較結果選擇率失真代價最小的編碼模式對所述深度宏塊進行編碼的步驟包括 如果判斷不對所述深度宏塊進行幀間編碼,則僅對所述深度宏塊進行幀內編碼;如果判斷所述深度宏塊進行幀間編碼且沒有包含不連續(xù)的運動向量場,則根據第一和第二率失真代價值的比較結果選擇較小的率失真代價值對應的幀間編碼模式或者幀內編碼模式對所述深度宏塊進行編碼;以及 如果判斷所述深度宏塊進行幀間編碼且包含不連續(xù)的運動向量場,則根據第一至第三率失真代價值的比較結果選擇最小的率失真代價值對應的幀間編碼模式、幀內編碼模式或者幾何劃分編碼模式對所述深度宏塊進行編碼。
8.一種深度圖編碼裝置,其特征在于,包括 劃分線建立模塊,用于建立多個劃分線并組成劃分集合,其中,多個劃分線用于對深度宏塊進行楔形劃分; 幀內編碼模塊,用于以幀內編碼模式對深度宏塊進行編碼以獲取對應的第一率失真代價值; 幀間編碼判斷模塊,用于判斷是否以幀間編碼模式對所述深度宏塊進行編碼; 幀間編碼模塊,用于在所述幀間編碼判斷模塊判斷以幀間編碼模式對所述深度宏塊進行編碼時以幀間編碼模式對深度宏塊進行編碼以獲取對應的第二率失真代價值; 幾何劃分判斷模塊,用于判斷所述深度宏塊是否包含不連續(xù)的運動向量場; 幾何劃分編碼模塊,用于在所述幾何劃分判斷模塊判斷所述深度宏塊進行幀間編碼且包含不連續(xù)的運動向量場時,以幾何劃分編碼模式對所述深度宏塊進行編碼,其中,所述幾何劃分編碼模式包括根據所述深度宏塊的所有像素點的亮度信息從所述劃分集合中選擇最優(yōu)劃分線對所述深度宏塊進行劃分以得到第一和第二深度子區(qū)域,且分別對所述第一和第二深度子區(qū)域進行運動估計和預測編碼以獲取對應的第三率失真代價值;以及 編碼模式選擇模塊,用于比較所述深度宏塊在不同編碼模式下的率失真代價值,以根據比較結果選擇率失真代價最小的編碼模式以便對所述深度宏塊進行編碼。
9.根據權利要求8所述的深度圖編碼裝置,其特征在于,所述劃分集合為G= {I (p i, 0 汐 I i = 1,2,…,L}, 其中,I (P ” 0 J為所述劃分線集合中的第i條劃分線,P i為深度宏塊至該劃分線的距離,0 i為該劃分線與第一方向的夾角,L為劃分線的個數。
10.根據權利要求9所述的深度圖編碼裝置,其特征在于,所述深度宏塊至多個劃分線的距離均位于[0,8)之間,多個劃分線與第一方向的夾角均位于[0,2ji)之間。
11.根據權利要求8所述的深度圖編碼裝置,其特征在于,所述幾何劃分判斷模塊用于獲取所述深度宏塊中所有像素點的亮度值,并計算所述深度宏塊中所有像素點的亮度值的方差,并比較所述方差和預設閾值的大小,如果所述方差大于所述預設閾值,則判斷所述深度宏塊包含不連續(xù)的運動向量場。
12.根據權利要求8所述的深度圖編碼裝置,其特征在于,所述幾何劃分編碼模塊用于分別以所述劃分集合中的每一條劃分線對所述深度宏塊進行劃分,并分別計算劃分所得的兩部分中各自的所有像素點的平均亮度值以得到對應的第一部分和第二部分的平均亮度值,分別對每一條劃分線對應的第一部分和第二部分的平均亮度值做差得到差值,并獲取使差值的絕對值最大的劃分線作為所述最優(yōu)劃分線,以對所述深度宏塊進行劃分以得到第一和第二深度子區(qū)域。
13.根據權利要求8所述的深度圖編碼裝置,其特征在于, 所述幀內編碼模塊用于根據H264/MPEG-4 AVC編碼標準中的幀內編碼模式對所述深度宏塊進行幀內編碼,并將對應的最優(yōu)率失真代價作為所述第一率失真代價值; 所述幀間編碼模塊用于根據H264/MPEG-4 AVC編碼標準中的幀間編碼模式對所述深度宏塊進行幀間模式編碼,并將對應的最優(yōu)率失真代價作為所述第二率失真代價值。
14.根據權利要求8所述的深度圖編碼裝置,其特征在于,所述編碼模式選擇模塊用于在不對所述深度宏塊進行幀間編碼時,僅選擇幀內編碼模式,在所述深度宏塊進行幀間編碼且沒有包含不連續(xù)的運動向量場時,根據第一和第二率失真代價值的比較結果選擇較小的率失真代價值對應的幀間編碼模式或者幀內編碼模式對所述深度宏塊進行編碼,在所述深度宏塊進行幀間編碼且包含不連續(xù)的運動向量場時,根據第一至第三率失真代價值的比較結果選擇最小的率失真代價值對應的幀間編碼模式、幀內編碼模式或者幾何劃分編碼模式對所述深度宏塊進行編碼。
全文摘要
本發(fā)明提出一種深度圖編碼方法及裝置,該方法包括建立多個劃分線并組成劃分集合,多個劃分線用于對深度宏塊進行楔形劃分;以幀內編碼模式對深度宏塊進行編碼得到第一率失真代價值;判斷是否以幀間編碼模式對深度宏塊進行編碼,如果是則以幀間編碼模式進行編碼得到第二率失真代價值;繼續(xù)判斷深度宏塊是否包含不連續(xù)的運動向量場,如果是則以幾何劃分編碼模式對深度宏塊進行編碼,包括選擇最優(yōu)劃分線對深度宏塊進行劃分得到第一和第二深度子區(qū)域,對兩個子區(qū)域進行預測編碼獲取第三率失真代價值;比較不同編碼模式下的率失真代價值以選擇率失真代價最小的編碼模式對進行編碼。本發(fā)明的實施例提高深度圖壓縮效率、降低編碼復雜度。
文檔編號H04N13/00GK102790892SQ20121023221
公開日2012年11月21日 申請日期2012年7月5日 優(yōu)先權日2012年7月5日
發(fā)明者季向陽, 張永兵, 戴瓊海, 汪啟扉, 王好謙 申請人:清華大學, 清華大學深圳研究生院