專利名稱:多視角視頻圖像的場景全局深度估計方法
技術(shù)領(lǐng)域:
本發(fā)明涉及視頻信號處理技術(shù),具體涉及一種匯聚相機系統(tǒng)下多視角視頻圖像的全局深 度估計方法。
技術(shù)背景多視角視頻(Multi-view video)是指不同方位的多個攝像機對同一場景拍攝得到的視 頻信號,它是立體電視(3DTV)和任意視角視頻系統(tǒng)(FVV, Free Viewpoint Video System) 等新型應用的基礎(chǔ)。利用多視角視頻和圖像合成技術(shù)可以產(chǎn)生攝像機覆蓋范圍內(nèi)的任意視角 的視頻信息,觀察者可根據(jù)自己的喜好自由地切換觀察視角,從而得到具有交互功能的高質(zhì) 量的視頻觀看體驗。由于多視角視頻數(shù)據(jù)隨攝像機數(shù)目的增加而成倍增加,所以高效壓縮編 碼多視角視頻中的海量數(shù)據(jù)已成為目前視頻處理領(lǐng)域的一個研究熱點。國際標準組織MPEG早 在2002年就開始3D音視頻(3DAV)方面的探索研究,并發(fā)展為多視角視頻編碼(MVC, Multi-view Video Coding)的研究,2006年MVC成為最新標準H. 264/AVC的擴展部分。多視角視頻壓縮編碼中,除了利用傳統(tǒng)的單視頻序列中的運動補償技術(shù)消除時間冗余外 ,還要考慮利用各視角圖像之間的相關(guān)性,從而進一步提高壓縮效率。目前,H.264中關(guān)于 利用不同視角圖像間的相關(guān)性進行編碼的提案主要分為兩類 一、基于視差補償?shù)囊晥D預測 編碼方法(DCVP, Disparity Compensated View Prediction):在編碼和解碼端分別進行 像素的視差估計,在編碼端利用視差進行視圖插值得到預測信息,對預測殘差進行編碼( IS0/IEC JTC1/SC29/WG11, Doc. JVT-T119, 2006),該方法適用于相機視角密集、視角之 間旋轉(zhuǎn)不大的情形,如平行相機系統(tǒng)。二、視圖合成預測編碼(VSP, View Synthesis Prediction):在編碼端進行塊的深度信息估計,然后進行視圖合成得到預測塊,對深度信 息和預測殘差進行編碼(IS0/IEC JTC1/SC29/WG11, Doc. JVT-T123, 2006) , i亥方法適用 于視角之間存在較大旋轉(zhuǎn)、視圖存在較大投影變形的情形,如視角稀疏的匯聚相機系統(tǒng)。2007年4月JVT最新會議提案(IS0/IEC JTC1/SC29/WG11 , Doc. JVT-W100, 2007)提出 了MVD (Multi-view video plus d印th)概念,即視頻加深度的多視角視頻編碼。由于MVD 能夠滿足先進三維視頻或任意視角視頻應用的本質(zhì)需求,能夠在解碼端生成一定范圍內(nèi)的連 續(xù)的任意視角的視圖,而不是數(shù)量有限的離散的視圖,所以視頻加深度的MVD方案已經(jīng)被 JVT采納,被確定為今后的發(fā)展方向。所以,如何從不同視角的兩幅或多幅視圖獲取場景的深度信息成為了今后多視角視頻編 碼的重要問題之一。迄今,已有很多與深度估計相關(guān)的研究和估計算法。常用的深度估計方法是,先利用基 于特征或塊匹配的方法估計兩幅圖像之間的水平視差,然后再根據(jù)深度與視差成反比的關(guān)系 計算出深度信息。但上述深度估計方法只適合平行相機系統(tǒng),應用范圍有限。如是適用于其 它相機系統(tǒng),則還需先對圖像對進行校正,處理過程復雜。而在多視角視頻的實際應用中, 攝像機系統(tǒng)通常以圓弧方式排列,形成匯聚相機系統(tǒng)。匯聚相機系統(tǒng)可以獲得場景中多個角 度的不同信息,各視圖之間存在較大的投影變形,利用未考慮塊變形的視差估計方法無法快 速有效地直接獲取深度信息。在基于視差補償?shù)腄CVP編碼方法中,JVT會議提案(ISO/IEC JTC1/SC29/WG11, Doc. JVT-T136, 2006)提出了全局視差補償?shù)母拍?,采用?000年3月公開的專利號為 US6043838的美國專利,發(fā)明名稱為"基于偏移估計的立體視頻編碼技術(shù)(View Offset Estimation for Stereoscopic Video Coding)。該方案讓一個視角圖像沿著7K平x禾口垂直y 方向移動,取使得兩個視角圖像的重疊區(qū)域的絕對差最小的x和y的值為全局視差向量。不同 視角的圖像先經(jīng)過全局視差補償后,視差向量主要分布在零附近,這減小了視差的搜索范圍 、降低了視差估計的計算量和復雜度,從而提高了編碼效率。類似地,在基于深度信息的 VSP和采用MVD格式的編碼方法中,為了減少深度信息的編碼比特開銷、提高深度搜索的速度 和效率,應該先進行場景全局深度估計和補償?shù)奶幚?ISO/IEC JTC1/SC29/WG11, Doc. JVT-W133, 2007)。另外,深度估計中搜索范圍和步長的確定對估計性能至關(guān)重要( ISO/IEC JTC1/SC29/WG11, Doc. JVT-W059, 2007),全局深度估計值可以為深度估計中的 搜索范圍和搜索步長的確定提供重要信息。因此,場景全局深度信息的估計也成為基于MVD 框架的多視角視頻編碼中的一個重要問題,但目前尚未有相關(guān)的解決方法。發(fā)明內(nèi)容本發(fā)明所要解決的技術(shù)問題是,提供一種匯聚相機系統(tǒng)下多視角視頻圖像的場景全局深 度估計方法。本發(fā)明為解決上述技術(shù)問題所采用的技術(shù)方案是,多視角視頻圖像的場景全局深度估計 方法,包括以下步驟a、 利用匯聚相機系統(tǒng)中各相機的外部參數(shù)計算匯聚點,將匯聚點的深度值作為深度初 始估計值;b、 參考深度初始估計值確定全局深度估計的深度搜索范圍與搜索步長;c、 利用相機的內(nèi)外部參數(shù)和給定的深度值,計算目標視圖的像素點通過反投影和重投 影在參考視圖中的對應像素點,并得到目標視圖在參考相機系統(tǒng)中的合成視圖;d、 在所述深度搜索范圍內(nèi)以所述搜索步長進行搜索,把使得合成視圖與參考視圖的誤 差最小的深度值作為目標視圖的場景全局深度值。本發(fā)明定義目標視圖是當前需要進行深度估計的視圖,其對應的相機為目標相機,而其 它視圖為所述的參考視圖,對應的相機為參考相機;所述的合成視圖是指目標視圖先反投影 到三維場景、再重投影到參考相機中的視圖。具體的,求解以下線性方程,得到相機系統(tǒng)匯聚點的深度值Zi :攀a:'。] + f,^
+ G 攀0—二。] + f,早0—, + f2攀0—=,0一-:] + 其中,m為匯聚相機系統(tǒng)中的相機總數(shù);Ri 。el,…,m)為目標相機坐標系相對于世 界坐標系的三維旋轉(zhuǎn)矩陣;ti 。el,…,m)為目標相機坐標系相對于世界坐標系的平移向 量。用線性最小二乘法求解方程組(5),可求得目標相機中匯聚點的深度值Zi ,以Zi作為場景深度的初始估計值。深度初始值通過一個簡單的線性方程組的求解得到,計算簡單快 速。具體的,步驟c所述合成視圖^^^e^^" -;所采用以下公式得到 ^^^emze d _ (A) = ^jw^^ze d _ I, (/,巧)=(巧 VP e A目標視圖Ii中的像素點P在給定深度Z下,通過反投影和重投影,對應于參考相機系統(tǒng)中 的合成視圖^^^e^^" -;中的像素點Px;函數(shù)fx為所述另一相機坐標系的投影函數(shù);進一步的,<formula>formula see original document page 6</formula>,Ri 。Glr-、m)為目標相機坐標系相對于世界坐標系的三維旋轉(zhuǎn)矩陣;ti (i Gl,…,m)為目標相機坐標系相對于世界坐標系的平移向量;m為匯聚相機系統(tǒng)中的相機 總數(shù);Ai為目標相機的內(nèi)部參數(shù)矩陣;Rx (xel,…,m且x^i)參考相機坐標系相對于世界坐標系的三維旋轉(zhuǎn)矩陣;tx ( X e L-' m且X # O為參考相機坐標系相對于世界坐標系 的平移向量;Ax為參考相機的內(nèi)部參數(shù)矩陣;b3和C3分別是矩陣B和C的第三行向量。 具體的,全局深度值Z(;通過以下公式求得i=l,--,柳Pe/,-min Z其中,搜索范圍為[Z匪'Z匪],Zstep為搜索步長。深度初始值為全局深度估計中的搜 索范圍和搜索步長的確定提供了非常重要和有效的參考信息,可以減小深度估計的搜索范圍 并確定合理的搜索步長,從而提高估計效率。本發(fā)明的有益效果是,能有效地對匯聚相機系統(tǒng)下多視角視頻圖像進行全局深度信息的 估計,快速有效地直接獲取深度信息。
圖l是多視角視頻圖像中的坐標系示意圖;圖2是匯聚相機系統(tǒng)示意圖;圖3是本發(fā)明的基于深度的視圖合成示意圖;圖4是本發(fā)明的全局深度估計示意圖;圖5是本發(fā)明的系統(tǒng)流程圖。
具體實施方式
為了更好地描述本發(fā)明的內(nèi)容,首先對多視角視頻中的坐標系統(tǒng)以及各坐標之間的關(guān)系 進行說明在多視角視頻中通常需要三個類型的坐標系來描述場景及其圖像位置信息,它們分別為 世界坐標系o-xyz、相機坐標系Oi-XiyiZi和像素坐標系UiVi。相機坐標系以相機中心為原點、光軸為z軸,xy平面與圖像平面平行;像素坐標系以圖 像左上角為坐標原點,水平和垂直坐標為u、 v, uv平面為圖像平面。匯聚相機系統(tǒng)中相機的 個數(shù)為m,系統(tǒng)中的任一相機ci( i — 的相機坐標系o廣XiyiZi相對于世界坐標系o-xyz的位置用三維旋轉(zhuǎn)矩陣Ri和平移向量ti表示,Ri與ti又稱為相機的外部參數(shù)。圖l示出 了2個相機的相機坐標系omyd、 o2-x2y2z2,以及對應的像素坐標mvh u2v2。設(shè)相機ci( i —— 的假設(shè)場景中一點在世界坐標系下的坐標用向量p^x, y, z]表示,該點在相機坐標系Oi-XiyiZi中的坐標則用向量Pf[Xi, yi, zi]表示。根據(jù)空間幾何和坐標變換,相機坐標系中的向量Pi與世界坐標系下向量P有如下關(guān)系 p = ^ + ~根據(jù)計算機視覺透視投影原理,相機坐標系下的坐標Pi。
—— — ,^)與其在圖像平面的、^)滿足以下關(guān)系齊次像素坐標Pf[Ui, Vi, 1] 。 el 22巧=4戶2(2)=《A其中,Ai。"'…,)是相機ci。"'…,)的內(nèi)部參數(shù)矩陣,主要包括相機焦距、中 心和變形參數(shù)等;Zi( i El,…,m)為場景點的向量P在相機ci坐標系統(tǒng)中Z軸的坐標。為了實現(xiàn)全局深度估計,本發(fā)明首先利用相機參數(shù)求得匯聚系統(tǒng)的匯聚點,并把該點作 為場景深度的深度初始估計值;利用所述的深度初始估計值,確定全局深度估計的搜索范圍 和搜索步長;再利用視圖合成技術(shù)求使得合成視圖與實際視圖之間的絕對差最小的深度值作 為場景的全局深度值。圖2所示為,m個相機組成的一個匯聚系統(tǒng)。需要估計深度的視圖稱為目標視圖,對應的 相機系統(tǒng)稱為目標相機系統(tǒng)。其它的視圖為參考視圖。這樣多視角視頻就包含l個目標視圖 (當前需要估計深度的視圖)和m-l個參考視圖。全局深度值估計的具體方法如下 1、深度初始值估計多視角視頻的一個主要目標是在多個角度拍攝同一場景的信息,相機通常呈圓弧形放置 ,并且相機光軸匯聚于一點,即所謂的匯聚系統(tǒng)。實際應用中,雖然相機可能不嚴格匯聚于 一點,但總可以找到一個與各相機光軸距離最近的一個點,這個點被認為匯聚點。匯聚點通 常都是場景所在的位置,可以認為是場景的一個縮影點,所以通過求得匯聚點的位置就可以求得場景深度的一個初始估計。該估計值為后續(xù)的場景全局深度的估計提供了良好的初始值 ,而且為全局深度估計的搜索范圍和搜索步長的確定提供了重要的參考信息,從而可以減小 計算量、提高估計效率。設(shè)匯聚點在世界坐標系中的坐標為M『[Xc, yc, Zc],該點位于每個相機的光軸上,所以該 點在以光軸為Z軸的相機坐標系中可以表示為M2=
(3)其中^ 。
—— — ,^)是匯聚點在相機ci的坐標系中的深度,m為相機個數(shù)。根據(jù)世界坐標與相機坐標的關(guān)系可得到 風=A碼+ ^風=^;^2 + f 2消去Mc得到,cu,。]+",,o力+^0G 0式(5)是關(guān)于深度i的3(m-i)個線性方程。用線性最小二乘法求解方程組(5),可求得匯聚點在各相機坐標系中的深度值Zi ,Zi為深度初始估計值。 2、基于深度的視圖合成深度值給定,目標視圖中的像素點則可根據(jù)目標相機的內(nèi)外部參數(shù)(Ai、 Ri、 ti)把該像 素點反投影到場景中,再把場景點投影到參考相機的視角中生成合成視圖??紤]兩個視圖的情形,設(shè)視圖Ii為目標視圖,視圖l2為參考視圖。視圖Ii中的像素點Pi 在其相機"坐標系下的深度值為Zh該點在視圖l2中的對應像素點為^,在其相機C2坐標系下的深度值為Z2,根據(jù)公式(1) (2)可推導得到由式(6)得到為方便描述,記則(7)式變?yōu)槠渲蠦,C是三維矩陣,t是兩個相機之間的平移向量。由于巧'A是齊次坐標,可消去(8)中的Z2,得到像素點P,在視圖2中的像素齊次坐標為jZ g Z,間+ Cf .,, m、其中b3和C3分別是矩陣B和C的第三行向量。由式(9)可得出在相機C1與C2內(nèi)外部參數(shù)已知的情況下,視圖l2的像素點值是關(guān)于視 圖Il中的像素點值及其深度值的函數(shù)。利用公式(9)進行視圖Il在參考視圖l2中的視圖合成視圖Il中的像素點Pl,在給定的深度Z下通過反投影和重投影得到其在相機C2的視角中的 合成視圖^W^^^"-A的像素點P2, 3二^^'S),如圖3所示(圖中將合成視圖 ^^^"Z^^-^簡寫為S-l2),假設(shè)同一場景點在不同視圖中具有相同的亮度色度值,貝U/seized _12(^) = ^y礎(chǔ)e^/zed _ J2(/2(z,/^)) = ij(i^) (10)上述說明是以兩個相機組成的匯聚相機系統(tǒng)為例,同樣可以進一步得出由m個相機組成的匯聚相機系統(tǒng)可以適用于上述原理,合成視圖^^^^^'^" -A的像素點Px的亮度色度取值是由目標相機坐標系的視圖Ii的對應像素點p決定的,在參考相機視角下的合成視圖^^化eazerf _八可由下式得到函數(shù)fx為在深度值Z下把目標視圖Ii (iel'--'m)中的像素點p — )投影到合成視圖^^^^^^^ — A的像素點Px的投影函數(shù)。 3、全局深度值估計目標視圖Ii在不同的深度值下在同一個參考相機的視角中有不同的合成視圖,理論上在 真實深度值下形成的合成視圖與實際視圖才會重合,本發(fā)明正是利用此原理求得全局深度值如圖4所示,在深度Z下,合成視圖^^^zd-l2與視圖h之間的誤差為:Z I—&金d — /2 i ) - /2 《))糾Zll柳-(12)糾其中,II ll是可以取絕對值,也可以取平方和(為了提高基于深度信息的視圖合成預測編碼的編碼效率,以深度初始估計值^為中心 在一定的搜索范圍內(nèi),以一定的步長,搜索合成視圖與參考視圖之間的絕對差最小的深度值 作為場景的全局深度值ZG(e £ J),即場景全局深度的求解可轉(zhuǎn)化為求解以下問題Zll卿-聰:")11 (13)mm 2:lA(S)—其中[Zmin ,Z脇x]為搜索區(qū)間,.Zstep為搜索步長,Zi為搜索深度,j為深度搜索個數(shù), 、/ 二 1、 二…iV Zmin + / Zmax Zmin +通過式(13)得到視圖Ii的相機坐標系下的場景全局深度估計值ZG 。同理,m個相機組 成的匯聚系統(tǒng)中,搜索合成視圖^^^^^M^ -^與參考視圖Ix之間的絕對差最小的深度值 作為場景的全局深度值ZG:<formula>formula see original document page 12</formula>其中J二1二…A'「 /eL.,川本發(fā)明由于通過求匯聚點的方法從式(5)線性方程組已經(jīng)得到場景深度的一個初始估計值,所以式(13)與式(14)中搜索區(qū)間可以設(shè)在初始估計值為中心的局部范圍內(nèi),避免 大范圍的搜索,減小了計算量;搜索步長的確定也以初始估計值為參照,通??梢栽O(shè)為初始 估計值的某一比例值。 實施例在本實施例中,為方便描述,以2個相機組成的匯聚相機系統(tǒng)為例。利用兩個相機的內(nèi) 部參數(shù)Ai(iei, 2)外部參數(shù)Ri, ti(iEl, 2)和在各相機系統(tǒng)下形成的視圖^與l2進行全局深度 估計。以視圖Ii為目標視圖,以視圖l2為參考視圖,求視圖Ii的全局深度值的步驟如圖5所示步驟l:計算兩個相機C1與C2的光軸匯聚點,得到相機坐標下的場景初始深度值。 根據(jù)式(5 )得到關(guān)于匯聚點在兩相機坐標系下的深度值^和^的線性方程通過線性方程求解方法得到場景初始深度值《。步驟2:根據(jù)初始深度值^ ,確定視圖Il的深度搜索范圍和搜索步長。由于步驟l得到的初始深度值通常是場景深度的在數(shù)量級上的大概估計值,所以搜索區(qū)間以初始估計值為中心的±50%范圍,搜索步長可確定為初始估計值的1%,即<formula>formula see original document page 12</formula>步驟3:在搜索范圍內(nèi),對每個給定的深度,求場景在視圖l2中的合成視圖給定視圖Il的深度Zj二Z鵬in+j Zstep , J=1'— — '1(K), IOO為深度搜索個數(shù)。根據(jù)式(9), 計算視圖Il中的像素點Pl在給定的深度值Zj下在相機C2坐標系中對應像素點P2,并把Pl的亮度 色度值作為視圖I2的合成視圖^^^Z^ —^的像素P2的亮度色度值,得到合成視圖^y旭/^s;.zed _/2 ,艮卩.^VH/Z^^J —/2 (尸2 )=砂H/fe^W — /2 (/2 ( '《))=A (《)2輛toiz^—i2 ( 2) = 2 ^"Ad^ /2 (/2 0"々))=2 A (糾 糾 糾步驟4:計算深度值Zi下的合成視圖^^^"ZM^ -72和視圖12的誤差絕對和??剖街袑σ晥DIl中的所有像素點求和,并且使用像素點的所有亮度、色度分量。步驟5:取使得合成視圖^^^"Z^^-^和視圖l2的絕對差最小的深度值,作為全局深 度估計值。SADmin=SAD(k) =minSAD(j)令ZG二Z鵬in+k Zstep則ZG為視圖h的場景全局深度值。同理,也可求得視圖l2的場景全局深度值。
權(quán)利要求
1. 多視角視頻圖像的場景全局深度估計方法,其特征在于,包括以下步驟a、利用匯聚相機系統(tǒng)中各相機的外部參數(shù)計算匯聚點,將匯聚點的深度值作為深度初始估計值;b、參考深度初始估計值確定全局深度估計的深度搜索范圍與搜索步長;c、利用相機的內(nèi)外部參數(shù)和給定的深度值,計算目標視圖的像素點通過反投影和重投影在參考視圖中的對應像素點,并得到目標視圖在參考相機系統(tǒng)中的合成視圖;d、在所述深度搜索范圍內(nèi)以所述搜索步長進行搜索,把使得合成視圖與參考視圖的誤差最小的深度值作為目標視圖的場景全局深度值。
2. 如權(quán)利要求l所述多視角視頻圖像的場景全局深度估計方法,其特 征在于,所述相機內(nèi)部參數(shù)包括相機焦距、中心和變形參數(shù),所述相機外部參數(shù)包括相機坐 標系相對于世界坐標系的三維旋轉(zhuǎn)矩陣和平移向量。
3. 如權(quán)利要求l所述多視角視頻圖像的場景全局深度估計方法,其特 征在于,步驟a所述相機系統(tǒng)匯聚點的深度值,通過以下線性方程求得攀a:'。] + f,^
+ G 《.[Ol',。] + f,,0,:;] + f2攀0—':u]十iUO,0一-:] + 其中,m為匯聚相機系統(tǒng)中的相機總數(shù);Ki 。el,…,m)為目標相機Ci坐標系相對于 世界坐標系的三維旋轉(zhuǎn)矩陣;"。el'…'m)為目標相機Ci坐標系相對于世界坐標系的 平移向量;為匯聚點在目標相機Ci坐標系的深度值。
4. 如權(quán)利要求l所述多視角視頻圖像的場景全局深度估計方法,其特 征在于,步驟c所述合成視圖由以下公式得到^^^emze d _ (A) = ^jw^^ze d _ I, (/,巧)=(巧 VP e A函數(shù)fx為在深度值z下把目標視圖工i 。elr-、m)中的像素點p (xGl廣、m且x ^ )投影到合成視圖^^"^" —^的像素點Px的投影函數(shù)。
5.如權(quán)利要求4所述多視角視頻圖像的場景全局深度估計方法,其特征在于,函數(shù)fx具體表示為<formula>formula see original document page 3</formula>為目標相機坐標系相對于世界坐標系的三維旋轉(zhuǎn)矩陣;ti 。el'…'m)為目標相機坐標系相對 于世界坐標系的平移向量;m為匯聚相機系統(tǒng)中的相機總數(shù);^f為目標相機的內(nèi)部參數(shù)矩陣 ;RX ( X £-; m且x # i )參考相機坐標系相對于世界坐標系的三維旋轉(zhuǎn)矩陣;tx (XGl廣、m且x^i)為參考相機坐標系相對于世界坐標系的平移向量;Ax為參考相機的內(nèi)部參數(shù)矩陣;b3和C3分別是矩陣B和C的第三行向量。
6.如權(quán)利要求4所述多視角視頻圖像的場景全局深度估計方法,其特 征在于,步驟d中全局深度值通過以下公式求得<formula>formula see original document page 3</formula>其中,ZG為目標視圖工i的全局深度值,Ix為參考視圖,[Z!^'Z皿]為搜索范圍, 5—為搜索步長,搜索深度^ = Z匪+ , 。
7.如權(quán)利要求l或6所述多視角視頻圖像的場景全局深度估計方法, 其特征在于,所述搜索范圍是以深度初始估計值為中心并根據(jù)所述深度初始估計值確定的局 部范圍;所述搜索步長為深度初始估計值的比例值。
全文摘要
本發(fā)明涉及視頻信號處理技術(shù)。本發(fā)明提供一種匯聚相機系統(tǒng)下多視角視頻圖像的場景全局深度估計方法。多視角視頻圖像的場景全局深度估計方法,包括以下步驟a.將匯聚點的深度值作為深度初始估計值;b.參考深度初始估計值確定全局深度估計的深度搜索范圍與搜索步長;c.計算目標視圖的像素點通過反投影和重投影在參考視圖中的對應像素點,并得到目標視圖在參考相機系統(tǒng)中的合成視圖;d.在深度搜索范圍內(nèi)以所述搜索步長進行搜索,把使得合成視圖與參考視圖的誤差最小的深度值作為目標視圖的場景全局深度值。本發(fā)明的有益效果是,能有效地對匯聚相機系統(tǒng)下多視角視頻圖像進行全局深度信息的估計,快速有效地直接獲取深度信息。
文檔編號H04N13/00GK101222647SQ20081030025
公開日2008年7月16日 申請日期2008年1月29日 優(yōu)先權(quán)日2007年10月12日
發(fā)明者L.楊 喬治, 張小云 申請人:四川虹微技術(shù)有限公司