欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法及系統(tǒng)的制作方法

文檔序號:6575330閱讀:172來源:國知局

專利名稱::一種壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法及系統(tǒng)的制作方法
技術領域
:本發(fā)明涉及一種適用于多媒體應用領域的視頻鏡頭分割技術,特別涉及一種壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法及系統(tǒng)。
背景技術
:隨著通信技術、計算機技術和視頻壓縮技術的迅速發(fā)展,視頻在人們的工作和娛樂生活中越來越顯示出重要性?;趦?nèi)容的各種智能視頻處理技術也隨之應運而生,諸如視頻檢索、視頻管理、視頻內(nèi)容分析、視頻監(jiān)控等領域是當今國際上的研究熱點,具有重要的市場應用價值。這些智能視頻處理技術涉及到許多基本技術。其中,由于鏡頭是組成視頻的最基本單元,因此視頻鏡頭分割技術是視頻處理的基礎性和關鍵性技術之一,具有重要的應用意義。視頻鏡頭定義為連續(xù)時間和空間內(nèi),同一個攝像機連續(xù)不間斷的拍攝到的一段視頻內(nèi)容,是構(gòu)成視頻序列的基本單元。鏡頭分割技術是指,將一段視頻分割成一系列連續(xù)的鏡頭,它是大多數(shù)視頻處理的前期基本技術?,F(xiàn)有的視頻鏡頭分割方法按照輸入特征的作用域可以分為以下兩種。第一種是完全解壓縮視頻,也稱為像素域,它是指利用完全解壓縮之后的信息作為輸入特征,進行視頻鏡頭分割。像素域中常用的特征包括像素特征、直方圖特征、紋理特征、均值與方差、運動特征等。第二種是部分解壓縮視頻,也稱為壓縮域,它是指直接利用壓縮域中可獲得的信息作為輸入特征,進行鏡頭分割。壓縮域中常用的特征包括DCT系數(shù)、DC系數(shù)、運動矢量、宏塊類型等。另外,按照分割原理可以分為基于準則的鏡頭分割方法和基于統(tǒng)計學習的鏡頭分割方法。視頻鏡頭分割技術發(fā)展至今,由于會受到快速物體運動、攝像機運動、照相機閃光燈、光線快速變化以及MPEG編解碼錯誤等干擾因素的影響,鏡頭正確分割仍然具有一定困難。相比漸變鏡頭,突變鏡頭分割精度相對較高一些。然而,對于漸變鏡頭分割,到目前為止分割性能相對不是很理想,精度比較低,仍然是一個具有挑戰(zhàn)性的問題。漸變鏡頭之所以比較難于被檢測到,一個重要原因是,漸變鏡頭削弱了連續(xù)圖像間的視覺差異,比較難于定義和捕捉到漸變期間的視覺不相似性,因此漸變鏡頭很大程度上容易受到快速物體運動和攝像機運動的影響,從而降低漸變鏡頭的分割性能。另外,當今視頻捕捉、網(wǎng)絡傳輸和存儲技術都己經(jīng)采用壓縮視頻格式,完全解壓縮視頻一方面增加處理時間與耗費系統(tǒng)資源;另一方面,完全解壓之后的圖像均為原始尺寸,數(shù)據(jù)量非常大,比較耗費處理時間和資源。所以,國內(nèi)外越來越多的研究學者開始研究在不需要完全解壓縮的視頻中(簡稱壓縮域),直接完成鏡頭分割算法。譬如,DC圖像經(jīng)常用于壓縮域的鏡頭分割,它是原始圖像尺寸的1/64。但是,像素域內(nèi)的一些特征提取方法用于壓縮域時,提取的特征性能會明顯降低,例如,理論和實驗可以證明常用的直方圖特征就不太適合在壓縮域中作為鏡頭分割的特征。因此,壓縮域的視頻鏡頭分割性能相對像素域更低,特別是漸變鏡頭分割。因此,需要挖掘出一種新的鏡頭分割特征,可以對鏡頭內(nèi)的攝像機或物體運動不敏感,而對鏡頭間的變化比較敏感,從而可以增強鏡頭分割算法的魯棒性。同時,需要設計一種更加有效的鏡頭分割方法,結(jié)合有效的鏡頭分割特征,提高視頻鏡頭分割的精度。
發(fā)明內(nèi)容本發(fā)明的目的在于提供一種壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法及系統(tǒng)。其針對鏡頭分割性能的三個主要影響因素鏡頭分割輸入特征、不相似性度量以及鏡頭分割準則,首先提出一種基于主成份分析的視頻特征提取方法;與此同時,提出一種壓縮域構(gòu)建紋理特征圖的方法;其次,本發(fā)明提出一種時間域多尺度的不相似性度量方法;而后,設計出兩參數(shù)能夠有效特征化鏡頭變化的局部特性,并且根據(jù)這兩個參數(shù)提出了一種基于自適應閾值的方法,可以通過1-幀時域間隔的不相似性度量算子,自適應確定出N-幀時間域間隔的長度;另外,本發(fā)明分別為突變和漸變鏡頭設計出合理有效的不相似性度量算子和有效的判別準則;同時,提出一種基于滑動窗口的低通濾波器原理。本發(fā)明通過全面考慮影響鏡頭分割性能三個因素,使得本發(fā)明能夠有效增強鏡頭分割算法對鏡頭內(nèi)攝像機或物體運動干擾的魯棒性,有效提高突變鏡頭和漸變鏡頭的分割精度。尤其是對漸變鏡頭分割的性能具有很大提高,從而提供一種具有抗噪性能強、快速、準確、誤檢率低等優(yōu)點的視頻鏡頭突變與漸變的聯(lián)合分割技術。為了實現(xiàn)上述目的,本發(fā)明的一種壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法,包括如下步驟91)首先在每個視頻鏡頭起始的位置,選擇若干視頻圖像幀構(gòu)建一個訓練樣本集,針對樣本集中的每幀視頻圖像,為其分別提取Y分量,Cb分量和Cr分量的DC圖像,并針對該樣本集中的每幀的三個分量的DC圖像,分別通過首尾連接每一個DC圖像的每一行,將二維圖像矩陣形式轉(zhuǎn)換為一維列向量形式,這里,從MPEG壓縮視頻流中,例如可以根據(jù)文獻1(YeoB.,LiuB.,Rapidsceneanalysisoncompressedvideo[J],IEEETrans.OnCircuitsandsystemsforvideotechnology,1995,5,(6),pp.533-544.)中記載的算法,或者文獻2(S.F.Chang,D.G.Messerschmitt,ManipulationandcompositingofMC-DCTcompressedvideo,IEEETrans.Onselectedareasincommunications,1995,vol.13(1),pp.l-ll.))中提出的一種直接從壓縮域準確估計DC系數(shù)的方法,為其直接提取基于塊DCT系數(shù)中的DC系數(shù),并由DC系數(shù)構(gòu)造每幀的Y分量,Cb分量和Cr分量的DC圖像。詳細方案如下本發(fā)明中,假設DC圖像的大小為/xw,通過首尾連接圖像的每一行,得到iV-Axw維的圖像矢量,記為Z^艮P:j^^m2)"."1',^'1)"."^)"."^'1^(i)假定選擇M個圖像矢量組成訓練樣本集,用矩陣P表示,這是一個WxM大小的矩陣(^肘),每一幀的圖像矢量作為該矩陣的列向量,艮P/>=[^,義2,%3,......,乙—),Zm](2)2)針對步驟1)所構(gòu)建的DC圖像樣本集,進行主成份分析,計算得到該樣本集的特征值和相應的特征向量。詳細方案如下計算矩陣戶的協(xié)方差矩陣,即C-尸尸r(3)對協(xié)方差矩陣c計算特征值和相應的特征向量。這里,由于C是一個的iVxiV大型矩陣,直接計算比較困難,例如,可以利用文獻3(MurakamiH.,KumarV"Efficientcalculationofprimaryimagesfromasetofimages[J],IEEETrans.OnPatternAnalysisandMachineIntelligence,1982,4,(5),pp.511-515.)中提出的一個比較有效的方法來解決這個問題,即^-尸r尸(4)用矩陣5代替原先的矩陣C,從矩陣6中計算特征值和相應的特征向量。矩陣6的大小為A/xAf,它遠遠小于矩陣c的大小。而矩陣c的"z^M)個特征值;i,與相應的特征向量《則可以通過式(5)和式(6)從矩陣5的z個特征值《和特征向量s;分別計算得到,這里/=1,2,......,丄,即<formula>formulaseeoriginaldocumentpage11</formula>(5)<formula>formulaseeoriginaldocumentpage11</formula>(6)3)針對步驟2)所得到的特征向量,僅保留最大特征值對應的特征向量,由其構(gòu)造新的一維特征子空間,假設保留的最大特征值對應的特征向量為e,,則由特征向量e,張成一維子空間,用矩陣-表示,這是一維矩陣,特征向量e,是它的列向量。至此,通過訓練樣本集的主成份分析,成功構(gòu)建三個顏色分量Y,Cb和Cr對應的新特征子空間。4)接著,將樣本集之后的視頻圖像作為檢測幀,檢測鏡頭發(fā)生變化的位置,針對當前檢測圖像幀,從鏡頭起始位置處開始,分別針對Y分量、Cb分量、Cr分量三個色度分量,利用步驟l)提到的方法,分別提取各自的DC圖像,并且將各分量的DC圖像向步驟3)所構(gòu)造的各分量的特征子空間中進行投影,提取各分量的一維投影系數(shù),即利用矩陣-,視頻序列的每幀圖像%4對應的矢量向該子空間進行投影,獲得一維投影系數(shù),記作i;,這里fe代表幀數(shù),如(7)式所示(7)5)根據(jù)步驟4)的結(jié)果,聯(lián)合Y分量、Cb分量、Cr分量三個色度分量對應的三個一維投影系數(shù),構(gòu)造特征集-6)根據(jù)步驟5)所提取的特征集R,利用Ll范數(shù),計算連續(xù)視頻幀的特征差異,本說明書中用1幀時域間隔不相似性《(^,^+1)代表,艮P7)根據(jù)步驟6)計算得到的1幀時域間隔不相似性《(^,^+1),利用基于滑動窗口的突變鏡頭分割準則,對當前幀進行突變鏡頭的判別,即假設大小為W。=11的一維時間滑動窗口被選擇用于檢測突變鏡頭。這個關于當前幀對稱的一維時間滑動窗口中,兩個判別準則被用來決定當前幀是否發(fā)生突變的鏡頭變換a)當前幀的一維投影系數(shù)的絕對差是關于當前幀對稱的時間窗口中的最大值,即《A-/w+l,…,A:-l,^:+l,…,A:+w-l(10)這里,W。=2ot—1。b)該時間窗口中,最大的絕對差值是第二大絕對差值的35倍,即maxI/=&—/w+l,...,&—l,A:,A:+l,.."A:+/w—l}_$5(11)max|/=A—W+1,…,A—1,A:,A:+1,…A:+W—1}這里,maxW表示最大的絕對差值,m;xW表示第二大的絕對差值。如果上述的兩個判別準則都被滿足,則當前幀被檢測為發(fā)生鏡頭突變。這里,如果在步驟7)中,判斷出鏡頭突變發(fā)生,則對當前鏡頭變換的搜索被停止。此時,將跳轉(zhuǎn)到步驟1),開始對新出現(xiàn)的下一個鏡頭變換進行檢測。新的連續(xù)視頻樣本幀將從相鄰的下一個視頻鏡頭開始的地方被選擇,構(gòu)成主成份分析的新訓練樣本集,用于檢測下一個鏡頭變換的位置。否則,將繼續(xù)執(zhí)行下面的步驟8)。8)如果判斷出當前幀沒有發(fā)生鏡頭突變,則在以當前幀為對稱中心的滑動窗口內(nèi),針對步驟6)計算得到的1幀時域間隔不相似性《(^,^+,)進行一維低通濾波,從而得到新的1幀時域間隔不相似特征,用于漸變鏡頭的判斷。詳細方案如下-如果當前幀沒有被判斷為突變鏡頭,另一個大小為A^=21且關于當前幀對稱的一維時間滑動窗口被選擇,用于漸變鏡頭的檢測。隨后,一維低通濾波器作用于該時間窗口內(nèi)的1幀時域間隔不相似性《(K,Kt+1),即=&—w+l,...,A—l,A,A+l,..i:+w—1)。從得到的低通濾波結(jié)果中,選取其中的最大值作為當前幀新的檢測特征,記作&,用于漸變鏡頭的檢測,即&=max{^|i=A:_w+l,...,A:—l,A:,A:+l,...,&+w—l}(12)這里,Wg=2n-1,而5,表示時間窗口內(nèi)各元素的低通濾波結(jié)果。9)根據(jù)步驟8)所提取的1幀時域間隔不相似特征^,通過基于以當前幀為對稱中心的滑動窗口方法,為當前幀提取出可以表征漸變特性的兩個參數(shù)前向比率A(fc)和后向比率及b(fc)。詳細方案如下假設當前幀6的前向窗口和后向窗口大小分別為iVf和iVb,且本發(fā)明中大小均設定為5幀,則前向窗口的均值和后向窗口的均值分別為(13)12<formula>formulaseeoriginaldocumentpage13</formula>其中,ii^(w為前向窗口的均值,而&b(it)為后向窗口的均值。由此,兩個表征參數(shù)根據(jù)公式(15)和(16)可以分別被計算得到,即<formula>formulaseeoriginaldocumentpage13</formula>(15)<formula>formulaseeoriginaldocumentpage13</formula>(16)其中,前向比率/f("和后向比率ib("分別代表兩個表征漸變特性的特征。10)根據(jù)步驟9)所提取的兩個表征參數(shù)A(A:)和及b(A:),根據(jù)下述設計的準則確定用來檢測候選的鏡頭漸變,本發(fā)明設計用于檢測候選的鏡頭漸變的決策準則如下a)鏡頭漸變引起的局部曲線峰的起始幀的前向比率if(A:)通常高于自適應閾值rp,而同時它的后向比率ib("通常低于自適應閾值7;。與此同時,起始幀的前向比率A("是一個局部極大值;b)鏡頭漸變引起的局部曲線峰的結(jié)束幀的前向比率AO:)通常低于自適應閾值rp,而同時它的后向比率及b(/t)通常高于自適應閾值7;。與此同時,結(jié)束幀的后向比率及b("是一個局部極大值;c)鏡頭漸變引起的局部曲線峰持續(xù)階段,視頻幀的前向比率^(A:)和后向比率ibOt)通常均低于自適應閾值;本發(fā)明中閾值;可以設定為1.2~2.0。滿足上述準則的局部曲線峰將被作為候選鏡頭漸變,繼續(xù)執(zhí)行下面的步驟11),來最終判定其是否為真正的鏡頭漸變。11)根據(jù)步驟10)所得到的作為候選鏡頭漸變引起的局部曲線峰,可以自適應地確定出當前漸變鏡頭的時域長度,進行N幀視域間隔的不相似性度量。分別對局部曲線峰的起始幀和結(jié)束幀直接在壓縮域內(nèi)提取紋理特征圖。詳細方案如下本發(fā)明利用圖像幀在壓縮域中基于塊DCT系數(shù)中的AC系數(shù),并且是左上角的三個AC系數(shù),即義(O,l),義(l,O)和Z(l,l)。由此,AC能量圖可以通過(17)式計算得到,即<formula>formulaseeoriginaldocumentpage13</formula>(17)針對該AC能量圖&。通過式(18)進行二值化處理:1,iW,《SZl五"")1乂=1'=1MAP一"乂)一(18)0,other;針對二值化的紋理特征圖MAPte,^利用數(shù)學形態(tài)學的閉操作與開操作進行后處理,提取到最終的紋理特征圖。本發(fā)明中,只針對局部曲線峰的起始幀和結(jié)束幀,利用上述方法提取紋理特征圖。并且,為了便于直接從壓縮域中提取AC系數(shù),本發(fā)明提出局部曲線峰的起始幀向前遇到的第一個I幀作為起始幀,而結(jié)束幀向后遇到的第一個I幀作為結(jié)束幀,針對這兩個I幀提取紋理特征圖。12)根據(jù)步驟11)所得到的起始幀和結(jié)束幀的紋理特征圖,通過相似性度量方法對局部曲線峰的起始幀和結(jié)束幀進行相似程度比較,如果該兩幀的相似程度較高,則該局部曲線峰不能被判別為發(fā)生鏡頭漸變。相似性度量算子如公式(19)所示s=!]MAPte戯(st加—frame)nMAptexture(end-frame)(19)一ZMAPtexture(start—frame)UMAPtextue(end—frame)由公式(19)計算得到的相似度S如果高于設定的閾值,則該局部曲線峰不能被判定為鏡頭漸變發(fā)生,則返回所述步驟4),開始對下一個檢測幀的操作,反之,如果相似度S小于等于設定的閾值,則判定鏡頭漸變發(fā)生,從而返回所述步驟1),開始下一個鏡頭變換的檢測。這里,本發(fā)明中設定閾值為50%~70%。另外,本發(fā)明提供一種壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割系統(tǒng),利用上述方法進行分割,該系統(tǒng)包括特征提取模塊、不相似性度量模塊、突變鏡頭分割模塊以及漸變鏡頭分割模塊。所述特征提取模塊,用于分別為一幀時間間隔與N幀時間間隔不相似度量算子提取PCA特征和紋理特征,該模塊包括兩個子模塊基于主成份分析的特征提取子模塊和紋理特征提取子模塊,其中,所述基于主成份分析的特征提取子模塊用于直接在壓縮域通過主成份分析方法提取一維PCA特征,用于一幀時間間隔的不相似性度量;所述紋理特征提取子模塊用于直接在壓縮域提取紋理特征,用于N幀時間間隔的不相似性度量。所述不相似性度量模塊,用于通過設計不同的算子分別計算一幀時間間隔與N幀時間間隔的不相似性,該模塊包括兩個子模塊Ll-norm算子計算模塊和相似性比14-norm算子計算模塊用于計算一幀時間間隔的不相似性,計算結(jié)果直接用于突變鏡頭分割,經(jīng)過濾波后用于漸變鏡頭分割;所述相似性比例算子計算模塊用于漸變鏡頭分割的第二個階段的判斷。所述突變鏡頭分割模塊,用于通過設計的相應分割算法來分割突變鏡頭;所述漸變鏡頭分割模塊,用于通過設計兩階段分割算法來分割漸變鏡頭,該模塊包括兩個子模塊候選漸變鏡頭檢測子模塊和真正漸變鏡頭判別子模塊,其中,所述候選漸變鏡頭檢測子模塊用于通過1幀時間域不相似性度量檢測候選漸變鏡頭;所述真正漸變鏡頭判別子模塊用于針對候選漸變鏡頭,通過N幀時間域不相似性度量判斷其是否為真正的漸變鏡頭。本發(fā)明的壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法及系統(tǒng)的有益效果在于1、本發(fā)明在步驟l)中,提出在壓縮域內(nèi),直接采用DC系數(shù)進行特征提取,并且選擇每個鏡頭起始位置處的若干DC圖像構(gòu)造主成份分析的訓練樣本集,該訓練樣本集將用于檢測當前鏡頭和其相鄰的下一個鏡頭之間的鏡頭變換。該創(chuàng)新點的優(yōu)點在于,DC系數(shù)可以直接從壓縮視頻流中進行提取,這樣做可以節(jié)省完全解壓縮視頻所需的時間。另外,DC系數(shù)構(gòu)造的圖像在尺寸上僅有原始尺寸的1/64(編碼塊尺寸為8x8),這可以在算法執(zhí)行時間和所需的空間兩方面都可以極大地得到節(jié)省,使得算法可以實現(xiàn)快速執(zhí)行的目的。2、本發(fā)明在步驟3)中,提出保留最大特征對應的特征向量構(gòu)造一維特征子空間。該創(chuàng)新點的優(yōu)點在于,通過理論和統(tǒng)計實驗分析,可以得出如下結(jié)論新構(gòu)造的一維特征子空間對鏡頭內(nèi)攝像機運動或物體運動引起的變化表現(xiàn)出不敏感,而對鏡頭之間的變化(包括突變和漸變)表現(xiàn)出敏感。因此,基于該特征子空間提取的特征對噪聲干擾的魯棒性增強,從而有效提高鏡頭分割的精度。3、本發(fā)明在步驟4)中,提出將各檢測視頻圖像幀向步驟3)中構(gòu)建特征子空間進行投影,提取投影系數(shù),作為鏡頭分割算法的一種輸入特征。該創(chuàng)新點的優(yōu)點在于,正如創(chuàng)新點2中描述的,該特征子空間的優(yōu)點決定了投影系數(shù)作為視頻鏡頭分割的輸入特征,可以有效提高鏡頭變換針對鏡頭內(nèi)攝像機運動或物體運動的抗干擾能力,從而能夠極大地提高鏡頭分割的精度。4、本發(fā)明在步驟5)中,提出聯(lián)合Y、Cb、Cr三個色度分量的投影系數(shù),構(gòu)造一個三維特征集,作為鏡頭分割方法的輸入特征;該創(chuàng)新點的優(yōu)點在于,聯(lián)合三種色度分量可以實現(xiàn)三者之間的相互補充,防止或有效降低鏡頭變換漏檢情況的出現(xiàn)。155、本發(fā)明在步驟ll)中,提出一種壓縮域內(nèi)紋理特征的提取方法,進一步可以細分為-a)提出在基于塊的DCT系數(shù)中,僅選取左上角的三個AC系數(shù)用于紋理特征的提??;有文獻3(ChangH.S.,KangK.,ACompresseddomainschemeforclassifyingblockedgepatterns,IEEETrans.OnImageProcessing,2005,14,(2),pp.145-151.)統(tǒng)計,在基于塊的DCT系數(shù)中,左上角的三個AC系數(shù)包含了所有AC系數(shù)的絕大多數(shù)能量,其余的AC系數(shù)可以忽略。因此,本發(fā)明僅選取左上角的三個AC系數(shù),可以加快算法速度,且使得計算更加簡便。b)提出根據(jù)a)中的三個AC系數(shù)計算AC能量圖的方法,即三個系數(shù)的絕對值之和取平均。該創(chuàng)新點的優(yōu)點在于計算簡單并且十分有效。c)提出針對AC能量圖進行二值化處理用于紋理特征圖。該創(chuàng)新點的優(yōu)點在于,實現(xiàn)簡單有效提取紋理特征圖的目的,同時,便于兩幀圖像基于二值紋理特征圖的相似性比較。d)提出針對二值紋理特征圖,利用形態(tài)學的開操作和閉操作的后處理,進行紋理特征圖地最終提取。該創(chuàng)新點的優(yōu)點在于,通過后期處理,完善和優(yōu)化二值紋理特征圖,并且更加有利于兩幀圖像基于紋理特征圖的相似性比較。e)提出采用局部曲線峰的起始幀向前遇到的第一個I幀和結(jié)束幀向后遇到的第一個I幀,分別代替原有的起始幀和結(jié)束幀,進行紋理特征提取,并進行兩幀圖像基于紋理特征圖的相似性比較。該創(chuàng)新點的優(yōu)點在于,I幀在壓縮視頻中屬于幀內(nèi)編碼,它的AC系數(shù)可以直接從壓縮域中直接提取得到,便于在壓縮域中直接提取紋理特征圖。另外,本發(fā)明提出一種時域間隔多尺度不相似性度量方法,進一步可以細分為1、提出一種時域間隔多尺度的不相似性度量思路,即聯(lián)合l幀時域間隔的不相似性算子和自適應N幀時域間隔的不相似性算子,進行基于等級的鏡頭分割。該創(chuàng)新點的優(yōu)點在于,單獨的1幀時域間隔不相似度會被漸變鏡頭的特殊處理所消弱,此時漸變鏡頭的檢測會受到鏡頭內(nèi)運動的嚴重干擾。N幀時域間隔不相似度會增加漸變期間的不相似度,與此同時,鏡頭內(nèi)的運動引起的不相似度也會增加,鏡頭內(nèi)運動同樣對漸變鏡頭檢測的干擾仍然很大。因此,本發(fā)明提出的這一創(chuàng)新點,可以十分有效抑制鏡頭內(nèi)運動對漸變鏡頭檢測的干擾。2、在步驟6)中,提出一種基于L1范數(shù)的1幀時域間隔不相似性用于計算連續(xù)視頻幀的特征差異。該創(chuàng)新點的優(yōu)點在于,計算簡單且十分有效。3、在步驟12)中,提出一種基于紋理特征圖的自適應N幀時域間隔不相似性度量方法。該創(chuàng)新點的優(yōu)點在于,專門針對兩個目標幀基于二值紋理圖的比較而設計,可以根據(jù)紋理特征圖有效度量出目標幀的相似程度。另外,本發(fā)明提出一種基于1幀時域間隔不相似算子檢測候選漸變鏡頭的方法,16進一步可細分為1、在步驟8)中,提出一種基于滑動窗口低通濾波器的方法,用于針對連續(xù)1幀時域間隔的幀間不相似度進行平滑處理。該創(chuàng)新點的優(yōu)點在于,步驟7中得到的1幀時域間隔的幀間不相似度曲線存在頻繁的細小波動,不利于漸變鏡頭的檢測。但是,通過該創(chuàng)新點的處理,除了那些局部明顯曲線峰應當被保留外,其余不明顯的細小曲線峰可以被有效去除,從而便于鏡頭漸變的檢測。2、在步驟9)中,提出一種有效表征漸變局部特性的兩參數(shù)特征化方法。該創(chuàng)新點的優(yōu)點在于可以通過這兩個特征參數(shù)有效反應漸變鏡頭的局部特性,從而有助于通過這兩個參數(shù)有效檢測出候選鏡頭漸變。3、在歩驟IO)中,提出一種基于兩參數(shù)準則的候選鏡頭漸變檢測方法。該創(chuàng)新點的優(yōu)點在于根據(jù)兩參數(shù)表征鏡頭漸變的特點,抽象出合理的判別準則,從而有效檢測出候選鏡頭漸變。另外,本發(fā)明提出一種基于自適應N幀時域間隔不相似算子的漸變鏡頭判定方法,該創(chuàng)新點的優(yōu)點在于,盡管N幀時域間隔不相似算子同時增加了鏡頭內(nèi)運動和鏡頭漸變兩種情況下的不相似性差異,使得鏡頭漸變對鏡頭內(nèi)運動干擾的敏感性仍然比較強。然而,當時域間隔N恰好等于鏡頭漸變持續(xù)的長度時,表征鏡頭漸變的不相似度等同于不同鏡頭之間的不相似度。與此同時,鏡頭內(nèi)具有內(nèi)容一致的特點,相對不同鏡頭之間的不相似度,同一個鏡頭內(nèi)的不相似度相對會比較小,因此二者之間的差異可以被最大化。因此,該創(chuàng)新點可以有效增加鏡頭漸變對鏡頭內(nèi)攝像機或物體運動導致的干擾的魯棒性,在基于1幀時域間隔不相似算子的鏡頭漸變檢測基礎上,進一步增加了鏡頭漸變分割的精度。圖1是本發(fā)明的壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割系統(tǒng)的構(gòu)成框圖。圖2是本發(fā)明的壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法的操作流程圖。具體實施例方式下面結(jié)合附圖和具體實施方式對本發(fā)明的壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法及系統(tǒng)作進一步詳細描述。圖1是本發(fā)明的壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割系統(tǒng)的構(gòu)成框圖。如圖1所示,本發(fā)明的壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割系統(tǒng),包括特征提取模塊、不相似性度量模塊、突變鏡頭分割模塊以及漸變鏡頭分割模塊。所述特征提取模塊,用于分別為一幀時間間隔與N幀時間間隔不相似度量算子提取PCA特征和紋理特征,該模塊包括兩個子模塊基于主成份分析的特征提取子模塊和紋理特征提取子模塊,其中,所述基于主成份分析的特征提取子模塊用于直接在壓縮域通過主成份分析方法提取一維PCA特征,用于一幀時間間隔的不相似性度量;所述紋理特征提取子模塊用于直接在壓縮域提取紋理特征,用于N幀時間間隔的不相似性度量。所述不相似性度量模塊,用于通過設計不同的算子分別計算一幀時間間隔與N幀時間間隔的不相似性,該模塊包括兩個子模塊Ll-norm算子計算模塊和相似性比例算子計算模塊,其中,所述Ll-norm算子計算模塊用于計算一幀時間間隔的不相似性,計算結(jié)果直接用于突變鏡頭分割,經(jīng)過濾波后用于漸變鏡頭分割;所述相似性比例算子計算模塊用于漸變鏡頭分割的第二個階段的判斷。所述突變鏡頭分割模塊,用于通過設計的相應分割算法來分割突變鏡頭。所述漸變鏡頭分割模塊,用于通過設計兩階段分割算法來分割漸變鏡頭,該模塊包括兩個子模塊候選漸變鏡頭檢測子模塊和真正漸變鏡頭判別子模塊,其中,所述候選漸變鏡頭檢測子模塊用于通過1幀時間域不相似性度量檢測候選漸變鏡頭;所述真正漸變鏡頭判別子模塊用于針對候選漸變鏡頭,通過N幀時間域不相似性度量判斷其是否為真正的漸變鏡頭。圖2是本發(fā)明的壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法的操作流程圖。如圖2所示,針對本發(fā)明設計的視頻鏡頭突變和漸變聯(lián)合自動分割系統(tǒng),輸入為一段視頻,該段視頻由若干個鏡頭所構(gòu)成,而輸出為鏡頭發(fā)生突變或者漸變位置的準確定位。本發(fā)明的壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法,具體包括如下步驟l)首先,在一段輸入視頻的開始位置處,或者在檢測到其中一個鏡頭變化之后,在一個新出現(xiàn)鏡頭開始的位置處,選擇若干幀視頻圖像構(gòu)建一個訓練樣本集,并且為其分別提取Y分量,Cb分量和Cr分量的DC圖像,并針對該樣本集中的每幀的三個分量的DC圖像,分別通過首尾連接每一個DC圖像的每一行,將二維圖像矩陣形式轉(zhuǎn)換為一維列向量形式。這里,例如根據(jù)文獻1(YeoB.,LiuB.,Rapidsceneanalysisoncompressedvideo[J],IEEETrans.OnCircuitsandsystemsforvideotechnology,1995,5,(6),pp.533-544.)中記載的算法,或者文獻2(S.F.Chang,D.G.Messerschmitt,ManipulationandcompositingofMC-DCTcompressedvideo,IEEETrans.Onselectedareasincommunications,1995,vol.13(1),pp.l-ll.))中提出的一種直接從壓縮域準確估計DC系數(shù)的方法,為其直接提取基于塊DCT系數(shù)中的DC系數(shù),并由DC系數(shù)構(gòu)造每幀的Y分量,Cb分量和Cr分量的DC圖像。本實例中選擇8幀連續(xù)的視頻圖像,用于構(gòu)造主成份分析的訓練樣本集。針對該樣本集中的每幀的三個分量的DC圖像,分別通過首尾連接每一個DC圖像的每一行,將二維圖像矩陣形式轉(zhuǎn)換為一維列向量形式。本實施例中,假設DC圖像的大小為"w,通過首尾連接圖像的每一行,得到iV-Z;xw維的圖像矢量,記為Z,,如下式所示針對每個顏色分量,分別將樣本集中的每個列向量構(gòu)造樣本矩陣,用戶表示,這是一個^><^大小的矩陣(^>>^),每一幀的圖像矢量作為該矩陣的列向量,如下式所示尸-[^,X2,Jf3,......JfJJ2)針對步驟1)所構(gòu)建的樣本矩陣尸,進行主成份分析,計算矩陣P的協(xié)方差矩陣,即c-尸尸f,計算協(xié)方差矩陣c的特征值和特征向量。此處,由于C是一個的iVx7V大型矩陣,直接計算比較困難,例如可以利用文獻3(MurakamiH.,KumarV"Efficientcalculationofprimaryimagesfromasetofimages[J],IEEETrans.OnPatternAnalysisandMachineIntelligence,1982,4,(5),pp.511-515.)中提出的方法來解決這個問題,即f-尸"P。因此,本發(fā)明中用矩陣5代替原先的矩陣c,計算矩陣5的特征值和特征向量。而矩陣c的sm)個特征值義,與相應的特征向量&則可以通過關系式義,=《和關系式6,=《—⑧/^從矩陣6的i:個特征值《和特征向量S分別計算得到,這里/=1,2,Z。由此,已經(jīng)得到當前樣本矩陣的特征值;i,.和特征向量e,.。3)在計算得到的特征向量中,僅保留最大特征值對應的特征向量,即a。由該特征向量e,作為列向量組成一個一維矩陣-。該矩陣-代表一個新的特征子空間,最大特征值對應的特征向量是其列向量。至此,通過訓練樣本集的主成份分析,三個顏色分量Y,Cb和Cr對應的新特征子空間均被成功構(gòu)建。接下來,樣本集之后的視頻圖像將作為檢測幀,檢測鏡頭發(fā)生變化的位置。4)接著,將樣本集之后的視頻圖像作為檢測幀,檢測鏡頭發(fā)生變化的位置-針對當前檢測圖像幀,分別針對Y分量、Cb分量、Cr分量三個色度分量,利用步驟l)所述的方法,分別提取各自的DC圖像,并且將各分量的DC圖像向步驟3)所構(gòu)造的各分量的特征子空間中進行投影,提取到各分量的一維投影系數(shù),即利用矩陣-,視頻序列的每幀圖像義t對應的矢量向該子空間進行投影,獲得一維投影系數(shù),記作&,這里*代表幀數(shù),如下式所示5)根據(jù)步驟4)的結(jié)果,聯(lián)合三個顏色分量的一維投影系數(shù),構(gòu)造特征集6)根據(jù)步驟5)所提取的特征集K,利用Ll范數(shù),計算連續(xù)視頻幀的特征差異從第二個檢測圖像幀開始,將L1范數(shù)用于特征集R,計算前后連續(xù)兩個視頻幀的特征差異,本說明書中用1幀時域間隔不相似性《(^,F(xiàn),+,)代表,即《fc^)-V)2+(1,-^)2-If)2。7)根據(jù)步驟6)計算得到的1幀時域間隔不相似性《(^,^+,),基于滑動窗口的突變鏡頭分割準則,對當前幀是否為突變鏡頭進行判別從第11個檢測圖像幀開始,利用l幀時域間隔不相似性《(F"^+,),進行基于滑動窗口的突變鏡頭檢測。本實例中,例如,滑動窗口大小為iV。-11,并且該滑動窗口關于當前檢測圖像幀對稱,即以當前檢測幀為中心,其左右的圖像數(shù)目均為520幀。而后,針對當前幀對稱的該一維時間滑動窗口中,利用下述兩個判別準則來確定當前幀是否發(fā)生突變的鏡頭變換-a)當前幀的一維投影系數(shù)的絕對差是關于當前幀對稱的時間窗口中的最大值,即=A;—/w+l,…,&一l,^;十l,…,A:+w—l這里,A^。-2w-l。A代表當前幀的時間序號,w代表以當前幀為中心在時間域分別向前和向后移動的幀數(shù)。b)該時間窗口中,最大的絕對差值是第二大絕對差值的35倍,即max{《|〖=允_附+1,...,克一1+1,...,^:+附一1},c-=3~5max{《I/=A—附+1,…,A—1,A:,A;+1,…A:+附一1)這里,maxW表示最大的絕對差值,1^狀{.}表示第二大的絕對差值。如果上述的兩個判別準則都被滿足,則當前幀被檢測為發(fā)生鏡頭突變。由此,如果在步驟7)中,判斷出鏡頭突變發(fā)生,則對當前鏡頭變換位置的搜索被停止。此時,將跳轉(zhuǎn)到步驟1),開始對新出現(xiàn)的下一個鏡頭變換進行檢測。新的連續(xù)視頻樣本幀將從相鄰的下一個視頻鏡頭開始的地方被選擇,構(gòu)成主成份分析的新訓練樣本集,用于檢測下一個鏡頭變換的位置。否則,將繼續(xù)執(zhí)行下面的步驟8)。8)如果判斷出當前幀沒有發(fā)生鏡頭突變,則在以當前幀為對稱中心的滑動窗口內(nèi),針對步驟6)計算得到的1幀時域間隔不相似性《(K,^+,)進行一維低通濾波,從而得到新的1幀時域間隔不相似特征,用于漸變鏡頭的判斷例如,從第21個檢測圖像幀開始,針對1幀時域間隔不相似性《(^,F(xiàn)^),進行基于滑動窗口的低通濾波。本實例中,例如,滑動窗口大小為i^-21,并且該滑動窗口關于當前檢測幀對稱,即以當前幀為中心,其左右的圖像數(shù)目均為10幀。而后,在當前幀對稱的該一維時間窗口內(nèi),利用巴特沃斯低通濾波器作用于1幀時域間隔不相似性《(^,^+1),艮卩-/fc-"+1,...,fc-l,ife,A;+1,…A+w—1),從得到的低21通濾波結(jié)果中,選取其中的最大值作為當前幀新的檢測特征,記作&,用于漸變鏡頭的檢測,即~=111戰(zhàn){5,|1'=&-"+1,...,&—l,fc,/t+l,...,/t+"-l}。這里,JVg-2w-l,而5,.表示時間窗口內(nèi)各元素的低通濾波結(jié)果。9)根據(jù)步驟8)所提取的1幀時域間隔不相似特征^,通過基于以當前幀為對稱中心的滑動窗口方法,為當前幀提取出表征漸變特性的兩個參數(shù)前向比率A(A:)和后向比率及b(A:):例如,從第31個檢測圖像幀開始,針對1幀時域間隔不相似特征^,通過基于以當前幀為對稱中心的滑動窗口方法,為當前檢測幀提取可以表征漸變特性的兩個參數(shù)前向比率A(A:)和后向比率ib(A:)。本實列中,假設當前檢測幀的前向滑動窗口和其后向滑動窗口大小和、均為5幀。由此,前向窗口的均值和后向窗口的均值分別為<formula>formulaseeoriginaldocumentpage22</formula>其中,^f("為前向窗口的均值,而^b("為后向窗口的均值。由此,兩個表征參數(shù)可以根據(jù)下面兩個公式分別被計算得到,即<formula>formulaseeoriginaldocumentpage22</formula>其中,前向比率if(A:)和后向比率/b(A)分別代表兩個表征漸變特性的特征。10)根據(jù)步驟9)所提取的兩個表征參數(shù)前向比率A(W和后向比率及b(A:),根據(jù)決策準則確定用來檢測候選的鏡頭漸變從第33個檢測圖像幀開始,針對當前檢測幀的兩個表征參數(shù)A(A:)和及b(A:),根據(jù)設計的準則用來判斷當前幀檢測屬于四種情況中的哪一種情況,即鏡頭內(nèi)、候選鏡頭漸變的起始幀、候選鏡頭漸變期間、候選鏡頭漸變的結(jié)束幀。如果當前檢測幀不能夠滿足第一個準則,則它可以判斷屬于鏡頭內(nèi)的情況;如果當前檢測幀能夠滿足第一個準則,則它之后的圖像幀需要同時滿足第三個準則,并且直到遇到,那么當前檢測幀才可以被判斷為候選漸變鏡頭的起始幀,在此期間,如果還沒遇到一個檢測幀能夠滿足第二個準則之前,遇到一個檢測幀滿足第一個準則,則當前幀就被判斷屬于鏡頭內(nèi)的情況。判斷準則如下所示a)鏡頭漸變引起的局部曲線峰的起始幀的前向比率^(/t)通常高于自適應閾值rp,而同時它的后向比率及b伙)通常低于自適應閾值7;。與此同時,起始幀的前向比率A(W是一個局部極大值;b)鏡頭漸變引起的局部曲線峰的結(jié)束幀的前向比率i^"通常低于自適應閾值rp,而同時它的后向比率及b("通常高于自適應閾值7;。與此同時,結(jié)束幀的后向比率ib("是一個局部極大值;c)鏡頭漸變引起的局部曲線峰持續(xù)階段,視頻幀的前向比率^("和后向比率及b("通常均低于自適應閾值7;;本實例中閾值7;設定為1.22.0。滿足上述準則的局部曲線峰將被作為候選鏡頭漸變,繼續(xù)執(zhí)行下面的步驟,來最終判定其是否為真正的鏡頭漸變。11)根據(jù)步驟10)所得到的作為候選鏡頭漸變引起的局部曲線峰,可以自適應地確定出當前漸變鏡頭的時域長度,進行N幀視域間隔的不相似性度量。分別對局部曲線峰的起始幀和結(jié)束幀直接在壓縮域內(nèi)提取紋理特征圖。提取方法為本實例利用圖像幀在壓縮域中基于塊DCT系數(shù)中的AC系數(shù),并且是左上角的三個AC系數(shù),即X(O,l),J4T(1,0)和Z(1,1)。由此,AC能量圖可以通過下式計算得到,即針對二值化的紋理特征圖MAPh一利用數(shù)學形態(tài)學的閉操作與開操作進行后處理,提取到最終的紋理特征圖。本實例中,只針對局部曲線峰的起始幀和結(jié)束幀,利用上述方法提取紋理特征圖。并且,為了便于直接從壓縮域中提取AC系數(shù),本發(fā)明提出局部曲線峰的起始幀向前遇到的第一個I幀作為起始幀,而結(jié)束幀向后遇到的第一個I幀作為結(jié)束幀,針對這兩個I幀提取紋理特征圖。12)根據(jù)步驟11)所得到的起始幀和結(jié)束幀的紋理特征圖,通過相似性度量方法對局部曲線峰的起始幀和結(jié)束幀進行相似程度比較,如果該兩幀的相^(程度較高,則該局部曲線峰不能被判別為發(fā)生鏡頭漸變。相似性度量算子如下式所示-<formula>formulaseeoriginaldocumentpage24</formula>由公式計算得到的相似度S如果高于設定的閾值,則該局部曲線峰不能被判定為鏡頭漸變發(fā)生,反之,則判定鏡頭漸變發(fā)生。本實例中設定閾值為50%70%。該步驟中,如果判定鏡頭漸變發(fā)生,則轉(zhuǎn)向步驟1,開始下一個鏡頭變換的檢測;否則,轉(zhuǎn)向步驟4,開始對下一個撿測幀的操作。綜上所述,本發(fā)明在步驟l)中,提出在壓縮域內(nèi),直接采用DC系數(shù)進行特征提取,并且選擇每個鏡頭起始位置處的若干DC圖像構(gòu)造主成份分析的訓練樣本集,該訓練樣本集將用于檢測當前鏡頭和其相鄰的下一個鏡頭之間的鏡頭變換。針對該AC能量圖五^通過下式進行二值化處理:<formula>formulaseeoriginaldocumentpage24</formula>該創(chuàng)新點的優(yōu)點在于,DC系數(shù)可以直接從壓縮視頻流中進行提取,這樣做可以節(jié)省完全解壓縮視頻所需的時間。另外,DC系數(shù)構(gòu)造的圖像在尺寸上僅有原始尺寸的1/64(編碼塊尺寸為8x8),這可以在算法執(zhí)行時間和所需的空間兩方面都可以極大地得到節(jié)省,使得算法可以實現(xiàn)快速執(zhí)行的目的。另外,本發(fā)明在步驟3)中,提出保留最大特征對應的特征向量構(gòu)造一維特征子空間。該創(chuàng)新點的優(yōu)點在于,通過理論和統(tǒng)計實驗分析,可以得出如下結(jié)論新構(gòu)造的一維特征子空間對鏡頭內(nèi)攝像機運動或物體運動引起的變化表現(xiàn)出不敏感,而對鏡頭之間的變化(包括突變和漸變)表現(xiàn)出敏感。因此,基于該特征子空間提取的特征對噪聲干擾的魯棒性增強,從而有效提高鏡頭分割的精度。另外,本發(fā)明在步驟4)中,提出將各檢測視頻圖像幀向步驟3)中構(gòu)建特征子空間進行投影,提取投影系數(shù),作為鏡頭分割算法的一種輸入特征。該創(chuàng)新點的優(yōu)點在于,正如創(chuàng)新點2中描述的,該特征子空間的優(yōu)點決定了投影系數(shù)作為視頻鏡頭分割的輸入特征,可以有效提高鏡頭變換針對鏡頭內(nèi)攝像機運動或物體運動的抗干擾能力,從而能夠極大地提高鏡頭分割的精度。另外,本發(fā)明在步驟5)中,提出聯(lián)合Y、Cb、Cr三個色度分量的投影系數(shù),構(gòu)造一個三維特征集,作為鏡頭分割方法的輸入特征;該創(chuàng)新點的優(yōu)點在于,聯(lián)合三種色度分量可以實現(xiàn)三者之間的相互補充,防止或有效降低鏡頭變換漏檢情況的出現(xiàn)。另外,本發(fā)明在步驟11)中,提出一種壓縮域內(nèi)紋理特征的提取方法,進一步可以細分為a)提出在基于塊的DCT系數(shù)中,僅選取左上角的三個AC系數(shù)用于紋理特征的提取;有文獻3(ChangH.S.,KangK.,ACompresseddomainschemeforclassifyingblockedgepatterns,IEEETrans.OnImageProcessing,2005,14,(2),pp.145-151.)統(tǒng)計,在基于塊的DCT系數(shù)中,左上角的三個AC系數(shù)包含了所有AC系數(shù)的絕大多數(shù)能量,其余的AC系數(shù)可以忽略。因此,本發(fā)明僅選取左上角的三個AC系數(shù),可以加快算法速度,且使得計算更加簡便。b)提出根據(jù)a)中的三個AC系數(shù)計算AC能量圖的方法,即三個系數(shù)的絕對值之和取平均。該創(chuàng)新點的優(yōu)點在于計算簡單并且十分有效。c)提出針對AC能量圖進行二值化處理用于紋理特征圖。該創(chuàng)新點的優(yōu)點在于,實現(xiàn)簡單有效提取紋理特征圖的目的,同時,便于兩幀圖像基于二值紋理特征圖的相似性比較。d)提出針對二值紋理特征圖,利用形態(tài)學的開操作和閉操作的后處理,進行紋25理特征圖地最終提取。該創(chuàng)新點的優(yōu)點在于,通過后期處理,完善和優(yōu)化二值紋理特征圖,并且更加有利于兩幀圖像基于紋理特征圖的相似性比較。e)提出采用局部曲線峰的起始幀向前遇到的第一個I幀和結(jié)束幀向后遇到的第一個I幀,分別代替原有的起始幀和結(jié)束幀,進行紋理特征提取,并進行兩幀圖像基于紋理特征圖的相似性比較。該創(chuàng)新點的優(yōu)點在于,I幀在壓縮視頻中屬于幀內(nèi)編碼,它的AC系數(shù)可以直接從壓縮域中直接提取得到,便于在壓縮域中直接提取紋理特征圖。另外,本發(fā)明提出一種時域間隔多尺度不相似性度量方法,進一步可以細分為-1、提出一種時域間隔多尺度的不相似性度量思路,即聯(lián)合l幀時域間隔的不相似性算子和自適應N幀時域間隔的不相似性算子,進行基于等級的鏡頭分割。該創(chuàng)新點的優(yōu)點在于,單獨的1幀時域間隔不相似度會被漸變鏡頭的特殊處理所消弱,此時漸變鏡頭的檢測會受到鏡頭內(nèi)運動的嚴重干擾。N幀時域間隔不相似度會增加漸變期間的不相似度,與此同時,鏡頭內(nèi)的運動引起的不相似度也會增加,鏡頭內(nèi)運動同樣對漸變鏡頭檢測的干擾仍然很大。因此,本發(fā)明提出的這一創(chuàng)新點,可以十分有效抑制鏡頭內(nèi)運動對漸變鏡頭檢測的干擾。2、在步驟6)中,提出一種基于L1范數(shù)的1幀時域間隔不相似性用于計算連續(xù)視頻幀的特征差異。該創(chuàng)新點的優(yōu)點在于,計算簡單且十分有效。3、在步驟12)中,提出一種基于紋理特征圖的自適應N幀時域間隔不相似性度量方法。該創(chuàng)新點的優(yōu)點在于,專門針對兩個目標幀基于二值紋理圖的比較而設計,可以根據(jù)紋理特征圖有效度量出目標幀的相似程度。另外,本發(fā)明提出一種基于1幀時域間隔不相似算子檢測候選漸變鏡頭的方法,進一步可細分為1、在步驟8)中,提出一種基于滑動窗口低通濾波器的方法,用于針對連續(xù)1幀時域間隔的幀間不相似度進行平滑處理。該創(chuàng)新點的優(yōu)點在于,步驟7中得到的1幀時域間隔的幀間不相似度曲線存在頻繁的細小波動,不利于漸變鏡頭的檢測。但是,通過該創(chuàng)新點的處理,除了那些局部明顯曲線峰應當被保留外,其余不明顯的細小曲線峰可以被有效去除,從而便于鏡頭漸變的檢測。2、在步驟9)中,提出一種有效表征漸變局部特性的兩參數(shù)特征化方法。該創(chuàng)新點的優(yōu)點在于可以通過這兩個特征參數(shù)有效反應漸變鏡頭的局部特性,從而有助于通過這兩個參數(shù)有效檢測出候選鏡頭漸變。3、在步驟IO)中,提出一種基于兩參數(shù)準則的候選鏡頭漸變檢測方法。該創(chuàng)新點的優(yōu)點在于根據(jù)兩參數(shù)表征鏡頭漸變的特點,抽象出合理的判別準則,從而有效檢測出候選鏡頭漸變。26另外,本發(fā)明提出一種基于自適應N幀時域間隔不相似算子的漸變鏡頭判定方法,該創(chuàng)新點的優(yōu)點在于,盡管N幀時域間隔不相似算子同時增加了鏡頭內(nèi)運動和鏡頭漸變兩種情況下的不相似性差異,使得鏡頭漸變對鏡頭內(nèi)運動干擾的敏感性仍然比較強。然而,當時域間隔N恰好等于鏡頭漸變持續(xù)的長度時,表征鏡頭漸變的不相似度等同于不同鏡頭之間的不相似度。與此同時,鏡頭內(nèi)具有內(nèi)容一致的特點,相對不同鏡頭之間的不相似度,同一個鏡頭內(nèi)的不相似度相對會比較小,因此二者之間的差異可以被最大化。因此,該創(chuàng)新點可以有效增加鏡頭漸變對鏡頭內(nèi)攝像機或物體運動導致的干擾的魯棒性,在基于1幀時域間隔不相似算子的鏡頭漸變檢測基礎上,進一步增加了鏡頭漸變分割的精度。權利要求1、一種壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法,包括如下步驟1)首先在每個視頻鏡頭起始的位置,選擇若干視頻圖像幀構(gòu)建一個訓練樣本集,針對樣本集中的每幀視頻圖像,為其分別提取Y分量,Cb分量和Cr分量的DC圖像,并針對該樣本集中的每幀的三個分量的DC圖像,分別通過首尾連接每一個DC圖像的每一行,將二維圖像矩陣形式轉(zhuǎn)換為一維列向量形式,假設DC圖像的大小為h×w,通過首尾連接圖像的每一行,得到N=h×w維的圖像矢量Xk<mathsid="math0001"num="0001"><math><![CDATA[<mrow><msub><mi>X</mi><mi>k</mi></msub><mo>=</mo><msup><mrow><mo>[</mo><msubsup><mi>x</mi><mi>k</mi><mrow><mo>(</mo><mn>1,1</mn><mo>)</mo></mrow></msubsup><mo>,</mo><msubsup><mi>x</mi><mi>k</mi><mrow><mo>(</mo><mn>1,2</mn><mo>)</mo></mrow></msubsup><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><msubsup><mi>x</mi><mi>k</mi><mrow><mo>(</mo><mn>1</mn><mo>,</mo><mi>w</mi><mo>)</mo></mrow></msubsup><mo>,</mo><msubsup><mi>x</mi><mi>k</mi><mrow><mo>(</mo><mn>2,1</mn><mo>)</mo></mrow></msubsup><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><msubsup><mi>x</mi><mi>k</mi><mrow><mo>(</mo><mn>2</mn><mo>,</mo><mi>w</mi><mo>)</mo></mrow></msubsup><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><msubsup><mi>x</mi><mi>k</mi><mrow><mo>(</mo><mi>h</mi><mo>,</mo><mi>w</mi><mo>)</mo></mrow></msubsup><mo>]</mo></mrow><mi>T</mi></msup></mrow>]]></math></maths>假定選擇M個圖像矢量組成訓練樣本集,用矩陣P表示,這是一個N×M大小的矩陣,其中,N>>M,每一幀的圖像矢量作為該矩陣的列向量,P=[X1,X2,X3,......,XM-1,XM];2)針對步驟1)所構(gòu)建的DC圖像樣本集,進行主成份分析,計算得到該樣本集的特征值和相應的特征向量計算矩陣P的協(xié)方差矩陣,C=PPT對協(xié)方差矩陣C計算特征值λi和相應的特征向量ei;3)針對步驟2)所得到的特征向量,僅保留最大特征值對應的特征向量,由其構(gòu)造新的一維特征子空間,用矩陣φ表示,最大特征值對應的特征向量是其列向量,至此,通過訓練樣本集的主成份分析,成功構(gòu)建三個顏色分量Y,Cb和Cr對應的新特征子空間;4)接著,將樣本集之后的視頻圖像作為檢測幀,檢測鏡頭發(fā)生變化的位置,針對當前檢測圖像幀,從鏡頭起始位置處開始,分別針對Y分量、Cb分量、Cr分量三個色度分量,利用步驟1)所述的方法,分別提取各自的DC圖像,并且將各分量的DC圖像向步驟3)所構(gòu)造的各分量的特征子空間中進行投影,從而提取得到各分量的一維投影系數(shù),利用矩陣φ,視頻序列的每幀圖像Xk對應的矢量向該子空間進行投影,獲得一維投影系數(shù)YkYk=φTXk這里,k代表幀數(shù);5)根據(jù)步驟4)的結(jié)果,聯(lián)合Y分量、Cb分量、Cr分量三個色度分量對應的三個一維投影系數(shù),構(gòu)造特征集Vk=<YkY,YkCb,YkCr>;6)根據(jù)步驟5)所提取的特征集Vk,利用L1范數(shù),計算連續(xù)視頻幀的特征差異,用1幀時域間隔不相似性dk(Vk,Vk+1)代表<mathsid="math0002"num="0002"><math><![CDATA[<mrow><msub><mi>d</mi><mi>k</mi></msub><mrow><mo>(</mo><msub><mi>V</mi><mi>k</mi></msub><mo>,</mo><msub><mi>V</mi><mrow><mi>k</mi><mo>+</mo><mn>1</mn></mrow></msub><mo>)</mo></mrow><mo>=</mo><msqrt><msup><mrow><mo>(</mo><msup><msub><mi>Y</mi><mrow><mi>k</mi><mo>+</mo><mn>1</mn></mrow></msub><mi>Y</mi></msup><mo>-</mo><msup><msub><mi>Y</mi><mi>k</mi></msub><mi>Y</mi></msup><mo>)</mo></mrow><mn>2</mn></msup><mo>+</mo><msup><mrow><mo>(</mo><msup><msub><mi>Y</mi><mrow><mi>k</mi><mo>+</mo><mn>1</mn></mrow></msub><mi>Cb</mi></msup><mo>-</mo><msup><msub><mi>Y</mi><mi>k</mi></msub><mi>Cb</mi></msup><mo>)</mo></mrow><mn>2</mn></msup><mo>+</mo><msup><mrow><mo>(</mo><msup><msub><mi>Y</mi><mrow><mi>k</mi><mo>+</mo><mn>1</mn></mrow></msub><mi>Cr</mi></msup><mo>-</mo><msup><msub><mi>Y</mi><mi>k</mi></msub><mi>Cr</mi></msup><mo>)</mo></mrow><mn>2</mn></msup></msqrt></mrow>]]></math></maths>7)根據(jù)步驟6)計算得到的1幀時域間隔不相似性dk(Vk,Vk+1),基于滑動窗口的突變鏡頭分割準則,對當前幀是否為突變鏡頭進行判別,判斷準則包括a)當前幀的一維投影系數(shù)的絕對差是關于當前幀對稱的時間窗口中的最大值,即dk≥di,i=k-m+1,...,k-1,k+1,...,k+m-1這里,所述滑動窗口的大小Na=2m-1,其中,k代表當前幀的時間序號,m代表以當前幀為中心在時間域分別向前和向后移動的幀數(shù)。b)該時間窗口中,最大的絕對差值是第二大絕對差值的3~5倍,<mathsid="math0003"num="0003"><math><![CDATA[<mrow><mfrac><mrow><mi>max</mi><mo>{</mo><msub><mi>d</mi><mi>i</mi></msub><mo>|</mo><mi>i</mi><mo>=</mo><mi>k</mi><mo>-</mo><mi>m</mi><mo>+</mo><mn>1</mn><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><mi>k</mi><mo>-</mo><mn>1</mn><mo>,</mo><mi>k</mi><mo>,</mo><mi>k</mi><mo>+</mo><mn>1</mn><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><mi>k</mi><mo>+</mo><mi>m</mi><mo>-</mo><mn>1</mn><mo>}</mo></mrow><mrow><mover><mi>max</mi><mo>^</mo></mover><mo>{</mo><msub><mi>d</mi><mi>i</mi></msub><mo>|</mo><mi>i</mi><mo>=</mo><mi>k</mi><mo>-</mo><mi>m</mi><mo>+</mo><mn>1</mn><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><mi>k</mi><mo>-</mo><mn>1</mn><mo>,</mo><mi>k</mi><mo>,</mo><mi>k</mi><mo>+</mo><mn>1</mn><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mi>k</mi><mo>+</mo><mi>m</mi><mo>-</mo><mn>1</mn><mo>}</mo></mrow></mfrac><mo>=</mo><mn>3</mn><mo>~</mo><mn>5</mn></mrow>]]></math></maths>這里,max{·}表示最大的絕對差值,id="icf0004"file="A2009100907940003C3.tif"wi="11"he="6"top="183"left="91"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/>表示第二大的絕對差值,如果同時滿足上述兩個判別準則,則判斷為當前幀發(fā)生鏡頭突變,則停止對當前鏡頭變換的搜索,然后,將跳轉(zhuǎn)到所述步驟1),開始對新出現(xiàn)的相鄰的下一個鏡頭變換進行檢測,否則,將繼續(xù)執(zhí)行下面的步驟8);8)如果判斷出當前幀沒有發(fā)生鏡頭突變,則在以當前幀為對稱中心的滑動窗口內(nèi),針對步驟6)計算得到的1幀時域間隔不相似性dk(Vk,Vk+1)進行一維低通濾波,從而得到新的1幀時域間隔不相似特征,用于漸變鏡頭的判斷選擇另一個相對于當前幀對稱的一維時間滑動窗口,然后,利用一維低通濾波器作用于該時間窗口內(nèi)的1幀時域間隔不相似性dk(Vk,Vk+1),即di(i=k-n+1,...,k-1,k,k+1,...k+n-1),并從得到的低通濾波結(jié)果中,選取其中的最大值作為當前幀新的檢測特征bk,用于漸變鏡頭的檢測,bk=max{Bi|i=k-n+1,...,k-1,k,k+1,...,k+n-1}這里,滑動窗口大小Ng=2n-1,而Bi表示時間窗口內(nèi)各元素的低通濾波結(jié)果,n代表以當前幀為中心在時間域分別向前和向后移動的幀數(shù);9)根據(jù)步驟8)所提取的1幀時域間隔不相似特征bk,通過基于以當前幀為對稱中心的滑動窗口方法,為當前幀提取出表征漸變特性的兩個參數(shù)前向比率Rf(k)和后向比率Rb(k),假設當前幀k的前向窗口和后向窗口大小分別為Nf和Nb,則前向窗口的均值和后向窗口的均值分別為<mathsid="math0004"num="0004"><math><![CDATA[<mrow><msub><mover><mi>M</mi><mo>&OverBar;</mo></mover><mi>f</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow><mo>=</mo><mfrac><mn>1</mn><msub><mi>N</mi><mi>f</mi></msub></mfrac><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mi>k</mi><mo>-</mo><mn>1</mn></mrow><mrow><mi>k</mi><mo>-</mo><msub><mi>N</mi><mi>f</mi></msub></mrow></munderover><msub><mi>b</mi><mi>i</mi></msub></mrow>]]></math></maths><mathsid="math0005"num="0005"><math><![CDATA[<mrow><msub><mover><mi>M</mi><mo>&OverBar;</mo></mover><mi>b</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow><mo>=</mo><mfrac><mn>1</mn><msub><mi>N</mi><mi>b</mi></msub></mfrac><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mi>k</mi><mo>+</mo><mn>1</mn></mrow><mrow><mi>k</mi><mo>+</mo><msub><mi>N</mi><mi>b</mi></msub></mrow></munderover><msub><mi>b</mi><mi>i</mi></msub></mrow>]]></math></maths>其中,Mf(k)為前向窗口的均值,而Mb(k)為后向窗口的均值,由此,分別通過下述公式計算得到前向比率Rf(k)和后向比率Rb(k)<mathsid="math0006"num="0006"><math><![CDATA[<mrow><msub><mi>R</mi><mi>f</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow><mo>=</mo><mfrac><msub><mi>b</mi><mi>k</mi></msub><mrow><msub><mover><mi>M</mi><mo>&OverBar;</mo></mover><mi>f</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow></mrow></mfrac></mrow>]]></math></maths><mathsid="math0007"num="0007"><math><![CDATA[<mrow><msub><mi>R</mi><mi>b</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow><mo>=</mo><mfrac><msub><mi>b</mi><mi>k</mi></msub><mrow><msub><mover><mi>M</mi><mo>&OverBar;</mo></mover><mi>b</mi></msub><mrow><mo>(</mo><mi>k</mi><mo>)</mo></mrow></mrow></mfrac><mo>;</mo></mrow>]]></math></maths>10)根據(jù)步驟9)所提取的兩個表征參數(shù)前向比率Rf(k)和后向比率Rb(k),根據(jù)下述決策準則確定用來檢測候選的鏡頭漸變,用于檢測候選的鏡頭漸變的決策準則包括a)鏡頭漸變引起的局部曲線峰的起始幀的前向比率Rf(k)通常高于自適應閾值Tp,而同時它的后向比率Rb(k)通常低于自適應閾值Tp,與此同時,起始幀的前向比率Rf(k)是一個局部極大值;b)鏡頭漸變引起的局部曲線峰的結(jié)束幀的前向比率Rf(k)通常低于自適應閾值Tp,而同時它的后向比率Rb(k)通常高于自適應閾值Tp,與此同時,結(jié)束幀的后向比率Rb(k)是一個局部極大值;c)鏡頭漸變引起的局部曲線峰持續(xù)階段,視頻幀的前向比率Rf(k)和后向比率Rb(k)通常均低于自適應閾值;滿足上述三個準則的局部曲線峰作為候選鏡頭漸變,繼續(xù)執(zhí)行下面的步驟11),來最終判定其是否為真正的鏡頭漸變;11)根據(jù)步驟10)所得到的作為候選鏡頭漸變引起的局部曲線峰,自適應地確定出當前漸變鏡頭的時域長度,進行N幀視域間隔的不相似性度量,分別對局部曲線峰的起始幀和結(jié)束幀直接在壓縮域內(nèi)提取紋理特征圖,利用圖像幀在壓縮域中基于塊DCT系數(shù)中的AC系數(shù),并且是左上角的三個AC系數(shù),即X(0,1),X(1,0)和X(1,1),由此,AC能量圖下述公式計算得到<mathsid="math0008"num="0008"><math><![CDATA[<mrow><msub><mi>E</mi><mi>ac</mi></msub><mo>=</mo><mfrac><mn>1</mn><mn>3</mn></mfrac><mrow><mo>(</mo><mo>|</mo><mi>X</mi><mrow><mo>(</mo><mn>0,1</mn><mo>)</mo></mrow><mo>|</mo><mo>+</mo><mo>|</mo><mi>X</mi><mrow><mo>(</mo><mn>1,0</mn><mo>)</mo></mrow><mo>|</mo><mo>+</mo><mo>|</mo><mi>X</mi><mrow><mo>(</mo><mn>1,1</mn><mo>)</mo></mrow><mo>|</mo><mo>)</mo></mrow></mrow>]]></math></maths>然后,針對該AC能量圖Eac通過下述公式進行二值化處理<mathsid="math0009"num="0009"><math><![CDATA[<mrow><msub><mi>MAP</mi><mi>texture</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mfencedopen='{'close=''><mtable><mtr><mtd><mn>1</mn><mo>,</mo><mi>if</mi><msub><mi>E</mi><mi>ac</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>></mo><mfrac><mn>1</mn><mi>hw</mi></mfrac><munderover><mi>&Sigma;</mi><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>h</mi></munderover><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>w</mi></munderover><mo>|</mo><msub><mi>E</mi><mi>ac</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>|</mo><mo>;</mo></mtd></mtr><mtr><mtd><mn>0</mn><mo>,</mo><mi>other</mi><mo>;</mo></mtd></mtr></mtable></mfenced></mrow>]]></math></maths>針對二值化的紋理特征圖MAPtexture利用數(shù)學形態(tài)學的閉操作與開操作進行后處理,提取到最終的紋理特征圖;12)根據(jù)步驟11)所得到的起始幀和結(jié)束幀的紋理特征圖,通過相似性度量方法對局部曲線峰的起始幀和結(jié)束幀進行相似程度比較,如果該兩幀的相似程度較高,則判斷為該局部曲線峰沒有發(fā)生鏡頭漸變,相似性度量算子如下述公式所示<mathsid="math0010"num="0010"><math><![CDATA[<mrow><mi>S</mi><mo>=</mo><mfrac><mrow><mi>&Sigma;</mi><msub><mi>MAP</mi><mi>texture</mi></msub><mrow><mo>(</mo><mi>start</mi><mo>_</mo><mi>frame</mi><mo>)</mo></mrow><mo>&cap;</mo><msub><mi>MAP</mi><mi>texture</mi></msub><mrow><mo>(</mo><mi>end</mi><mo>_</mo><mi>frame</mi><mo>)</mo></mrow></mrow><mrow><mi>&Sigma;</mi><msub><mi>MAP</mi><mi>texture</mi></msub><mrow><mo>(</mo><mi>start</mi><mo>_</mo><mi>frame</mi><mo>)</mo></mrow><mo>&cup;</mo><msub><mi>MAP</mi><mi>textue</mi></msub><mrow><mo>(</mo><mi>end</mi><mo>_</mo><mi>frame</mi><mo>)</mo></mrow></mrow></mfrac></mrow>]]></math></maths>如果相似度S高于設定的閾值,則判斷為該局部曲線峰沒有鏡頭漸變發(fā)生,則返回所述步驟4),開始對下一個檢測幀的操作,反之,如果相似度S小于等于設定的閾值,則判定發(fā)生鏡頭漸變,從而返回所述步驟1),開始下一個鏡頭變換的檢測。2、如權利要求l所述的壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法,其特征在于,所述步驟l)中,針對所述樣本集中的每幀視頻圖像,從MPEG壓縮視頻流中,直接提取基于塊DCT系數(shù)中的DC系數(shù),并由DC系數(shù)構(gòu)造每幀的Y分量,Cb分量和Cr分量的DC圖像。3、如權利要求l所述的壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法,其特征在于,所述步驟2)中,對所述矩陣尸的協(xié)方差矩陣c-尸f計算特征值;i,.和相應的特征向量e,.時,采用如下方法進行用矩陣^代替原先的矩陣C,從矩陣5中計算特征值和相應的特征向量,矩陣6的大小為MxM,其遠遠小于矩陣C的大小,而矩陣C的Z個特征值a與相應的特征向量e,.則通過下述公式從矩陣5的i:個特征值《和特征向量;分別計算得到,義,=a&=p,這里,/=1,2,......,丄,且i《M。4、如權利要求l所述的壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法,其特征在于,所述步驟IO)中,所述當前幀檢測的屬性鏡頭內(nèi)、候選鏡頭漸變的起始幀、候選鏡頭漸變期間、候選鏡頭漸變的結(jié)束幀,如果當前檢測幀不能夠滿足所述a)準則,則判斷其屬于鏡頭內(nèi)的情況;如果當前檢測幀能夠滿足所述a)準則,則其之后的圖像幀若同時滿足c)準則,那么當前檢測幀判斷為候選漸變鏡頭的起始幀;在此期間,如果還沒遇到一個檢測幀能夠滿足所述b)準則之前,遇到一個檢測幀滿足第一個準則,則當前幀就被判斷屬于鏡頭內(nèi)。5、如權利要求l所述的壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法,其特征在于,所述步驟IO)中,所自適應閾值7;設定為1.22.0。6、如權利要求l所述的壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法,其特征在于,所述步驟11)中,只針對局部曲線峰的起始幀和結(jié)束幀提取紋理特征圖,并且,將局部曲線峰的起始幀向前遇到的第一個I幀作為起始幀,而結(jié)束幀向后遇到的第一個I幀作為結(jié)束幀,針對這兩個I幀提取紋理特征圖,以便于直接從壓縮域中提取AC系數(shù)。7、如權利要求l所述的壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割方法,其特征在于,所述步驟12)中,相似度5的設定閾值為50%70%。8、一種壓縮域視頻鏡頭突變與漸變聯(lián)合自動分割系統(tǒng),利用權利要求17中任意一項所述的方法進行分割,其特征在于,包括特征提取模塊、不相似性度量模塊、突變鏡頭分割模塊以及漸變鏡頭分割模塊,所述特征提取模塊,用于分別為一幀時間間隔與N幀時間間隔不相似度量算子提取PCA特征和紋理特征,該模塊包括兩個子模塊基于主成份分析的特征提取子模塊和紋理特征提取子模塊,其中,所述基于主成份分析的特征提取子模塊用于直接在壓縮域通過主成份分析方法提取一維PCA特征,用于一幀時間間隔的不相似性度量;所述紋理特征提取子模塊用于直接在壓縮域提取紋理特征,用于N幀時間間隔的不相似性度量;所述不相似性度量模塊,用于通過設計不同的算子分別計算一幀時間間隔與N幀時間間隔的不相似性,該模塊包括兩個子模塊Ll-norm算子計算模塊和相似性比例算子計算模塊,其中,所述Ll-norm算子計算模塊用于計算一幀時間間隔的不相似性,計算結(jié)果直接用于突變鏡頭分割,經(jīng)過濾波后用于漸變鏡頭分割;所述相似性比例算子計算模塊用于漸變鏡頭分割的第二個階段的判斷;所述突變鏡頭分割模塊,用于通過設計的相應分割算法來分割突變鏡頭;所述漸變鏡頭分割模塊,用于通過設計兩階段分割算法來分割漸變鏡頭,該模塊包括兩個子模塊候選漸變鏡頭檢測子模塊和真正漸變鏡頭判別子模塊,其中,所述候選漸變鏡頭檢測子模塊用于通過1幀時間域不相似性度量檢測候選漸變鏡頭;所述真正漸變鏡頭判別子模塊用于針對候選漸變鏡頭,通過N幀時間域不相似性度量判斷其是否為真正的漸變鏡頭。全文摘要本發(fā)明提供一種壓縮域視頻鏡頭突變和漸變聯(lián)合自動分割方法及系統(tǒng)。針對影響鏡頭分割性能三個因素特征提取、不相似性度量以及分割準則,提出基于主成份分析的視頻特征提取方法以及壓縮域構(gòu)建紋理特征圖的方法;其次,提出時間域多尺度的不相似性度量方法;根據(jù)可有效特征化鏡頭變化的局部特性的參數(shù)提出基于自適應閾值的方法,通過1-幀時域間隔的不相似性度量算子,自適應確定出N-幀時間域間隔的長度;并為突變和漸變鏡頭設計出不相似性度量算子和有效的判別準則。本發(fā)明通過全面考慮影響鏡頭分割性能三個因素,能夠有效增強鏡頭分割算法對鏡頭內(nèi)攝像機或物體運動干擾的魯棒性,抗噪性能強、快速、準確、誤檢率低,極大提高鏡頭的分割性能。文檔編號G06T7/00GK101650830SQ20091009079公開日2010年2月17日申請日期2009年8月6日優(yōu)先權日2009年8月6日發(fā)明者侯朝煥,劉明剛,王東輝,鄢社鋒,麗高申請人:中國科學院聲學研究所
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
东山县| 石柱| 临邑县| 星子县| 乌兰察布市| 兴隆县| 白山市| 嘉鱼县| 玉环县| 灵台县| 莱阳市| 石城县| 夹江县| 新蔡县| 酒泉市| 潮安县| 霞浦县| 鹿泉市| 龙口市| 望城县| 全椒县| 苍溪县| 航空| 巢湖市| 莒南县| 缙云县| 专栏| 宕昌县| 潍坊市| 临泽县| 仪征市| 汾阳市| 林西县| 全南县| 行唐县| 大石桥市| 枝江市| 望城县| 德惠市| 吉安县| 平定县|