本發(fā)明涉及一種基于超像素的復(fù)雜場景下的目標(biāo)跟蹤方法。
背景技術(shù):
視頻中的目標(biāo)跟蹤技術(shù)屬于視頻圖像處理的關(guān)鍵技術(shù)。它涉及到計(jì)算機(jī)視覺、模式識別以及人工智能等領(lǐng)域,具有重要的理論意義?,F(xiàn)實(shí)生活中的場景大多數(shù)會發(fā)生變化,而現(xiàn)有很多目標(biāo)跟蹤算法無法滿足現(xiàn)實(shí)復(fù)雜場景中的目標(biāo)跟蹤。基于復(fù)雜場景的目標(biāo)跟蹤,需要綜合考慮視頻序列中,所要跟蹤的目標(biāo)周圍環(huán)境以及付目標(biāo)本身的一系列復(fù)雜變化,包括目標(biāo)擋、目標(biāo)丟失、光照變化、目標(biāo)快速運(yùn)動、目標(biāo)姿態(tài)變化、目標(biāo)尺度變化等一系列復(fù)雜因素。跟蹤失效是復(fù)雜場景中目標(biāo)跟蹤面臨的主要問題。例如,基于紋理特征的跟蹤,如LBP、Haar特征等,可以區(qū)分背景和目標(biāo),但是卻對目標(biāo)丟失和快速移動時(shí)的處理能力有限,而基于顏色特征的跟蹤雖然可以使用局部直方圖解決部分問題,但是卻對尺度變化和姿態(tài)變化有較低的抵抗力。使用基于紋理特征與顏色特征相融合的方式可以在一定程度上緩解單獨(dú)使用時(shí)的缺陷,但是,在復(fù)雜場景下,這兩種特征并不能完全區(qū)分背景和目標(biāo),導(dǎo)致了在目標(biāo)運(yùn)動速度較快或模糊情況下,依然無法精確跟蹤。超像素是一種新的像素表示方法。它將圖像中那些相近相似的像素點(diǎn)聚集起來,分別用一個集合來表示。超像素對圖像的邊界有較高的附著率,在圖像分割中有較廣泛的應(yīng)用。由上海大學(xué)的寇超、白琮、陳泉林、王華紅、王少波發(fā)明的《復(fù)雜場景中單個人臉的實(shí)時(shí)跟蹤方法》2008年9月24日向中國國家知識產(chǎn)權(quán)局申請專利并獲得批準(zhǔn),于2009年3月4日公開,公開號為:CN101377813。該技術(shù)方案涉及人機(jī)交互界面以及視頻監(jiān)控領(lǐng)域,特別是對復(fù)雜場景中單個人臉的實(shí)時(shí)追蹤。該方案以人臉檢測的二值化結(jié)果表征圖像中像素類膚色的概率,并以此為特征對人臉進(jìn)行跟蹤,可以在具有較低計(jì)算量的同時(shí)對復(fù)雜場景中人臉的旋轉(zhuǎn)、傾斜等成功實(shí)現(xiàn)跟蹤,當(dāng)失敗后也能自動重新進(jìn)行,且對諸如手部類區(qū)域的干擾不明顯。該專利在使用均值偏移方法進(jìn)行人臉跟蹤時(shí),考慮到了其對于膚色不敏感的缺陷,首先通過人臉檢測檢測到人臉,然后消除人臉的類膚色特征,保證高效率的同時(shí)又可以對顏色相似的背景免疫。但是,該算法過于依賴人臉檢測的結(jié)果,若檢測的結(jié)果并不理想,則整個算法也基本失效;其次,復(fù)雜場景下,可能包括光照、尺度、目標(biāo)動作的變化等,該方法只考慮到了目標(biāo)動作的變化,并未涉及到其他因素;此外,該算法使用均值偏移作為跟蹤算法,并未解決均值偏移在目標(biāo)運(yùn)動速度過快時(shí)跟蹤失敗的情況,難以應(yīng)用于復(fù)雜場景的跟蹤。由湖南大學(xué)的王耀南、萬琴、王磊發(fā)明的《一種復(fù)雜場景中的運(yùn)動目標(biāo)檢測與跟蹤方法》2007年8月28日向中國國家知識產(chǎn)權(quán)局申請專利并獲得批準(zhǔn),于2008年3月12日公開,公開號為:CN101141633。該發(fā)明采用“匹配矩陣”的方法來確定目標(biāo)的運(yùn)動狀態(tài),并根據(jù)目標(biāo)不同運(yùn)動情況采取相應(yīng)跟蹤策略,同時(shí)可以針對多目標(biāo)互相遮擋問題,通過概率推理方法“恢復(fù)”目標(biāo)信息,在多目標(biāo)跟蹤下游較好的效果。但是,若按單個目標(biāo)來處理的話,該發(fā)明并沒有過多的考慮除遮擋意外的情況,如光照、尺度變化等。在視頻中進(jìn)行目標(biāo)跟蹤時(shí),圖像特征的選擇一般有兩種:1)紋理特征;2)顏色特征。基于紋理特征的跟蹤可以區(qū)分目標(biāo)和背景,但是對于嚴(yán)重的遮擋和邊緣混亂的處理能力有限?;陬伾卣鞯母櫩梢允褂镁植恐狈綀D來解決部分遮擋問題,卻無法解決尺度變化、形狀變化很大或目標(biāo)與背景相近的情況。因此,復(fù)雜場景中的目標(biāo)跟蹤最好融合兩種特征。JifengNing、LeiZhang等人在《RobustObjectTrackingUsingJointColor-TextureHistogram》中提出,在由局部直方圖標(biāo)記出目標(biāo)后,在目標(biāo)中使用局部二值模式技術(shù)來再次提取特征。與常規(guī)方法不同的是,該方法在目標(biāo)區(qū)域的邊緣處提取特征,可以更好的表示目標(biāo),將兩種特征融合后采用均值偏移的方法進(jìn)行跟蹤,具有很強(qiáng)的魯棒性。該方法采用顏色特征與紋理特征相融合的方式對目標(biāo)進(jìn)行跟蹤,很大程度上解決了目標(biāo)與背景相似情況下的跟蹤問題。但是,由于局部二值模式不能完全將目標(biāo)與背景分開,在目標(biāo)運(yùn)動速度較快,或目標(biāo)模糊的情況下,容易發(fā)生跟丟現(xiàn)象。同時(shí),標(biāo)準(zhǔn)的局部二值模式很難處理光照變化情況。
技術(shù)實(shí)現(xiàn)要素:
鑒于上述不足之處,本方案發(fā)明目的在于:提出一種基于超像素的復(fù)雜場景下的目標(biāo)跟蹤方法。在目標(biāo)跟蹤時(shí),由于超像素作為圖像分割的常用方法,使得每一塊超像素都可以很好的附著在對象上(即將圖像按邊界分割出很多塊),同時(shí)又保留了顏色特征,克服了上述紋理特征與顏色特征融合時(shí)的缺陷,使紋理特征和顏色特征更好的融合在一起為了達(dá)到上述目的,本發(fā)明采用了以下技術(shù)方案:步驟1:初始化參數(shù),取視頻流中的前m幀圖像作為訓(xùn)練集,m可取3-6:步驟1.1:選擇目標(biāo)所在區(qū)域,對該區(qū)域進(jìn)行超像素分割:步驟1.1.1:在目標(biāo)區(qū)域中隨機(jī)選擇k個點(diǎn)作為超像素的中心點(diǎn),也叫超像素的聚類中心CK:CK=[lk,ak,bk,xk,yk]T在每個大小規(guī)則的方框S中取樣像素,lk、ak、bk是CIELAB顏色空間中的參數(shù),此顏色空間最為接近人類的視覺,它的lk分量即亮度??梢孕薷腶k(紅綠值)和bk(藍(lán)黃值)分量的輸出色階來做精確的顏色平衡,與RGB空間相比在精確度更高。xk、yk表示點(diǎn)的坐標(biāo)。S可以取其中N為超像素的個數(shù)。k的值可以由用戶根據(jù)跟蹤的效果自行選擇,一般為300-500之間。步驟1.1.2:將CK移動到3×3的相鄰像素中梯度值最低的位置,以防選擇的聚類中心點(diǎn)落在圖像的邊緣,影響聚類效果;步驟1.1.3:對圖像中的每一個像素設(shè)置標(biāo)記label(i)為-1,與相近的聚類中心的歐式距離d(i)為無窮大,為了提高運(yùn)算效率,節(jié)省時(shí)間,對于圍繞在每一個聚類中心CK的2S×2S區(qū)域內(nèi)的像素i,重復(fù)1.1.4-1.1.5步驟:步驟1.1.4:計(jì)算像素i與聚類中心CK的歐式距離D;步驟1.1.5:若D<d(i)置d(i)為D,label(i)為k;表示每一個像素對自身周圍的聚類中心求歐式距離,取歐式距離最小的那個聚類中心為自己的類別;步驟1.1.6:重復(fù)1.1.2,選擇新的聚類中心并計(jì)算殘留誤差E,殘留誤差表示為同一個超像素的聚類中心,經(jīng)過兩次迭代后的歐氏距離,E小于一定的閾值,即提取完全部超像素。取所有超像素殘留誤差的最大值,這個最大值小于一定閾值即可停止。步驟1.2:提取超像素特征作為訓(xùn)練集:步驟1.2.1:每一個超像素可以表示為:sp(t,r)表示在t幀時(shí)第r個超像素,可用ftr表示。步驟1.2.2:取m張圖片構(gòu)成訓(xùn)練集,m一般可取3-5。用一個特征向量F={ftr|t=1,...,m,r=1,...,Nt},來表示一個這個訓(xùn)練集所有的超像素;在特征空間中,設(shè)每個超像素的聚類中心為fc(i),半徑為rc(i),則有{ftr|ftr∈C(k)}。步驟1.2.3:假設(shè)訓(xùn)練集中的每一個聚類中心對應(yīng)一個圖像區(qū)域S(i),可以設(shè)S+(i)為第i個超像素在目標(biāo)區(qū)域內(nèi)的大小,S-(i)為第i個超像素在目標(biāo)區(qū)域外的大小,此大小即為像素的數(shù)量。若S+(i)/S-(i)的值越大,則說明該超像素屬于目標(biāo)的可能性就越大。計(jì)算通過以下公式即可得到一個超像素的聚類中心處于背景或目標(biāo)的可能性大小:由聚類中心fc(i)、半徑rc(i)和每一個超像素的像素成員{ftr|ftr∈C(k)}構(gòu)成基于超像素的外觀模型,即目標(biāo)的表示方法。步驟2:由貝葉斯理論可得知,由于兩幀圖像之間相互獨(dú)立,設(shè)Xt為t時(shí)刻的狀態(tài),Y1:t為從第一幀到最后一幀的狀態(tài),有p(Xt|Y1:t)=αp(Yt|Xt)∫p(Xt|Xt-1)p(Xt-t|Y1:t-1)dXt-1令其中表示t時(shí)刻目標(biāo)的位置,表示t時(shí)刻目標(biāo)的尺度。根據(jù)貝葉斯跟蹤公式可知,關(guān)鍵是要得到觀察模型(即當(dāng)前幀目標(biāo)的概率p(Xt|Yt))和動作模型(即上一幀目標(biāo)的概率p(Xt|Xt-1)),從m+1幀開始直到最后一幀做如下步驟:步驟2.1:找到上一幀的目標(biāo)區(qū)域,重復(fù)上述步驟,采用超像素進(jìn)行分割,提取超像素特征;步驟2.2:計(jì)算超像素的置信圖。置信圖是由每個超像素的置信值構(gòu)成。超像素的置信值表示每個超像素屬于目標(biāo)的可能性大小,置信值越大,超像素屬于目標(biāo)的可能性就越大:步驟2.2.1:每一個超像素的置信值可以由兩個因素確定:1)超像素的聚類中心屬于背景還是目標(biāo);2)當(dāng)前超像素與訓(xùn)練集的特征空間中超像素的聚類中心的距離。若當(dāng)前超像素是訓(xùn)練集的特征空間中的超像素,那么就認(rèn)為它與訓(xùn)練集中超像素相同。換句話說,若訓(xùn)練集中的超像素屬于背景,則當(dāng)前的超像素也屬于背景。若當(dāng)前超像素不是訓(xùn)練集的特征空間的超像素,那么引入一個權(quán)重系數(shù),表示若該超像素的聚類中心離特征空間中的聚類中心越遠(yuǎn),則與特征空間中的超像素的歸屬越不同的可能性越大。超像素的置信值計(jì)算如下:其中,w(r,i)表示權(quán)重系數(shù),-λd是一個常數(shù),可取2。為t幀時(shí)的第r個超像素的置信值。步驟2.3:通過上一幀得到的置信圖,取N個區(qū)域作為目標(biāo)的候選區(qū)域:步驟2.3.1:在目標(biāo)區(qū)域中截取4個同樣大小的窗口找到窗口內(nèi)所有置信值之和最高與最低的各2個超像素樣本。步驟2.3.2:假設(shè)動作模型服從高斯分布,計(jì)算動作模型:p(Xt|Xt-1)=N(Xt;Xt-1,ψ)其中,ψ是一個對角線協(xié)方差矩陣,其中的元素為目標(biāo)的位置和尺度的標(biāo)準(zhǔn)差。步驟2.3.3:為了適應(yīng)圖像的尺度變化,為每一個超像素的置信值加入一個權(quán)重系數(shù):其中,S(Xt)表示Xt區(qū)域中,跟蹤目標(biāo)的區(qū)域大小。步驟2.3.4:將所有最終的進(jìn)行歸一化處理。步驟2.4:基于貝葉斯理論,可以得到當(dāng)前幀目標(biāo)所在區(qū)域的概率:步驟2.4.1:計(jì)算觀察模型:其中,表示每一個樣本的標(biāo)準(zhǔn)化置信值。步驟2.4.2:有了動作模型和觀察模型以后,計(jì)算目標(biāo)最可能存在的區(qū)域:步驟2.5:更新訓(xùn)練集和外觀模型:步驟2.5.1:每播放U幀圖像以后,將訓(xùn)練集中最老的一幀圖像丟棄,將新的一幀加入到訓(xùn)練集中,U通??蔀?0;步驟2.5.2:為了抵御小幅度遮擋、丟失或模糊現(xiàn)象,采用如下計(jì)算公式:其中,μc是訓(xùn)練集中的目標(biāo)區(qū)域內(nèi)所有超像素置信值的平均值。公式中的分子表示當(dāng)前推測出的目標(biāo)區(qū)域與平均置信值之間的差別,分母表示了一個標(biāo)準(zhǔn)化的區(qū)域,值為[-1,1]。若推測出的最大置信值遠(yuǎn)比訓(xùn)練集中保存的置信值平均值小,則出現(xiàn)了嚴(yán)重的遮擋和丟失現(xiàn)象。為了防止這種情況的發(fā)生,上一幀圖像得到的Xt-1,同時(shí)保留訓(xùn)練集中的圖像不動,直到再次尋找到目標(biāo)。步驟2.5.3:解決模糊幀跟蹤丟失現(xiàn)象:由于目標(biāo)區(qū)域是被分割成了多個超像素塊,由步驟2.1可知,通過訓(xùn)練集即觀察模型即可將背景和目標(biāo)區(qū)分開來,當(dāng)模糊幀出現(xiàn)時(shí),通過置信圖來獲取目標(biāo)的位置,即可穩(wěn)定的對對象進(jìn)行跟蹤。步驟2.6:重復(fù)步驟2.1至2.5,直到處理完所有視頻序列。本發(fā)明的有益效果在于:(1)使用k-means聚類超像素,縮小需要計(jì)算的圖像區(qū)域,減少計(jì)算量。(2)超像素的聚類算法得到的超像素大小十分平均,且邊界附著率較高。(3)步驟2.5.3解決了在視頻序列中存在模糊幀的情況下,跟蹤失敗的情況。本發(fā)明采用超像素的提取方法,可以快速提取出高質(zhì)量的超像素,同時(shí)本發(fā)明基于超像素特征進(jìn)行跟蹤,首次提出了可以對在視頻中的模糊幀進(jìn)行跟蹤,更適用于復(fù)雜場景下精度要求較高的目標(biāo)跟蹤,不僅可以抵御多種復(fù)雜環(huán)境,如光照變化、目標(biāo)姿態(tài)變化、尺度變化、目標(biāo)遮擋等,而且當(dāng)視頻序列中有模糊幀時(shí),仍然能精確跟蹤。具體實(shí)施方式一種基于超像素的復(fù)雜場景下的目標(biāo)跟蹤方法,包括以下步驟:步驟1:初始化參數(shù),取視頻流中的前m幀圖像作為訓(xùn)練集,m取3-6:步驟1.1:選擇目標(biāo)所在區(qū)域,對該區(qū)域進(jìn)行超像素分割:步驟1.1.1:在目標(biāo)區(qū)域中隨機(jī)選擇k個點(diǎn)作為超像素的中心點(diǎn),也叫超像素的聚類中心CK:CK=[lk,ak,bk,xk,yk]T在每個大小規(guī)則的方框S中取樣像素,lk、ak、bk是CIELAB顏色空間中的參數(shù),此顏色空間最為接近人類的視覺,它的lk分量即亮度??梢孕薷腶k(紅綠值)和bk(藍(lán)黃值)分量的輸出色階來做精確的顏色平衡,與RGB空間相比在精確度更高。xk、yk表示點(diǎn)的坐標(biāo)。S可以取其中N為超像素的個數(shù)。k的值可以由用戶根據(jù)跟蹤的效果自行選擇,一般為300-500之間。步驟1.1.2:將CK移動到3×3的相鄰像素中梯度值最低的位置,以防選擇的聚類中心點(diǎn)落在圖像的邊緣,影響聚類效果;步驟1.1.3:對圖像中的每一個像素設(shè)置標(biāo)記label(i)為-1,與相近的聚類中心的歐式距離d(i)為無窮大,為了提高運(yùn)算效率,節(jié)省時(shí)間,對于圍繞在每一個聚類中心CK的2S×2S區(qū)域內(nèi)的像素i,重復(fù)1.1.4-1.1.5步驟:步驟1.1.4:計(jì)算像素i與聚類中心CK的歐式距離D;步驟1.1.5:若D<d(i)置d(i)為D,label(i)為k;表示每一個像素對自身周圍的聚類中心求歐式距離,取歐式距離最小的那個聚類中心為自己的類別;步驟1.1.6:重復(fù)1.1.2,選擇新的聚類中心并計(jì)算殘留誤差E,殘留誤差表示為同一個超像素的聚類中心,經(jīng)過兩次迭代后的歐氏距離,E小于一定的閾值,即提取完全部超像素。取所有超像素殘留誤差的最大值,這個最大值小于一定閾值即可停止。步驟1.2:提取超像素特征作為訓(xùn)練集:步驟1.2.1:每一個超像素可以表示為:sp(t,r)表示在t幀時(shí)第r個超像素,可用ftr表示。步驟1.2.2:取m張圖片構(gòu)成訓(xùn)練集,m一般可取3-5。用一個特征向量F={ftr|t=1,...,m,r=1,...,Nt},來表示一個這個訓(xùn)練集所有的超像素;在特征空間中,設(shè)每個超像素的聚類中心為fc(i),半徑為rc(i),則有{ftr|ftr∈C(k)}。步驟1.2.3:假設(shè)訓(xùn)練集中的每一個聚類中心對應(yīng)一個圖像區(qū)域S(i),可以設(shè)S+(i)為第i個超像素在目標(biāo)區(qū)域內(nèi)的大小,S-(i)為第i個超像素在目標(biāo)區(qū)域外的大小,此大小即為像素的數(shù)量。若S+(i)/S-(i)的值越大,則說明該超像素屬于目標(biāo)的可能性就越大。計(jì)算通過以下公式即可得到一個超像素的聚類中心處于背景或目標(biāo)的可能性大?。河删垲愔行膄c(i)、半徑rc(i)和每一個超像素的像素成員{ftr|ftr∈C(k)}構(gòu)成基于超像素的外觀模型,即目標(biāo)的表示方法。步驟2:由貝葉斯理論可得知,由于兩幀圖像之間相互獨(dú)立,設(shè)Xt為t時(shí)刻的狀態(tài),Y1:t為從第一幀到最后一幀的狀態(tài),有p(Xt|Y1:t)=αp(Yt|Xt)∫p(Xt|Xt-1)p(Xt-t|Y1:t-1)dXt-1令其中表示t時(shí)刻目標(biāo)的位置,表示t時(shí)刻目標(biāo)的尺度。根據(jù)貝葉斯跟蹤公式可知,關(guān)鍵是要得到觀察模型(即當(dāng)前幀目標(biāo)的概率p(Xt|Yt))和動作模型(即上一幀目標(biāo)的概率p(Xt|Xt-1)),從m+1幀開始直到最后一幀做如下步驟:步驟2.1:找到上一幀的目標(biāo)區(qū)域,重復(fù)上述步驟,采用超像素進(jìn)行分割,提取超像素特征;步驟2.2:計(jì)算超像素的置信圖。置信圖是由每個超像素的置信值構(gòu)成。超像素的置信值表示每個超像素屬于目標(biāo)的可能性大小,置信值越大,超像素屬于目標(biāo)的可能性就越大:步驟2.2.1:每一個超像素的置信值可以由兩個因素確定:1)超像素的聚類中心屬于背景還是目標(biāo);2)當(dāng)前超像素與訓(xùn)練集的特征空間中超像素的聚類中心的距離。若當(dāng)前超像素是訓(xùn)練集的特征空間中的超像素,那么就認(rèn)為它與訓(xùn)練集中超像素相同。換句話說,若訓(xùn)練集中的超像素屬于背景,則當(dāng)前的超像素也屬于背景。若當(dāng)前超像素不是訓(xùn)練集的特征空間的超像素,那么引入一個權(quán)重系數(shù),表示若該超像素的聚類中心離特征空間中的聚類中心越遠(yuǎn),則與特征空間中的超像素的歸屬越不同的可能性越大。超像素的置信值計(jì)算如下:其中,w(r,i)表示權(quán)重系數(shù),-λd是一個常數(shù),可取2。為t幀時(shí)的第r個超像素的置信值。步驟2.3:通過上一幀得到的置信圖,取N個區(qū)域作為目標(biāo)的候選區(qū)域:步驟2.3.1:在目標(biāo)區(qū)域中截取4個同樣大小的窗口找到窗口內(nèi)所有置信值之和最高與最低的各2個超像素樣本。步驟2.3.2:假設(shè)動作模型服從高斯分布,計(jì)算動作模型:p(Xt|Xt-1)=N(Xt;Xt-1,ψ)其中,ψ是一個對角線協(xié)方差矩陣,其中的元素為目標(biāo)的位置和尺度的標(biāo)準(zhǔn)差。步驟2.3.3:為了適應(yīng)圖像的尺度變化,為每一個超像素的置信值加入一個權(quán)重系數(shù):其中,S(Xt)表示Xt區(qū)域中,跟蹤目標(biāo)的區(qū)域大小。步驟2.3.4:將所有最終的進(jìn)行歸一化處理。步驟2.4:基于貝葉斯理論,可以得到當(dāng)前幀目標(biāo)所在區(qū)域的概率:步驟2.4.1:計(jì)算觀察模型:其中,表示每一個樣本的標(biāo)準(zhǔn)化置信值。步驟2.4.2:有了動作模型和觀察模型以后,計(jì)算目標(biāo)最可能存在的區(qū)域:步驟2.5:更新訓(xùn)練集和外觀模型:步驟2.5.1:每播放U幀圖像以后,將訓(xùn)練集中最老的一幀圖像丟棄,將新的一幀加入到訓(xùn)練集中,U通常可為10;步驟2.5.2:為了抵御小幅度遮擋、丟失或模糊現(xiàn)象,采用如下計(jì)算公式:其中,μc是訓(xùn)練集中的目標(biāo)區(qū)域內(nèi)所有超像素置信值的平均值。公式中的分子表示當(dāng)前推測出的目標(biāo)區(qū)域與平均置信值之間的差別,分母表示了一個標(biāo)準(zhǔn)化的區(qū)域,值為[-1,1]。若推測出的最大置信值遠(yuǎn)比訓(xùn)練集中保存的置信值平均值小,則出現(xiàn)了嚴(yán)重的遮擋和丟失現(xiàn)象。為了防止這種情況的發(fā)生,上一幀圖像得到的Xt-1,同時(shí)保留訓(xùn)練集中的圖像不動,直到再次尋找到目標(biāo)。步驟2.5.3:解決模糊幀跟蹤丟失現(xiàn)象:由于目標(biāo)區(qū)域是被分割成了多個超像素塊,由步驟2.1可知,通過訓(xùn)練集即觀察模型即可將背景和目標(biāo)區(qū)分開來,當(dāng)模糊幀出現(xiàn)時(shí),通過置信圖來獲取目標(biāo)的位置,即可穩(wěn)定的對對象進(jìn)行跟蹤。步驟2.6:重復(fù)步驟2.1至2.5,直到處理完所有視頻序列。