聯(lián)合數(shù)據(jù)關(guān)聯(lián)的Mean Shift多目標(biāo)跟蹤方法
【專利摘要】一種圖像處理【技術(shù)領(lǐng)域】的聯(lián)合數(shù)據(jù)關(guān)聯(lián)的Mean?Shift多目標(biāo)跟蹤方法,首先從視頻中提取得到運(yùn)動(dòng)前景并分割,針對(duì)分割后的前景塊生成數(shù)據(jù)關(guān)聯(lián)矩陣,并通過(guò)逐行掃描優(yōu)化后使用Mean?Shift算法完成對(duì)每個(gè)目標(biāo)的跟蹤。本發(fā)明能夠解決已有Mean?Shift目標(biāo)跟蹤算法在抗遮擋,即兩個(gè)目標(biāo)之間遮擋,以及抗相似顏色方面不佳的問(wèn)題。
【專利說(shuō)明】聯(lián)合數(shù)據(jù)關(guān)聯(lián)的Mean Sh i ft多目標(biāo)跟蹤方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及的是一種圖像處理【技術(shù)領(lǐng)域】的方法,具體是一種聯(lián)合數(shù)據(jù)關(guān)聯(lián)的MeanShift多目標(biāo)跟蹤方法。
【背景技術(shù)】
[0002]隨著視頻監(jiān)控技術(shù)的普及,以及監(jiān)控探頭數(shù)量的劇增和海量視頻數(shù)據(jù)的產(chǎn)生,人們對(duì)監(jiān)控視頻內(nèi)容的自動(dòng)分析技術(shù)需求也愈加迫切。視頻單目標(biāo)跟蹤技術(shù)或多目標(biāo)跟蹤技術(shù)在很多場(chǎng)合下具有重要的用途,如在智能視頻監(jiān)控、視頻索引、新型人機(jī)交互、交通監(jiān)測(cè)、車輛自動(dòng)駕駛等方面均有大量的應(yīng)用。
[0003]Mean Shift跟蹤算法是一種經(jīng)典的無(wú)參密度估計(jì)算法,在1975年由Fukunaga等人在〈〈IEEE Transactions on Information Theory〉〉的“The estimation of the gradientof a density function, with applications in pattern recognition,,一文中提出。2002和 2003 年,Comaniciu 等人在〈〈IEEE Transactions on Pattern Analysis and MachineIntelligence))的兩篇文獻(xiàn)“Mean shift:a robust approach toward feature spaceanalysis”和“Kernel-Based Object Tracking” 中進(jìn)一步利用 Mean Shift 對(duì)圖像進(jìn)行分析,前者對(duì)圖像的特征空間進(jìn)行分析,使Mean Shift成功應(yīng)用在圖像平滑、圖像分割等計(jì)算機(jī)視覺(jué)領(lǐng)域的多個(gè)方向,證明了在滿足一定條件時(shí),Mean Shift算法具有收斂的特性,利用該特性可以檢測(cè)概率密度函數(shù)中存在的模態(tài);后者將目標(biāo)跟蹤問(wèn)題轉(zhuǎn)化為一個(gè)Mean Shift最優(yōu)化的問(wèn)題,從而將Mean Shift算法成功地應(yīng)用在目標(biāo)跟蹤領(lǐng)域,由于Mean Shift算法不需要窮盡的搜索,使得高性能目標(biāo)跟蹤成為了可能。
[0004]然而,在實(shí)際環(huán)境中,目標(biāo)及周圍情況較為復(fù)雜。一系列因素,包括圖像信息采集過(guò)程中信息的丟失,場(chǎng)景光照條件的變化,目標(biāo)在運(yùn)動(dòng)過(guò)程中被部分或全部遮擋等等,都將對(duì)Mean Shift的處理效果產(chǎn)生負(fù)面的影響。當(dāng)目標(biāo)與周圍干擾物或者遮擋物顏色相近時(shí),對(duì)采用HSV直方圖作為統(tǒng)計(jì)特征的跟蹤方法來(lái)說(shuō),極易發(fā)生目標(biāo)丟失或者漂移的現(xiàn)象,這嚴(yán)重影響了算法的廣泛應(yīng)用。
[0005]經(jīng)過(guò)對(duì)現(xiàn)有技術(shù)的檢索發(fā)現(xiàn),中國(guó)專利文獻(xiàn)號(hào)CN102831622公開(kāi)了一種基于MeanShift的目標(biāo)跟蹤方法,它首先利用卡爾曼濾波算法對(duì)目標(biāo)當(dāng)前位置進(jìn)行預(yù)測(cè),然后設(shè)計(jì)模糊判定準(zhǔn)則在線調(diào)整目標(biāo)尺度值,利用Mean Shift迭代運(yùn)算逐步逼近目標(biāo)來(lái)完成跟蹤,最后,利用相似度和置信度系數(shù)設(shè)計(jì)模型更新準(zhǔn)則,以實(shí)現(xiàn)模板的自適應(yīng)更新。
[0006]中國(guó)專利文獻(xiàn)號(hào)CN101162525公開(kāi)了一種基于Mean Shift和人工魚群智能優(yōu)化的人體多關(guān)節(jié)特征跟蹤方法,首先基于目標(biāo)模型的顏色分布特征,根據(jù)前一幀圖像的信息利用人工魚群智能優(yōu)化算法得到被跟蹤人體多關(guān)節(jié)特征目標(biāo)在當(dāng)前幀的優(yōu)化位置,然后根據(jù)目標(biāo)模型的顏色分布特征運(yùn)用Mean Shift迭代算法在其優(yōu)化位置的領(lǐng)域內(nèi)進(jìn)行目標(biāo)搜索,其中與目標(biāo)模型顏色分布最相似的候選目標(biāo)即為被跟蹤目標(biāo)。
[0007]中國(guó)專利文獻(xiàn)號(hào)CN101867798公開(kāi)了一種基于視頻壓縮域分析的Mean Shift運(yùn)動(dòng)目標(biāo)跟蹤方法,該方法將壓縮域分析與Mean Shift跟蹤算法相結(jié)合,即首先對(duì)視頻編碼過(guò)程中產(chǎn)生的運(yùn)動(dòng)矢量進(jìn)行概率統(tǒng)計(jì)分析,以獲取目標(biāo)運(yùn)動(dòng)方向與運(yùn)動(dòng)速度的估計(jì)值,再以此修正Mean Shift運(yùn)動(dòng)候選區(qū)域的中心位置,使每次搜索開(kāi)始時(shí),候選中心位置更接近實(shí)際目標(biāo)中心位置。
[0008]中國(guó)專利文獻(xiàn)號(hào)CN102231207公開(kāi)了一種基于Mean Shift和塊匹配的運(yùn)動(dòng)目標(biāo)跟蹤方法,首先確定目標(biāo)模型與次要目標(biāo)模型,然后用Mean Shift算法求出次要目標(biāo)模型在當(dāng)前幀所處位置,根據(jù)該次要目標(biāo)模型位置,采用塊匹配在次要目標(biāo)模型范圍內(nèi)得出首要目標(biāo)模型的最佳位置。
[0009]中國(guó)專利文獻(xiàn)號(hào)CN102142085公開(kāi)了一種林區(qū)監(jiān)控視頻中運(yùn)動(dòng)火焰目標(biāo)的魯棒跟蹤方法,提出了使用基于高斯混合模型的改進(jìn)Mean Shift窗口自適應(yīng)算法獲得當(dāng)前幀中林區(qū)目標(biāo)的形狀變化。
[0010]中國(guó)專利文獻(xiàn)號(hào)CN102800106公開(kāi)了一種基于光流場(chǎng)估計(jì)的自適應(yīng)Mean Shift目標(biāo)跟蹤方法。該方法在基于傳統(tǒng)均值漂移矢量法的同時(shí),引入光流法,在目標(biāo)上找尋特征點(diǎn),通過(guò)特征點(diǎn)前后變化的信息,修正跟蹤窗口中心位置和大小,再根據(jù)Bhattacharyya系數(shù)二分法分別自適應(yīng)得到更為精確的窗口長(zhǎng)寬。而針對(duì)目標(biāo)被靜止物體遮擋的情況,通過(guò)色差分析觀測(cè)目標(biāo)被遮擋區(qū)域,利用Bhattacharyya系數(shù)重新捕捉目標(biāo)。但上述技術(shù)無(wú)法有效解決多目標(biāo)跟蹤過(guò)程中目標(biāo)間相互遮擋的問(wèn)題。
【發(fā)明內(nèi)容】
[0011]本發(fā)明針對(duì)現(xiàn)有技術(shù)存在的上述不足,提出一種聯(lián)合數(shù)據(jù)關(guān)聯(lián)的Mean Shift多目標(biāo)跟蹤方法,能夠解決已有Mean Shift目標(biāo)跟蹤算法在抗遮擋,即兩個(gè)目標(biāo)之間遮擋,以及抗相似顏色方面不佳的問(wèn)題。
[0012]本發(fā)明是通過(guò)以下技術(shù)方案實(shí)現(xiàn)的,本發(fā)明首先從視頻中提取得到運(yùn)動(dòng)前景并分害I],針對(duì)分割后的前景塊生成數(shù)據(jù)關(guān)聯(lián)矩陣,并通過(guò)逐行掃描優(yōu)化后使用Mean Shift算法完成對(duì)每個(gè)目標(biāo)的跟蹤。
[0013]本發(fā)明具體包括以下步驟:
[0014]I)利用前景提取算法對(duì)運(yùn)動(dòng)目標(biāo)前景進(jìn)行提取并得到運(yùn)動(dòng)前景;
[0015]2)對(duì)提取出的運(yùn)動(dòng)前景進(jìn)行分割,得到若干前景塊;
[0016]3)對(duì)分割獲得的前景塊(即前景區(qū)域目標(biāo))和基于MeanShift跟蹤獲得的目標(biāo)區(qū)域(即歷史目標(biāo)),進(jìn)行數(shù)據(jù)關(guān)聯(lián);
[0017]4)逐行掃描數(shù)據(jù)關(guān)聯(lián)矩陣,檢測(cè)并處理目標(biāo)的合并信息和分裂信息,并對(duì)目標(biāo)樣本進(jìn)行更新;
[0018]5)使用MeanShift算法完成對(duì)每個(gè)目標(biāo)的跟蹤。
技術(shù)效果
[0019]本發(fā)明提供的方法能夠通過(guò)對(duì)目標(biāo)前景的提取以及數(shù)據(jù)關(guān)聯(lián)的分裂-合并判定,實(shí)現(xiàn)對(duì)受干擾物或者遮擋物影響的目標(biāo)的位置的有效估計(jì),應(yīng)用于多目標(biāo)跟蹤,得到較為滿意的跟蹤效果。
【專利附圖】
【附圖說(shuō)明】
[0020]圖1是本發(fā)明所提出的跟蹤方法處理流程圖。[0021]圖2是前景檢測(cè)處理流程圖。
[0022]圖3是多線程Mean Shift目標(biāo)跟蹤處理流程圖。
[0023]圖4是多線程中子線程Mean Shift目標(biāo)跟蹤處理流程圖。
[0024]圖5是有無(wú)數(shù)據(jù)關(guān)聯(lián)情況下跟蹤效果對(duì)比圖。
[0025]圖6為實(shí)施例中目標(biāo)合并-分裂景象示意圖。
【具體實(shí)施方式】
[0026]下面對(duì)本發(fā)明的實(shí)施例作詳細(xì)說(shuō)明,本實(shí)施例在以本發(fā)明技術(shù)方案為前提下進(jìn)行實(shí)施,給出了詳細(xì)的實(shí)施方式和具體的操作過(guò)程,但本發(fā)明的保護(hù)范圍不限于下述的實(shí)施例。
實(shí)施例1
[0027]如圖1所示,本實(shí)施例包括以下步驟:
[0028]步驟I)如圖2所示,利用前景提取算法對(duì)運(yùn)動(dòng)目標(biāo)前景進(jìn)行提取并得到運(yùn)動(dòng)前景,具體是:
[0029]1.1)為視頻序列每一幀的每個(gè)像素點(diǎn)維護(hù)一個(gè)樣本集,樣本集中的采樣值來(lái)自該像素點(diǎn)過(guò)去的像素值和鄰居點(diǎn)的像素值;
[0030]1.2)在新的一幀中,將每一個(gè)像素點(diǎn)的像素值和樣本集進(jìn)行比較來(lái)判斷其是否屬于背景點(diǎn),并生成背景樣本集。
[0031]所述的背景點(diǎn)的判斷是指:記v(x)為χ點(diǎn)處的像素值;M(x) = (X1, X2, , xN}為χ處的背景樣本集,其中:N表示樣本集的大??;SK(v(x))是以χ為中心R為半徑的區(qū)域,當(dāng)M(x) [SE(v(x)) Π {χ1; χ2,...χΝ}]大于背景閾值,則χ點(diǎn)屬于背景點(diǎn),反之則屬于前景點(diǎn)。
[0032]所述的背景樣本集在初始化中,完成了對(duì)背景模型的建立過(guò)程,背景模型的建立過(guò)程也就是填充模型中樣本集的過(guò)程,即根據(jù)背景樣本集進(jìn)行學(xué)習(xí);由于在一幀圖像中不可能包含像素點(diǎn)的時(shí)空分布信息,通過(guò)利用相近像素點(diǎn)擁有相近時(shí)空分布特性這一規(guī)律,具體來(lái)講就是:
[0033]對(duì)于一個(gè)像素點(diǎn),隨機(jī)地選擇它的鄰居點(diǎn)的像素值作為它的模型樣本值:
[0034]Mci(X) = {v0 (y) y e Ng (χ) } (I)
[0035]其中=Mtl(χ)表示第一幀中的背景樣本集,Ne(χ)為鄰居點(diǎn)。該方法的優(yōu)點(diǎn)是初始化速度非???,通常只需要一幀視頻圖像即可完成對(duì)目標(biāo)模型的初始化;并且引入的Ghost區(qū)域在模型不斷更新過(guò)程中將會(huì)很快消失。
[0036]1.3)通過(guò)前景提取算法對(duì)模型進(jìn)行更新,使得背景模型不斷適應(yīng)背景的諸如光照、背景物體的變化。
[0037]所述的前景提取算法是指:采用前景點(diǎn)計(jì)數(shù)方法,對(duì)像素點(diǎn)進(jìn)行統(tǒng)計(jì),當(dāng)某個(gè)背景模型中的像素點(diǎn)連續(xù)N幀被統(tǒng)計(jì)為前景點(diǎn),則將其更新為前景點(diǎn)。
[0038]1.4)將統(tǒng)計(jì)為前景點(diǎn)的圖像輸出便獲得了運(yùn)動(dòng)前景。
[0039]步驟2)對(duì)提取出的運(yùn)動(dòng)前景進(jìn)行分割,得到若干前景塊;
[0040]所述的分割采用cvBlobs庫(kù)實(shí)現(xiàn),具體為調(diào)用cvBlobs庫(kù)(http://code, google,com/p/cvblob/)中的函數(shù)cvLabel O ,將運(yùn)動(dòng)前景作為輸入?yún)?shù),返回值是一個(gè)鏈表,記錄了所有分割的前景塊。[0041]所述的前景塊中包含有該前景塊位于運(yùn)動(dòng)前景中的位置、面積等信息。
[0042]所述的分割過(guò)程中,針對(duì)前景塊在目標(biāo)跟蹤的過(guò)程中由于被非目標(biāo)(如電線桿、樹(shù)等)遮擋而導(dǎo)致分裂的情況,根據(jù)每個(gè)前景塊的位置、面積,判斷異常的分裂并對(duì)這些分裂塊進(jìn)行合并,即取多個(gè)團(tuán)塊的最小外接矩形構(gòu)成更大的團(tuán)塊。
[0043]步驟3):對(duì)分割獲得的前景塊(即前景區(qū)域目標(biāo))和基于Mean Shift跟蹤獲得的目標(biāo)區(qū)域(即歷史目標(biāo))進(jìn)行數(shù)據(jù)關(guān)聯(lián),具體步驟包括:
[0044]3.1)構(gòu)造歷史目標(biāo)Ti和前景區(qū)域目標(biāo)Dj的匹配矩陣M:
【權(quán)利要求】
1.一種聯(lián)合數(shù)據(jù)關(guān)聯(lián)的Mean Shift多目標(biāo)跟蹤方法,其特征在于,首先從視頻中提取得到運(yùn)動(dòng)前景并分割,針對(duì)分割后的前景塊生成數(shù)據(jù)關(guān)聯(lián)矩陣,并通過(guò)逐行掃描優(yōu)化后使用Mean Shift算法完成對(duì)每個(gè)目標(biāo)的跟蹤;所述方法包括以下步驟: 1)利用前景提取算法對(duì)運(yùn)動(dòng)目標(biāo)前景進(jìn)行提取并得到運(yùn)動(dòng)前景; 2)對(duì)提取出的運(yùn)動(dòng)前景進(jìn)行分割,得到若干前景塊; 3)對(duì)分割獲得的前景塊,即前景區(qū)域目標(biāo)和基于MeanShift跟蹤獲得的目標(biāo)區(qū)域,即歷史目標(biāo)進(jìn)行數(shù)據(jù)關(guān)聯(lián); 4)逐行掃描數(shù)據(jù)關(guān)聯(lián)矩陣,檢測(cè)并處理目標(biāo)的合并信息和分裂信息,并對(duì)目標(biāo)樣本進(jìn)行更新; 5)使用MeanShift算法完成對(duì)每個(gè)目標(biāo)的跟蹤。
2.根據(jù)權(quán)利要求1所述的方法,其特征是,所述的前景提取算法是指:采用前景點(diǎn)計(jì)數(shù)方法,對(duì)像素點(diǎn)進(jìn)行統(tǒng)計(jì),當(dāng)某個(gè)背景模型中的像素點(diǎn)連續(xù)N幀被統(tǒng)計(jì)為前景點(diǎn),則將其更新為前景點(diǎn)。
3.根據(jù)權(quán)利要求1所述的方法,其特征是,步驟I)具體包括: 1.D為視頻序列每一幀的每個(gè)像素點(diǎn)維護(hù)一個(gè)樣本集,樣本集中的采樣值來(lái)自該像素點(diǎn)過(guò)去的像素值和鄰居點(diǎn)的像素值; 1.2)在新的一幀中,將每一個(gè)像素點(diǎn)的像素值和樣本集進(jìn)行比較來(lái)判斷其是否屬于背景點(diǎn),并生成背景樣本集; 1.3)通過(guò)前景提取算法對(duì)模型進(jìn)行更新,使得背景模型不斷適應(yīng)背景的變化; 1.4)將統(tǒng)計(jì)為前景點(diǎn)的圖像輸出便獲得了運(yùn)動(dòng)前景。
4.根據(jù)權(quán)利要求3所述的方法,其特征是,所述的背景點(diǎn)的判斷是指:記V(X)為X點(diǎn)處的像素值;M(x) =為X處的背景樣本集,其中:N表示樣本集的大??;SE(v(x))是以X為中心R為半徑的區(qū)域,當(dāng)M(x) [Se(ν(χ)) Π (X1, χ2,...χΝ}]大于背景閾值,則X點(diǎn)屬于背景點(diǎn),反之則屬于前景點(diǎn); 所述的背景樣本集在初始化中,完成了對(duì)背景模型的建立過(guò)程,背景模型的建立過(guò)程也就是填充模型中樣本集的過(guò)程,即根據(jù)背景樣本集進(jìn)行學(xué)習(xí),具體對(duì)于一個(gè)像素點(diǎn),隨機(jī)地選擇它的鄰居點(diǎn)的像素值作為它的模型樣本值=M0(X) = {v0(y) |ye Ne(x)},其中:MQ(x)表不第一幀中的背景樣本集,Ne(X)為鄰居點(diǎn)。
5.根據(jù)權(quán)利要求1所述的方法,其特征是,所述的數(shù)據(jù)關(guān)聯(lián)矩陣C的元素包括:0、1或2,其中:0表示該行對(duì)應(yīng)的歷史目標(biāo)和該列對(duì)應(yīng)的前景目標(biāo)區(qū)域,即觀測(cè)之間沒(méi)有關(guān)聯(lián),2表示該行對(duì)應(yīng)的歷史目標(biāo)和該列對(duì)應(yīng)的觀測(cè)之間相互關(guān)聯(lián),I表示該行對(duì)應(yīng)的歷史目標(biāo)和該列對(duì)應(yīng)的觀測(cè)只有單向關(guān)聯(lián)。
6.根據(jù)權(quán)利要求1所述的方法,其特征是,所述的步驟3具體包括:
St^d .3.1)構(gòu)造歷史目標(biāo)Ti和前景區(qū)域目標(biāo)Dj的匹配矩陣M: Μ(υ) = \ +s ’其中:Anl),表示歷史目標(biāo)Ti和觀測(cè)目標(biāo)Dj的重疊部分的面積,\和&分別表示Ti和h的外接矩形的面積,C是規(guī)范化常數(shù); .3.2)獲得匹配矩陣M后,根據(jù)相似度的大小,構(gòu)造數(shù)據(jù)關(guān)聯(lián)矩陣C:. 3.2.1)初始化:設(shè)置數(shù)據(jù)關(guān)聯(lián)矩陣C的所有元素為O ;. 3.2.2)逐行對(duì)矩陣M掃描,找出每行中最大元素所在位置的列號(hào)jmax,并將矩陣C對(duì)應(yīng)的位置加 I:jmax = argmaxM(i, j), j = 1,2,...N1, C(i, jmax) = C(i, jmax)+l ;. 3.2.3)逐列對(duì)矩陣M掃描,找出每列中最大元素所在位置的行號(hào)imax,并將矩陣C對(duì)應(yīng)的位置加 I:imax = argmaxM(i, j), i = 1,2,...N1, C(imax, j) = C(imax, j)+l。
7.根據(jù)權(quán)利要求1所述的方法,其特征是,所述的步驟4中: . 4.1)逐行掃描數(shù)據(jù)關(guān)聯(lián)矩陣C,記錄每一行中的最大值Max和非零元素的個(gè)數(shù)Ntl,當(dāng)Max等于I且Ntl等于1,則判斷為該行對(duì)應(yīng)的歷史跟蹤目標(biāo)Ta與另一個(gè)歷史跟蹤目標(biāo)Tb合并,否則跳過(guò)步驟4.2~步驟4.3,重新執(zhí)行步驟4.1并掃描下一行;. 4.2)通過(guò)數(shù)據(jù)關(guān)聯(lián)矩陣C的對(duì)應(yīng)關(guān)系,找到歷史跟蹤目標(biāo)Ta對(duì)應(yīng)的新觀測(cè)Dab,即與Ta相似度最大的觀測(cè)目標(biāo),由于發(fā)生了合并,該觀測(cè)Dab必然與另一個(gè)歷史跟蹤目標(biāo)相互關(guān)聯(lián),在關(guān)聯(lián)矩陣C中搜索并找到Tb ; . 4.3)將Ta和Tb的跟蹤狀態(tài)改變,由沒(méi)有遮擋變?yōu)橄嗷フ趽?,并通過(guò)記錄其地址信息鏈接到Tab ; . 4.4)利用Dab的區(qū)域以及該區(qū)域的視覺(jué)特征,新增加一個(gè)合并目標(biāo)Tab進(jìn)行跟蹤,并記錄下Tab與目標(biāo)TA、Tb的對(duì)應(yīng)關(guān)系。
8.根據(jù)權(quán)利要求1所述的方法,其特征是,所述的步驟4中: . 5.1)逐行掃描數(shù)據(jù)關(guān)聯(lián)矩陣C,記錄該行中的最大值Max和非零元素的個(gè)數(shù)Ntl,當(dāng)Max等于I且Ntl等于2,則判斷為該行對(duì)應(yīng)的歷史跟蹤目標(biāo)Tab分裂,否則跳過(guò)步驟5.2~步驟.5.3,重新執(zhí)行步驟5.1并掃描下一行;. 5.2)將目標(biāo)Tab對(duì)應(yīng)的目標(biāo)TA、TB以及分裂后的觀測(cè)Da,Db通過(guò)目標(biāo)顏色直方圖特征進(jìn)行匹配; . 5.3)將Ta和Tb的跟蹤狀態(tài)改變,由相互遮擋變?yōu)闆](méi)有遮擋。
9.根據(jù)權(quán)利要求1所述的方法,其特征是,所述的步驟4中,目標(biāo)樣本進(jìn)行更新是指:逐行掃描數(shù)據(jù)關(guān)聯(lián)矩陣C,并在沒(méi)有分裂或合并情況發(fā)生時(shí),對(duì)目標(biāo)樣本進(jìn)行更新,具體是:掃描數(shù)據(jù)關(guān)聯(lián)矩陣,檢測(cè)處理目標(biāo)的合并-分裂;當(dāng)沒(méi)有合并或分裂情況發(fā)生時(shí),利用觀測(cè)D對(duì)目標(biāo)T進(jìn)行更新,即將觀測(cè)和目標(biāo)的中心位置進(jìn)行加權(quán)得到該目標(biāo)的最終位置,從而校正目標(biāo)。
10.根據(jù)權(quán)利要求1所述的方法,其特征是,所述的步驟5具體包括以下步驟: . 7.1)當(dāng)輸入視頻圖像為第一幀時(shí),人工選擇目標(biāo)區(qū)域; . 7.2)主流程產(chǎn)生若干個(gè)與單目標(biāo)對(duì)象一一相對(duì)的子流程,該子流程接口函數(shù)實(shí)現(xiàn)了Mean Shift跟蹤算法的整個(gè)流程,即各個(gè)對(duì)象并行地運(yùn)算,即檢測(cè)trackmode: 當(dāng)trackmode等于I時(shí),調(diào)用成員函數(shù)完成對(duì)目標(biāo)特征直方圖的計(jì)算,并將trackmode改為2 ; 當(dāng)trackmode等于2時(shí),調(diào)用成員函數(shù)計(jì)算當(dāng)前幀中候選區(qū)的直方圖,完成Mean Shift過(guò)程,更新目標(biāo)區(qū)域; 所述的Mean Shift過(guò)程是指:首先將候選區(qū)設(shè)為上一幀目標(biāo)所在的區(qū)域,然后計(jì)算候選區(qū)的直方圖,利用相似性函數(shù)計(jì)算相似程度以及Mean Shift向量;不斷地更新候選區(qū)的位置,直到Mean Shift向量的步長(zhǎng)小于閾值或者循環(huán)的次數(shù)到達(dá)最大值時(shí),將候選區(qū)的位置賦給目標(biāo)區(qū)域, 完成目標(biāo)位置的更新。
【文檔編號(hào)】G06T7/20GK103985142SQ201410239186
【公開(kāi)日】2014年8月13日 申請(qǐng)日期:2014年5月30日 優(yōu)先權(quán)日:2014年5月30日
【發(fā)明者】鄭世寶, 薛明, 丁正彥, 李宏波, 朱文婕, 陳宇航 申請(qǐng)人:上海交通大學(xué)