欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于局部背景學(xué)習(xí)的視頻跟蹤方法

文檔序號(hào):6550173閱讀:313來(lái)源:國(guó)知局
一種基于局部背景學(xué)習(xí)的視頻跟蹤方法
【專(zhuān)利摘要】本發(fā)明提供一種基于局部背景學(xué)習(xí)的視頻跟蹤方法,包括:通過(guò)所述貝葉斯框架對(duì)要跟蹤的目標(biāo)和所述目標(biāo)的局部背景的時(shí)空關(guān)系進(jìn)行建模以建模目標(biāo)和局部背景的時(shí)空關(guān)系,同時(shí)采集所述目標(biāo)的多個(gè)多維圖像,利用符合壓縮感知條件的隨機(jī)感知矩陣對(duì)采集到的目標(biāo)的多個(gè)多維圖像特征進(jìn)行降維,得到多個(gè)多維圖像的特征向量;根據(jù)多個(gè)多維圖像的特征向量,對(duì)降維后的多維圖像采用所述樸素貝葉斯分類(lèi)器進(jìn)行分類(lèi),并依據(jù)目標(biāo)位置的似然置信圖估計(jì)目標(biāo)出現(xiàn)的位置;基于目標(biāo)結(jié)構(gòu)約束條件,通過(guò)所述集合器輸出與前一幀跟蹤成功的目標(biāo)重疊度最大的目標(biāo)作為最終的跟蹤目標(biāo)。本發(fā)明適用于復(fù)雜條件下的視頻目標(biāo)跟蹤,具有很強(qiáng)的辨別能力,跟蹤準(zhǔn)確性高。
【專(zhuān)利說(shuō)明】—種基于局部背景學(xué)習(xí)的視頻跟蹤方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明屬于計(jì)算機(jī)視覺(jué)跟蹤【技術(shù)領(lǐng)域】,涉及一種視頻跟蹤方法,特別是涉及一種基于局部背景學(xué)習(xí)的視頻跟蹤方法。
【背景技術(shù)】
[0002]目前,視頻跟蹤算法根據(jù)應(yīng)用模型的不同主要分為兩類(lèi):基于產(chǎn)生式模型的跟蹤算法和基于判別式模型的跟蹤算法。前一種跟蹤算法的代表性方法有基于模板匹配的跟蹤算法等,該類(lèi)方法通過(guò)在圖像中搜索與給定模板最匹配的子區(qū)域來(lái)實(shí)現(xiàn)跟蹤,它忽略了目標(biāo)周?chē)尘靶畔ⅰ:笠环N跟蹤算法代表性方法有檢測(cè)學(xué)習(xí)跟蹤(TLD)和壓縮感知跟蹤(CT)等,該類(lèi)方法將跟蹤視為一個(gè)二分類(lèi)問(wèn)題,尋找目標(biāo)與背景間的決策邊界來(lái)實(shí)現(xiàn)跟蹤,計(jì)算復(fù)雜度高,無(wú)法保證跟蹤實(shí)時(shí)性要求。
[0003]壓縮感知跟蹤方法(俗稱(chēng)CT算法)利用符合壓縮感知條件的隨機(jī)感知矩陣對(duì)多尺度圖像特征進(jìn)行降維,然后在降維后的特征上采用樸素貝葉斯分類(lèi)器進(jìn)行分類(lèi)來(lái)實(shí)現(xiàn)跟蹤,自從其提出后就成為了視覺(jué)跟蹤領(lǐng)域的重要方法。雖然CT算法取得了巨大的成功,但是其存在兩個(gè)主要的缺點(diǎn):1)在嚴(yán)重遮擋情況下,跟蹤器會(huì)失效;2)當(dāng)目標(biāo)與背景相似,跟蹤器會(huì)漂移至背景,導(dǎo)致跟蹤失敗,這是因?yàn)槠浜雎粤吮尘靶畔ⅰ?br> [0004]在視覺(jué)跟蹤中,局部背景信息包含目標(biāo)和其相鄰的圖像區(qū)域。在連續(xù)的視頻幀中,目標(biāo)與背景之間存在強(qiáng)烈的時(shí)空關(guān)系,而這種時(shí)空關(guān)系有助于重新定位目標(biāo)位置,并幫助解決背景與目標(biāo)相似情況下的二義性問(wèn)題。比如嚴(yán)重遮擋使目標(biāo)造成很大的形變,但是含有目標(biāo)的局部背景區(qū)域仍然保持相似,只有小部分背景區(qū)域被遮擋。因此,利用當(dāng)前幀的局部背景信息可以預(yù)測(cè)下一幀的目標(biāo)位置。
[0005]雖然最近幾十年視頻目標(biāo)跟蹤問(wèn)題獲得了廣泛的研究并取得了長(zhǎng)足的進(jìn)步,但還存在許多不足。現(xiàn)實(shí)環(huán)境中的許多情況(如光照變化,姿態(tài)變化和遮擋等)都會(huì)影響跟蹤的性能,因此設(shè)計(jì)一個(gè)能適應(yīng)背景場(chǎng)景可變,并保證跟蹤的準(zhǔn)確性和跟蹤的實(shí)時(shí)性的目標(biāo)跟蹤算法,仍然是一項(xiàng)挑戰(zhàn)性的任務(wù)和急需解決的課題。

【發(fā)明內(nèi)容】

[0006]鑒于以上所述現(xiàn)有技術(shù)的缺點(diǎn),本發(fā)明的目的在于提供一種基于局部背景學(xué)習(xí)的視頻跟蹤方法,用于解決現(xiàn)有技術(shù)中視頻跟蹤方法無(wú)法保證跟蹤的準(zhǔn)確性和跟蹤的實(shí)時(shí)性導(dǎo)致影響目標(biāo)跟蹤的性能的問(wèn)題。
[0007]為實(shí)現(xiàn)上述目的及其他相關(guān)目的,本發(fā)明提供一種基于局部背景學(xué)習(xí)的視頻跟蹤方法,應(yīng)用于包括貝葉斯框架、樸素貝葉斯分類(lèi)器、集合器的基于局部背景學(xué)習(xí)的視頻跟蹤系統(tǒng),包括:步驟1,通過(guò)所述貝葉斯框架對(duì)要跟蹤的目標(biāo)和所述目標(biāo)的局部背景的時(shí)空關(guān)系進(jìn)行建模以建模目標(biāo)和局部背景的時(shí)空關(guān)系,同時(shí)采集所述目標(biāo)的多個(gè)多維圖像,利用符合壓縮感知條件的隨機(jī)感知矩陣對(duì)采集到的目標(biāo)的多個(gè)多維圖像特征進(jìn)行降維,得到多個(gè)多維圖像的特征向量;步驟2,根據(jù)多個(gè)多維圖像的特征向量,對(duì)降維后的多維圖像采用所述樸素貝葉斯分類(lèi)器進(jìn)行分類(lèi),并依據(jù)目標(biāo)位置的似然置信圖估計(jì)目標(biāo)出現(xiàn)的位置;步驟3,基于目標(biāo)結(jié)構(gòu)約束條件,通過(guò)所述集合器輸出與前一幀跟蹤成功的目標(biāo)重疊度最大的目標(biāo)作為最終的跟蹤目標(biāo)。
[0008]優(yōu)選地,所述目標(biāo)位置的似然置信圖是指:
【權(quán)利要求】
1.一種基于局部背景學(xué)習(xí)的視頻跟蹤方法,應(yīng)用于包括貝葉斯框架、樸素貝葉斯分類(lèi)器、集合器的基于局部背景學(xué)習(xí)的視頻跟蹤系統(tǒng),其特征在于,包括: 步驟1,通過(guò)所述貝葉斯框架對(duì)要跟蹤的目標(biāo)和所述目標(biāo)的局部背景的時(shí)空關(guān)系進(jìn)行建模以建模目標(biāo)和局部背景的時(shí)空關(guān)系,同時(shí)采集所述目標(biāo)的多個(gè)多維圖像,利用符合壓縮感知條件的隨機(jī)感知矩陣對(duì)采集到的目標(biāo)的多個(gè)多維圖像特征進(jìn)行降維,得到多個(gè)多維圖像的特征向量; 步驟2,根據(jù)多個(gè)多維圖像的特征向量,對(duì)降維后的多維圖像采用所述樸素貝葉斯分類(lèi)器進(jìn)行分類(lèi),并依據(jù)目標(biāo)位置的似然置信圖估計(jì)目標(biāo)出現(xiàn)的位置; 步驟3,基于目標(biāo)結(jié)構(gòu)約束條件,通過(guò)所述集合器輸出與前一幀跟蹤成功的目標(biāo)重疊度最大的目標(biāo)作為最終的跟蹤目標(biāo)。
2.根據(jù)權(quán)利要求1所述的基于局部背景學(xué)習(xí)的視頻跟蹤方法,其特征在于:所述目標(biāo)位置的似然置信圖是指:
3.根據(jù)權(quán)利要求2所述的基于局部背景學(xué)習(xí)的視頻跟蹤方法,其特征在于:所述局部背景模型的條件概率的函數(shù)公式為P(x|m(z),0) =h(x-z),其中,h(x-z)表示為目標(biāo)X和目標(biāo)在局部背景中的位置z的相對(duì)距離和方向的函數(shù)。
4.根據(jù)權(quán)利要求1所述的基于局部背景學(xué)習(xí)的視頻跟蹤方法,其特征在于:所述局部背景模型的先驗(yàn)概率POn(Z) O)的函數(shù)公式為P(m(Z) ο) = I (ζ) ω 0 (ζ-χ*);其中,Ι(ζ)為目標(biāo)在局部背景中的位置ζ的圖像灰度,ω。(ζ-χ*)為一加權(quán)函數(shù),
5.根據(jù)權(quán)利要求1所述的基于局部背景學(xué)習(xí)的視頻跟蹤方法,其特征在于:所述目標(biāo) 和局部背景的時(shí)空關(guān)系為
6.根據(jù)權(quán)利要求1所述的基于局部背景學(xué)習(xí)的視頻跟蹤方法,其特征在于:跟蹤目標(biāo)的置信度為
7.根據(jù)權(quán)利要求1所述的基于局部背景學(xué)習(xí)的視頻跟蹤方法,其特征在于:目標(biāo)X的局部背景模型更新率的計(jì)算公式為Ht+1(x) = (1-P) Ht(X)+ Pht(x),其中,t為圖像視頻幀次序,Ht(X)為最終目標(biāo)X第t幀的局部背景模型更新率,ht(x)為最終目標(biāo)X第t幀時(shí)與局部背景的相對(duì)距離和方向的函數(shù),P為學(xué)習(xí)參數(shù)。
8.根據(jù)權(quán)利要求1所述的基于局部背景學(xué)習(xí)的視頻跟蹤方法,其特征在于:所述隨機(jī)
感知矩陣為Anxm,其矩陣
9.根據(jù)權(quán)利要求1所述的基于局部背景學(xué)習(xí)的視頻跟蹤方法,其特征在于:所述目標(biāo)的運(yùn)動(dòng)軌跡是連續(xù)的。
【文檔編號(hào)】G06T7/20GK104021577SQ201410276173
【公開(kāi)日】2014年9月3日 申請(qǐng)日期:2014年6月19日 優(yōu)先權(quán)日:2014年6月19日
【發(fā)明者】李建勛, 張泳 申請(qǐng)人:上海交通大學(xué)
網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
雅安市| 东丽区| 乌兰浩特市| 霸州市| 黎平县| 澎湖县| 丁青县| 满洲里市| 中阳县| 绥德县| 肥西县| 苍梧县| 昌宁县| 长兴县| 乐安县| 安阳县| 南投市| 和政县| 峡江县| 繁昌县| 竹山县| 财经| 奉化市| 盐城市| 白城市| 封开县| 宜昌市| 西藏| 佛教| 大冶市| 正宁县| 内乡县| 栖霞市| 井研县| 泸溪县| 临漳县| 若羌县| 星子县| 卢湾区| 南乐县| 彝良县|