欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于相關濾波器的長期行人跟蹤方法與流程

文檔序號:12825527閱讀:850來源:國知局
一種基于相關濾波器的長期行人跟蹤方法與流程

本發(fā)明涉及智能視頻監(jiān)控、計算機視覺、機器視覺領域,具體涉及一種基于相關濾波器的長期行人跟蹤方法。



背景技術(shù):

行人跟蹤在計算機視覺領域中是一個基礎性分支,其應用非常廣泛,如智能相機、自動駕駛、視頻監(jiān)控等等。在過去幾十年里,行人跟蹤的研究有了很大的進展,但是由于應用環(huán)境的限制,如光照的影響,行人在運動過程中發(fā)生的遮擋和形變這些因素,使得行人跟蹤算法性能較低,強魯棒性的算法難以實現(xiàn)。

行人跟蹤是智能視頻監(jiān)控的一個重要分支,在機場、火車站、體育場、候車室和展覽館等大型公共場合的行人跟蹤是智能視頻監(jiān)控系統(tǒng)不可缺少的內(nèi)容。目前已有的行人跟蹤方法主要存在如下的問題:

行人與行人或者行人與環(huán)境的遮擋問題,運動行人發(fā)生的形變問題,隨著時間的變化光照的變化問題等。行人在運動過程中由于受到上述因素的影響,對其跟蹤的過程也變得越來越難,最終便會丟失目標。

所以如何提高在復雜環(huán)境下視頻監(jiān)控系統(tǒng)中行人跟蹤的魯棒性是有待解決的問題。



技術(shù)實現(xiàn)要素:

為了解決上述的技術(shù)問題,本發(fā)明的目的就在于提高行人跟蹤的準確性和性能,提供一種基于相關濾波器的長期行人跟蹤方法。

本發(fā)明所采用的技術(shù)方案是:

s10,讀入監(jiān)控視頻,對目標劃定目標區(qū)域。

s20,提取目標區(qū)域顏色特征和lbp特征。

s30,判定目標是否被遮擋。

s40,嶺回歸訓練和檢測。

s50,將跟蹤到的行人加以標記輸出到視頻監(jiān)控。

上述的技術(shù)方案,其中,所述步驟s10中讀入監(jiān)控視頻,對目標劃定目標區(qū)域包括如下步驟:

s11,使用鼠標對行人目標劃定矩形區(qū)域,系統(tǒng)初始化各類跟蹤參數(shù)。

上述的技術(shù)方案,其中,所述步驟s20中提取目標區(qū)域顏色特征和lbp特征中包括如下步驟:

s21,把目標區(qū)域平均分成5個水平條帶,每個水平條帶的每種顏色空間的每個通道都提取16維顏色直方圖特征。

s22,對于每個水平條帶,分別提取lbp等價模式中鄰域點數(shù)為8半徑為1和鄰域點數(shù)為16半徑為2的特征,然后將所有的特征串聯(lián)成行人特征。

s23,由于提取出的特征維數(shù)較大,使用pca方法進行降維。

上述的技術(shù)方案,其中,所述步驟s30中判定目標是否被遮擋包括如下步驟:

s31,找到行人目標概率分布最大的位置和概率分布的最大值。

s32,在最大值的周圍,找出滿足大于某個概率分布閾值的所有點。

s33,計算上述所有點到概率分布最大值點的歐式距離和。

s34,若歐式距離和大于設定的閾值,則判定受到遮擋。

上述的技術(shù)方案,其中,所述步驟s40中嶺回歸訓練如下步驟:

s41,對劃定的目標區(qū)域擴大到原來的2.5倍成為一個候選塊。

s42,對此候選塊向四周循環(huán)移位采集負樣本。

s43,利用嶺回歸器對采集的樣本進行訓練。

s44,當前幀中,對前一幀目標區(qū)域進行循環(huán)采樣。

s45,利用前一幀訓練的嶺回歸器計算樣本的響應,響應最大值作為當前幀目標的位置。

本發(fā)明的長期行人跟蹤方法產(chǎn)生以下幾種良好的效果:

效果1:本發(fā)明采用跟蹤目標的概率分布,計算目標區(qū)域與周圍候選區(qū)域的歐式距離來判斷是否發(fā)生遮擋,這一過程是算法后續(xù)過程的基礎,提高了跟蹤的準確性。

效果2:本發(fā)明采用提取行人多特征的方法,特征為顏色特征和lbp特征,行人一旦發(fā)生遮擋,就與已提取的特征進行匹配,相似度最高的為目標行人。行人再識別避免了目標行人在發(fā)生遮擋時目標的丟失,提高了行人跟蹤的靈活性和準確性。

效果3:本發(fā)明采用傅立葉變換的性質(zhì)進行快速的訓練和檢測,其訓練樣本通過目標區(qū)域的循環(huán)移位得到,利用前一幀訓練的嶺回歸器計算當前幀樣本的響應,響應最大值作為當前幀目標的位置??焖俑盗⑷~變換和循環(huán)移位的操作是的算法的計算速度得到了很大的提升,滿足了算法的實時性。

附圖說明

圖1是本方法的步驟圖;

圖2是行人目標跟蹤的流程圖。

具體實施方式

以下結(jié)合附圖和具體實施對本發(fā)明進行詳細描述,但不作為對本發(fā)明的限定。

一、方法

如圖1和2,本方法的實現(xiàn)步驟如下:

a讀入監(jiān)控視頻,對目標劃定目標區(qū)域

利用攝像頭獲得監(jiān)控視頻圖像數(shù)據(jù),并且在第一幀圖像中對目標行人劃定區(qū)域,初始化高斯系數(shù)和對目標區(qū)域的放大倍數(shù)。

b提取目標區(qū)域顏色特征和lbp特征

為了提高表征性,將目標區(qū)域水平方向平均分成5個部分。先提取顏色特征,從rgb、hsv和ycbcr三種顏色空間中提取,將這三種顏色空間的特征進行融合能提高特征的魯棒性。對于目標區(qū)域水平方向的每個部分都提取每種顏色空間每個顏色通道的16維顏色特征直方圖特征,然后將每個直方圖特征都串聯(lián)成一個目標行人的顏色特征,最終得到的特征維數(shù)為(3×5×3×12)640維。顏色特征表示的是一種整體特征,為了對行人的表示更準確,提取目標區(qū)域的兩種等價模式局部lbp特征,一種是采樣點數(shù)為8半徑為1,另一種是采樣點數(shù)為16半徑為2,同理,對每個水平方向部分都提取lbp兩種模式的特征,最終將所有的lbp特征串聯(lián)成行人的局部特征,其特征維數(shù)為((59+59)×5)590維。對于上面提取的兩種特征,由于特征維數(shù)較大,使用pca方法降維。

c判定目標是否被遮擋

設行人目標的概率分布為f(z),候選區(qū)域的坐標為pos(z),遮擋閾值為λ1,面積因子為λ2,樣本的高度和寬度分別為height和width:

1.首先求f(z)取到最大值的位置posmax(z)和f(z)的最大值fmax(z)。

2.求取posmax(z)周圍滿足大于λ1·fmax(z)的所有點的位置pos(z)。

3.求取所有pos(z)點到posmax(z)的歐式距離

4.判斷是否大于閾值λ2·width·height,如果大于閾值,則判斷為受到遮擋;否則判斷為未受到遮擋。

d嶺回歸訓練和檢測

在上一步的過程中,若行人發(fā)生遮擋,則不進行行人目標樣本的訓練和檢測,直到行人目標再識別后進行此步驟。首先對劃定的行人目標區(qū)域擴大到原來的2.5倍,然后向四周方向進行循環(huán)移位,移位的方式可以是每行像素的移動或者列像素的移動,由此獲得大量的訓練樣本,此時循環(huán)移位得到的樣本為負樣本,原區(qū)域的樣本為正樣本,在當前幀中對于上述樣本采用嶺回歸訓練,在下一幀中對相同區(qū)域周圍的樣本,使用前一幀計算的嶺回歸器計算其響應,響應最大值對應的位置即行人目標的位置。

e將跟蹤到的行人加以標記輸出到視頻監(jiān)控

在上述過程中將跟蹤到的行人以外接矩形框的形式顯示在監(jiān)控視頻中。



技術(shù)特征:

技術(shù)總結(jié)
本發(fā)明公開一種基于相關濾波器的長期行人跟蹤方法。本方法包括以下步驟:S1:讀入監(jiān)控視頻,劃定目標區(qū)域;S2:提取目標區(qū)域內(nèi)行人特征;S3:判定目標是否被遮擋;S4:嶺回歸訓練和檢測;S5:將跟蹤的行人加以標記輸出到視頻監(jiān)控。本發(fā)明對目標區(qū)域內(nèi)提取行人特征,先判斷目標行人是否被遮擋,若被遮擋,則在遮擋后提取預測區(qū)域特征與已提取特征進行相似度匹配,達到一定閾值判定搜索到目標行人,再使用嶺回歸訓練檢測來跟蹤;若無遮擋,則直接進行嶺回歸訓練檢測來跟蹤。行人再識別提高了目標行人跟蹤的準確性,傅立葉變換在嶺回歸訓練檢測的應用提高了跟蹤的速度。

技術(shù)研發(fā)人員:包曉安;江維創(chuàng);陳耀南;張娜;徐新良
受保護的技術(shù)使用者:浙江漢凡軟件科技有限公司
技術(shù)研發(fā)日:2017.01.09
技術(shù)公布日:2017.07.07
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
湘西| 大关县| 米泉市| 屏山县| 三亚市| 紫金县| 宁城县| 柯坪县| 柯坪县| 平凉市| 兴隆县| 平潭县| 翁源县| 龙岩市| 洞头县| 曲阳县| 石屏县| 肇东市| 台湾省| 晋江市| 浠水县| 陇南市| 临汾市| 新兴县| 萨嘎县| 清水河县| 衡阳县| 平远县| 湖北省| 阿城市| 铁岭县| 阿尔山市| 滁州市| 兴和县| 广灵县| 邢台县| 朝阳市| 繁峙县| 阿勒泰市| 晋中市| 收藏|