本發(fā)明涉及智能視頻監(jiān)控、計算機視覺、機器視覺領域,具體涉及一種基于相關濾波器的長期行人跟蹤方法。
背景技術(shù):
行人跟蹤在計算機視覺領域中是一個基礎性分支,其應用非常廣泛,如智能相機、自動駕駛、視頻監(jiān)控等等。在過去幾十年里,行人跟蹤的研究有了很大的進展,但是由于應用環(huán)境的限制,如光照的影響,行人在運動過程中發(fā)生的遮擋和形變這些因素,使得行人跟蹤算法性能較低,強魯棒性的算法難以實現(xiàn)。
行人跟蹤是智能視頻監(jiān)控的一個重要分支,在機場、火車站、體育場、候車室和展覽館等大型公共場合的行人跟蹤是智能視頻監(jiān)控系統(tǒng)不可缺少的內(nèi)容。目前已有的行人跟蹤方法主要存在如下的問題:
行人與行人或者行人與環(huán)境的遮擋問題,運動行人發(fā)生的形變問題,隨著時間的變化光照的變化問題等。行人在運動過程中由于受到上述因素的影響,對其跟蹤的過程也變得越來越難,最終便會丟失目標。
所以如何提高在復雜環(huán)境下視頻監(jiān)控系統(tǒng)中行人跟蹤的魯棒性是有待解決的問題。
技術(shù)實現(xiàn)要素:
為了解決上述的技術(shù)問題,本發(fā)明的目的就在于提高行人跟蹤的準確性和性能,提供一種基于相關濾波器的長期行人跟蹤方法。
本發(fā)明所采用的技術(shù)方案是:
s10,讀入監(jiān)控視頻,對目標劃定目標區(qū)域。
s20,提取目標區(qū)域顏色特征和lbp特征。
s30,判定目標是否被遮擋。
s40,嶺回歸訓練和檢測。
s50,將跟蹤到的行人加以標記輸出到視頻監(jiān)控。
上述的技術(shù)方案,其中,所述步驟s10中讀入監(jiān)控視頻,對目標劃定目標區(qū)域包括如下步驟:
s11,使用鼠標對行人目標劃定矩形區(qū)域,系統(tǒng)初始化各類跟蹤參數(shù)。
上述的技術(shù)方案,其中,所述步驟s20中提取目標區(qū)域顏色特征和lbp特征中包括如下步驟:
s21,把目標區(qū)域平均分成5個水平條帶,每個水平條帶的每種顏色空間的每個通道都提取16維顏色直方圖特征。
s22,對于每個水平條帶,分別提取lbp等價模式中鄰域點數(shù)為8半徑為1和鄰域點數(shù)為16半徑為2的特征,然后將所有的特征串聯(lián)成行人特征。
s23,由于提取出的特征維數(shù)較大,使用pca方法進行降維。
上述的技術(shù)方案,其中,所述步驟s30中判定目標是否被遮擋包括如下步驟:
s31,找到行人目標概率分布最大的位置和概率分布的最大值。
s32,在最大值的周圍,找出滿足大于某個概率分布閾值的所有點。
s33,計算上述所有點到概率分布最大值點的歐式距離和。
s34,若歐式距離和大于設定的閾值,則判定受到遮擋。
上述的技術(shù)方案,其中,所述步驟s40中嶺回歸訓練如下步驟:
s41,對劃定的目標區(qū)域擴大到原來的2.5倍成為一個候選塊。
s42,對此候選塊向四周循環(huán)移位采集負樣本。
s43,利用嶺回歸器對采集的樣本進行訓練。
s44,當前幀中,對前一幀目標區(qū)域進行循環(huán)采樣。
s45,利用前一幀訓練的嶺回歸器計算樣本的響應,響應最大值作為當前幀目標的位置。
本發(fā)明的長期行人跟蹤方法產(chǎn)生以下幾種良好的效果:
效果1:本發(fā)明采用跟蹤目標的概率分布,計算目標區(qū)域與周圍候選區(qū)域的歐式距離來判斷是否發(fā)生遮擋,這一過程是算法后續(xù)過程的基礎,提高了跟蹤的準確性。
效果2:本發(fā)明采用提取行人多特征的方法,特征為顏色特征和lbp特征,行人一旦發(fā)生遮擋,就與已提取的特征進行匹配,相似度最高的為目標行人。行人再識別避免了目標行人在發(fā)生遮擋時目標的丟失,提高了行人跟蹤的靈活性和準確性。
效果3:本發(fā)明采用傅立葉變換的性質(zhì)進行快速的訓練和檢測,其訓練樣本通過目標區(qū)域的循環(huán)移位得到,利用前一幀訓練的嶺回歸器計算當前幀樣本的響應,響應最大值作為當前幀目標的位置??焖俑盗⑷~變換和循環(huán)移位的操作是的算法的計算速度得到了很大的提升,滿足了算法的實時性。
附圖說明
圖1是本方法的步驟圖;
圖2是行人目標跟蹤的流程圖。
具體實施方式
以下結(jié)合附圖和具體實施對本發(fā)明進行詳細描述,但不作為對本發(fā)明的限定。
一、方法
如圖1和2,本方法的實現(xiàn)步驟如下:
a讀入監(jiān)控視頻,對目標劃定目標區(qū)域
利用攝像頭獲得監(jiān)控視頻圖像數(shù)據(jù),并且在第一幀圖像中對目標行人劃定區(qū)域,初始化高斯系數(shù)和對目標區(qū)域的放大倍數(shù)。
b提取目標區(qū)域顏色特征和lbp特征
為了提高表征性,將目標區(qū)域水平方向平均分成5個部分。先提取顏色特征,從rgb、hsv和ycbcr三種顏色空間中提取,將這三種顏色空間的特征進行融合能提高特征的魯棒性。對于目標區(qū)域水平方向的每個部分都提取每種顏色空間每個顏色通道的16維顏色特征直方圖特征,然后將每個直方圖特征都串聯(lián)成一個目標行人的顏色特征,最終得到的特征維數(shù)為(3×5×3×12)640維。顏色特征表示的是一種整體特征,為了對行人的表示更準確,提取目標區(qū)域的兩種等價模式局部lbp特征,一種是采樣點數(shù)為8半徑為1,另一種是采樣點數(shù)為16半徑為2,同理,對每個水平方向部分都提取lbp兩種模式的特征,最終將所有的lbp特征串聯(lián)成行人的局部特征,其特征維數(shù)為((59+59)×5)590維。對于上面提取的兩種特征,由于特征維數(shù)較大,使用pca方法降維。
c判定目標是否被遮擋
設行人目標的概率分布為f(z),候選區(qū)域的坐標為pos(z),遮擋閾值為λ1,面積因子為λ2,樣本的高度和寬度分別為height和width:
1.首先求f(z)取到最大值的位置posmax(z)和f(z)的最大值fmax(z)。
2.求取posmax(z)周圍滿足大于λ1·fmax(z)的所有點的位置pos(z)。
3.求取所有pos(z)點到posmax(z)的歐式距離
4.判斷是否大于閾值λ2·width·height,如果大于閾值,則判斷為受到遮擋;否則判斷為未受到遮擋。
d嶺回歸訓練和檢測
在上一步的過程中,若行人發(fā)生遮擋,則不進行行人目標樣本的訓練和檢測,直到行人目標再識別后進行此步驟。首先對劃定的行人目標區(qū)域擴大到原來的2.5倍,然后向四周方向進行循環(huán)移位,移位的方式可以是每行像素的移動或者列像素的移動,由此獲得大量的訓練樣本,此時循環(huán)移位得到的樣本為負樣本,原區(qū)域的樣本為正樣本,在當前幀中對于上述樣本采用嶺回歸訓練,在下一幀中對相同區(qū)域周圍的樣本,使用前一幀計算的嶺回歸器計算其響應,響應最大值對應的位置即行人目標的位置。
e將跟蹤到的行人加以標記輸出到視頻監(jiān)控
在上述過程中將跟蹤到的行人以外接矩形框的形式顯示在監(jiān)控視頻中。