本發(fā)明屬于智能視頻監(jiān)控技術(shù)領(lǐng)域,具體涉及一種基于支持樣本間接式的行人再識別方法。
背景技術(shù):
行人再識別是在非重疊區(qū)域的監(jiān)控多攝像頭下對行人進行匹配,即檢索某個攝像頭下的行人目標是否出現(xiàn)在其他的攝像頭下。行人再識別在社會公共安全領(lǐng)域有著重要的應用,然而不同監(jiān)控攝像頭之間差異,導致了視角、光照和尺度變化,使得行人再識別中存在很大的挑戰(zhàn)。如何建立一種高效準確針的再識別方法,研究人員進行了相關(guān)的研究。目前行人再識別的研究主要集中在特征表示法和距離測度的學習,近幾年來深度學習也開始應用于行人再識別當中。
然而由于視角、光照和尺度變化等問題,上述方法都沒有很好的解決行人再識別。使得行人再識別的準確率不是非常的高。
技術(shù)實現(xiàn)要素:
本發(fā)明是為了克服現(xiàn)有技術(shù)的不足之處,提供一種基于支持樣本間接式的行人再識別方法,以期能有效的克服行人再識別中光照、視角和尺度等問題,獲得較好再識別性能,從而有效提高行人再識別率,增強行人再識別算法的魯棒性。
本發(fā)明為了解決技術(shù)問題采用如下技術(shù)方案:
本發(fā)明一種支持樣本間接式的行人再識別方法的特點是按如下步驟進行:
步驟1、利用拍攝區(qū)域無交集的兩個攝像頭camera_p和camera_q分別獲取行人訓練圖像集,記為行人訓練圖像集p={p1,p2,…,pi,…,pn}和行人匹配圖像集q={q1,q2,…,qi,…,qn};且第i幅訓練圖像pi中的行人與第i幅匹配圖像qi中的行人為同一個人;1≤i≤n;
步驟2、特征提取
將所述第i幅訓練圖像pi劃分為u×v個小塊;并提取所述第i幅訓練圖像pi中第m×n個小塊的顏色直方圖特征和sift特征后進行級聯(lián),得到所述第i幅訓練圖像pi中第m×n個小塊的顏色sift特征,記為
同理可得,第i幅匹配圖像qi的密集顏色sift特征;
步驟3、支持樣本的選取
步驟3.1、從所述行人訓練圖像集p中選取任意第j幅訓練圖像pj,i≠j;
利用歐式距離計算所述第i幅訓練圖像pi中第m×n個小塊顏色sift特征
同理可得所述第i幅匹配圖像qi中u×v個小塊與n-2幅匹配圖像的總得分
步驟3.2、計算所述第i幅訓練圖像pi的總得分
若
步驟3.3、重復步驟3.1-步驟3.2,對所述行人訓練圖像集p和行人匹配圖像集q進行處理,從而得到訓練支持樣本集p′和匹配支持樣本集q′;
步驟4、行人再識別
步驟4.1、利用所述兩個攝像頭camera_p和camera_q分別獲取一幅行人測試圖像pt和qt
步驟4.2、根據(jù)步驟3.1,計算行人測試圖像pt與訓練支持樣本集p′中所有訓練支持樣本的總得分,并選取得分最高的訓練支持樣本p′max作為行人測試圖像pt在訓練支持樣本集p′中的代表圖像;同理,計算行人測試圖像qt在匹配支持樣本集q′中的代表圖像q′max;
步驟4.3、判斷訓練支持樣本集p′中的代表圖像p′max的序號與匹配支持樣本集q′中的代表圖像q′max的序號是否相同,若相同,表示行人測試圖像pt和qt為同一個人,否則,表示行人測試圖像pt和qt不為同一個人。
與已有的技術(shù)相比,本發(fā)明有益效果體現(xiàn)在:
1、本發(fā)明采用了間接式的行人再識別的方法。不同攝像頭由于位置、配置和采光度的不同,就造成不同攝像頭拍攝到行人之間存在視角、光照和尺度變化等問題。已有的技術(shù)都是直接通過對不同攝像頭下的行人進行直接匹配。上述問題的存在,使得這種直接匹配的方法無法有效的提高準確率。而間接式的行人再識別方法,首先通過聚類的方法分別提取不同攝像頭下的支持樣本,當要對來自不同攝像頭的行人進行匹配時,在距離測度的基礎(chǔ)上利用支持樣本分別判別出其所在攝像頭下的行人類別,通過類別的對比判斷是否為同一行人。該方法避免了不同攝像頭下行人圖片直接匹配,有效解決了不同攝像頭帶來的視角、光照和尺度問題。
2、本發(fā)明采用了密集顏色特征和密集sift特征相結(jié)合的方式。顏色特征可以有效的利用了行人外貌信息。行人再識別中外貌是一張很有用的信息,可以幫助人們快速對行人進行識別。sift特征可以作為顏色直方圖特征的互補特征傳統(tǒng)的sift方法可以檢測到圖片中的興趣點,該算法檢測到的興趣點不僅具有空間穩(wěn)定性,而且有尺度不變性和旋轉(zhuǎn)不變性。
3、本發(fā)明采用了支持樣本的選取。通過對不同攝像頭下的行人樣本庫學習,得到每個樣本庫中的支持樣本。由于視角、光照和尺度變化等問題,使得同一個性人差別很大,而有時不同的行人會呈現(xiàn)出相似性。支持樣本就是有效的解決了這種干擾,減少了行人樣本庫中的冗余性,提高了行人再識別的準確率。
附圖說明
圖1為本發(fā)明的行人再識別流程圖;
圖2為本發(fā)明的顏色直方圖特征示意圖;
圖3為本發(fā)明的sift特征提取示意圖;
圖4為本發(fā)明的dcolorsift特征提取示意圖。
具體實施方式
本實施例中,如圖1所示,一種支持樣本間接式的行人再識別方法包括以下過程:首先對采集的不同攝像頭視頻進行預處理,獲得需要的樣本圖像。通過聚類的方法學習得到攝像頭樣本的支持樣本。在支持樣本的基礎(chǔ)上通過間接式行人匹配的方法,可以對不同攝像頭下的行人進行匹配。具體地說,是按如下步驟進行:
步驟1、利用拍攝區(qū)域無交集的兩個攝像頭camera_p和camera_q分別獲取行人訓練圖像集,記為行人訓練圖像集p={p1,p2,…,pi,…,pn}和行人匹配圖像集q={q1,q2,…,qi,…,qn};且第i幅訓練圖像pi中的行人與第i幅匹配圖像qi中的行人為同一個人;1≤i≤n;
步驟2、特征提取
將所述第i幅訓練圖像pi劃分為u×v個小塊;并提取所述第i幅訓練圖像pi中第m×n個小塊的顏色直方圖特征和sift特征后進行級聯(lián),得到所述第i幅訓練圖像pi中第m×n個小塊的顏色sift特征,記為
同理可得,第i幅匹配圖像qi的密集顏色sift特征;
將每一個行人圖片分割成u×v個小塊,對于每一小塊分別提取其lab顏色直方圖。為了能夠與sift特征相結(jié)合,所有的直方圖都要進行l(wèi)2標準化。獲得密集顏色直方圖特征如圖2所示。
顏色模型(lab)基于人對顏色的感覺。lab中的數(shù)值描述正常實例的人能夠看到的所有的顏色。lab色彩模型是由明度(l)和有關(guān)色彩的a,b三個要素組成。l表示明度,a表示從洋紅色到綠色的范圍。b表示黃色到藍色的范圍。顏色直方圖在許多圖像檢索系統(tǒng)中被廣泛采用的顏色特征。它描述的是不同色彩在整幅圖像中所占的比例。
sift,即尺度不變特征變換,是用于圖像處理領(lǐng)域的一種描述。這種描述具有尺度不變性,可在圖像中檢測出關(guān)鍵點,是一種局部特征描述子。sift特征是基于物體上的一些局部外觀的興趣點而與影像的大小和旋轉(zhuǎn)無關(guān)。對于光線、噪聲、微視角改變的容忍度也很高。
對每一個行人圖片分割成的一系列局部小塊分別提取sift特征,得到的特征為128維。同樣sift特征也要進行l(wèi)2標準化。如圖3所示。注意小塊的大小為10*10像素,l,a,b顏色直方圖分別設(shè)置為32維。對于sift特征,l,a,b通道都要進行提取,最后得到的sift特征大小為128*3維。最終,我們得到的每一小塊的特征大小為32*3+128*3=480。如圖4所示。
步驟3、支持樣本的選取
步驟3.1、從所述行人訓練圖像集p中選取任意第j幅訓練圖像pj,i≠j;
利用歐式距離計算所述第i幅訓練圖像pi中第m×n個小塊顏色sift特征
同理可得所述第i幅匹配圖像qi中u×v個小塊與n-2幅匹配圖像的總得分
歐式距離是一個通常采用的距離定義,指在m維空間中兩個點之間的真實距離。我們用歐式距離計算圖片特征之間的距離,來表示圖片之間的相似性,根據(jù)相似性的得分結(jié)果,判斷是否為同一個行人。我們利用高斯函數(shù)將距離值轉(zhuǎn)換成相似性的得分:
步驟3.2、計算所述第i幅訓練圖像pi的總得分
若
權(quán)值δ直接影響支持樣本的選取結(jié)果,經(jīng)過實驗證明的取值范圍為0.3~0.5最為合適;
步驟3.3、重復步驟3.1-步驟3.2,對所述行人訓練圖像集p和行人匹配圖像集q進行處理,從而得到訓練支持樣本集p′和匹配支持樣本集q′;
步驟4、行人再識別
步驟4.1、利用所述兩個攝像頭camera_p和camera_q分別獲取一幅行人測試圖像pt和qt
步驟4.2、根據(jù)步驟3.1,計算行人測試圖像pt與訓練支持樣本集p′中所有訓練支持樣本的總得分,并選取得分最高的訓練支持樣本p′max作為行人測試圖像pt在訓練支持樣本集p′中的代表圖像;同理,計算行人測試圖像qt在匹配支持樣本集q′中的代表圖像q′max;
步驟4.3、判斷訓練支持樣本集p′中的代表圖像p′max的序號與匹配支持樣本集q′中的代表圖像q′max的序號是否相同,若相同,表示行人測試圖像pt和qt為同一個人,否則,表示行人測試圖像pt和qt不為同一個人。