欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于支持樣本間接式的行人再識別方法與流程

文檔序號:11678116閱讀:211來源:國知局
一種基于支持樣本間接式的行人再識別方法與流程

本發(fā)明屬于智能視頻監(jiān)控技術(shù)領(lǐng)域,具體涉及一種基于支持樣本間接式的行人再識別方法。



背景技術(shù):

行人再識別是在非重疊區(qū)域的監(jiān)控多攝像頭下對行人進行匹配,即檢索某個攝像頭下的行人目標是否出現(xiàn)在其他的攝像頭下。行人再識別在社會公共安全領(lǐng)域有著重要的應用,然而不同監(jiān)控攝像頭之間差異,導致了視角、光照和尺度變化,使得行人再識別中存在很大的挑戰(zhàn)。如何建立一種高效準確針的再識別方法,研究人員進行了相關(guān)的研究。目前行人再識別的研究主要集中在特征表示法和距離測度的學習,近幾年來深度學習也開始應用于行人再識別當中。

然而由于視角、光照和尺度變化等問題,上述方法都沒有很好的解決行人再識別。使得行人再識別的準確率不是非常的高。



技術(shù)實現(xiàn)要素:

本發(fā)明是為了克服現(xiàn)有技術(shù)的不足之處,提供一種基于支持樣本間接式的行人再識別方法,以期能有效的克服行人再識別中光照、視角和尺度等問題,獲得較好再識別性能,從而有效提高行人再識別率,增強行人再識別算法的魯棒性。

本發(fā)明為了解決技術(shù)問題采用如下技術(shù)方案:

本發(fā)明一種支持樣本間接式的行人再識別方法的特點是按如下步驟進行:

步驟1、利用拍攝區(qū)域無交集的兩個攝像頭camera_p和camera_q分別獲取行人訓練圖像集,記為行人訓練圖像集p={p1,p2,…,pi,…,pn}和行人匹配圖像集q={q1,q2,…,qi,…,qn};且第i幅訓練圖像pi中的行人與第i幅匹配圖像qi中的行人為同一個人;1≤i≤n;

步驟2、特征提取

將所述第i幅訓練圖像pi劃分為u×v個小塊;并提取所述第i幅訓練圖像pi中第m×n個小塊的顏色直方圖特征和sift特征后進行級聯(lián),得到所述第i幅訓練圖像pi中第m×n個小塊的顏色sift特征,記為從而得到u×v個小塊的顏色sift特征作為所述第i幅訓練圖像pi的密集顏色sift特征;

同理可得,第i幅匹配圖像qi的密集顏色sift特征;

步驟3、支持樣本的選取

步驟3.1、從所述行人訓練圖像集p中選取任意第j幅訓練圖像pj,i≠j;

利用歐式距離計算所述第i幅訓練圖像pi中第m×n個小塊顏色sift特征與所述行為訓練圖像集p中任意第k幅訓練圖像pk中搜索域為t的所有小塊的顏色sift特征的相似性得分,并選擇所述搜索域t中所有小塊的相似性得分最大值作為所述第i幅訓練圖像pi中第m×n個小塊與第k訓練圖像pk的得分,從而得到所述第i幅訓練圖像pi中u×v個小塊與第k幅訓練圖像pk的總得分進而得到所述第i幅訓練圖像pi中u×v個小塊與n-2幅訓練圖像的總得分所述搜索域t的范圍為u1≤m≤u2,1≤n≤v;k≠i;k≠j;同理可得所述第j幅訓練圖像pj中u×v個小塊與n-2幅訓練圖像的總得分

同理可得所述第i幅匹配圖像qi中u×v個小塊與n-2幅匹配圖像的總得分以及第j幅匹配圖像qj中u×v個小塊與n-2幅匹配圖像的總得分

步驟3.2、計算所述第i幅訓練圖像pi的總得分與第j幅訓練圖像pj的總得分的相關(guān)系數(shù)以及第i幅匹配圖像qi的總得分與第j幅匹配圖像qj的總得分的相關(guān)系數(shù)并利用式(1)獲得相關(guān)系數(shù)乘積

則表示所述第i幅訓練圖像pi與第j幅訓練圖像pj相似,且第i幅匹配圖像qi與第j幅匹配圖像qj相似,并刪除所述第i幅訓練圖像pi與第i幅匹配圖像qi或者刪除第j幅訓練圖像pj與第j幅匹配圖像qj;若則表示所述第i幅訓練圖像pi與第j幅訓練圖像pj不相似,且第i幅匹配圖像qi與第j幅匹配圖像qj不相似,并均保留;

步驟3.3、重復步驟3.1-步驟3.2,對所述行人訓練圖像集p和行人匹配圖像集q進行處理,從而得到訓練支持樣本集p′和匹配支持樣本集q′;

步驟4、行人再識別

步驟4.1、利用所述兩個攝像頭camera_p和camera_q分別獲取一幅行人測試圖像pt和qt

步驟4.2、根據(jù)步驟3.1,計算行人測試圖像pt與訓練支持樣本集p′中所有訓練支持樣本的總得分,并選取得分最高的訓練支持樣本p′max作為行人測試圖像pt在訓練支持樣本集p′中的代表圖像;同理,計算行人測試圖像qt在匹配支持樣本集q′中的代表圖像q′max;

步驟4.3、判斷訓練支持樣本集p′中的代表圖像p′max的序號與匹配支持樣本集q′中的代表圖像q′max的序號是否相同,若相同,表示行人測試圖像pt和qt為同一個人,否則,表示行人測試圖像pt和qt不為同一個人。

與已有的技術(shù)相比,本發(fā)明有益效果體現(xiàn)在:

1、本發(fā)明采用了間接式的行人再識別的方法。不同攝像頭由于位置、配置和采光度的不同,就造成不同攝像頭拍攝到行人之間存在視角、光照和尺度變化等問題。已有的技術(shù)都是直接通過對不同攝像頭下的行人進行直接匹配。上述問題的存在,使得這種直接匹配的方法無法有效的提高準確率。而間接式的行人再識別方法,首先通過聚類的方法分別提取不同攝像頭下的支持樣本,當要對來自不同攝像頭的行人進行匹配時,在距離測度的基礎(chǔ)上利用支持樣本分別判別出其所在攝像頭下的行人類別,通過類別的對比判斷是否為同一行人。該方法避免了不同攝像頭下行人圖片直接匹配,有效解決了不同攝像頭帶來的視角、光照和尺度問題。

2、本發(fā)明采用了密集顏色特征和密集sift特征相結(jié)合的方式。顏色特征可以有效的利用了行人外貌信息。行人再識別中外貌是一張很有用的信息,可以幫助人們快速對行人進行識別。sift特征可以作為顏色直方圖特征的互補特征傳統(tǒng)的sift方法可以檢測到圖片中的興趣點,該算法檢測到的興趣點不僅具有空間穩(wěn)定性,而且有尺度不變性和旋轉(zhuǎn)不變性。

3、本發(fā)明采用了支持樣本的選取。通過對不同攝像頭下的行人樣本庫學習,得到每個樣本庫中的支持樣本。由于視角、光照和尺度變化等問題,使得同一個性人差別很大,而有時不同的行人會呈現(xiàn)出相似性。支持樣本就是有效的解決了這種干擾,減少了行人樣本庫中的冗余性,提高了行人再識別的準確率。

附圖說明

圖1為本發(fā)明的行人再識別流程圖;

圖2為本發(fā)明的顏色直方圖特征示意圖;

圖3為本發(fā)明的sift特征提取示意圖;

圖4為本發(fā)明的dcolorsift特征提取示意圖。

具體實施方式

本實施例中,如圖1所示,一種支持樣本間接式的行人再識別方法包括以下過程:首先對采集的不同攝像頭視頻進行預處理,獲得需要的樣本圖像。通過聚類的方法學習得到攝像頭樣本的支持樣本。在支持樣本的基礎(chǔ)上通過間接式行人匹配的方法,可以對不同攝像頭下的行人進行匹配。具體地說,是按如下步驟進行:

步驟1、利用拍攝區(qū)域無交集的兩個攝像頭camera_p和camera_q分別獲取行人訓練圖像集,記為行人訓練圖像集p={p1,p2,…,pi,…,pn}和行人匹配圖像集q={q1,q2,…,qi,…,qn};且第i幅訓練圖像pi中的行人與第i幅匹配圖像qi中的行人為同一個人;1≤i≤n;

步驟2、特征提取

將所述第i幅訓練圖像pi劃分為u×v個小塊;并提取所述第i幅訓練圖像pi中第m×n個小塊的顏色直方圖特征和sift特征后進行級聯(lián),得到所述第i幅訓練圖像pi中第m×n個小塊的顏色sift特征,記為從而得到u×v個小塊的顏色sift特征作為所述第i幅訓練圖像pi的密集顏色sift特征;

同理可得,第i幅匹配圖像qi的密集顏色sift特征;

將每一個行人圖片分割成u×v個小塊,對于每一小塊分別提取其lab顏色直方圖。為了能夠與sift特征相結(jié)合,所有的直方圖都要進行l(wèi)2標準化。獲得密集顏色直方圖特征如圖2所示。

顏色模型(lab)基于人對顏色的感覺。lab中的數(shù)值描述正常實例的人能夠看到的所有的顏色。lab色彩模型是由明度(l)和有關(guān)色彩的a,b三個要素組成。l表示明度,a表示從洋紅色到綠色的范圍。b表示黃色到藍色的范圍。顏色直方圖在許多圖像檢索系統(tǒng)中被廣泛采用的顏色特征。它描述的是不同色彩在整幅圖像中所占的比例。

sift,即尺度不變特征變換,是用于圖像處理領(lǐng)域的一種描述。這種描述具有尺度不變性,可在圖像中檢測出關(guān)鍵點,是一種局部特征描述子。sift特征是基于物體上的一些局部外觀的興趣點而與影像的大小和旋轉(zhuǎn)無關(guān)。對于光線、噪聲、微視角改變的容忍度也很高。

對每一個行人圖片分割成的一系列局部小塊分別提取sift特征,得到的特征為128維。同樣sift特征也要進行l(wèi)2標準化。如圖3所示。注意小塊的大小為10*10像素,l,a,b顏色直方圖分別設(shè)置為32維。對于sift特征,l,a,b通道都要進行提取,最后得到的sift特征大小為128*3維。最終,我們得到的每一小塊的特征大小為32*3+128*3=480。如圖4所示。

步驟3、支持樣本的選取

步驟3.1、從所述行人訓練圖像集p中選取任意第j幅訓練圖像pj,i≠j;

利用歐式距離計算所述第i幅訓練圖像pi中第m×n個小塊顏色sift特征與所述行為訓練圖像集p中任意第k幅訓練圖像pk中搜索域為t的所有小塊的顏色sift特征的相似性得分,并選擇所述搜索域t中所有小塊的相似性得分最大值作為所述第i幅訓練圖像pi中第m×n個小塊與第k訓練圖像pk的得分,從而得到所述第i幅訓練圖像pi中u×v個小塊與第k幅訓練圖像pk的總得分進而得到所述第i幅訓練圖像pi中u×v個小塊與n-2幅訓練圖像的總得分所述搜索域t的范圍為u1≤m≤u2,1≤n≤v;k≠i;k≠j;同理可得所述第j幅訓練圖像pj中u×v個小塊與n-2幅訓練圖像的總得分

同理可得所述第i幅匹配圖像qi中u×v個小塊與n-2幅匹配圖像的總得分以及第j幅匹配圖像qj中u×v個小塊與n-2幅匹配圖像的總得分

歐式距離是一個通常采用的距離定義,指在m維空間中兩個點之間的真實距離。我們用歐式距離計算圖片特征之間的距離,來表示圖片之間的相似性,根據(jù)相似性的得分結(jié)果,判斷是否為同一個行人。我們利用高斯函數(shù)將距離值轉(zhuǎn)換成相似性的得分:

步驟3.2、計算所述第i幅訓練圖像pi的總得分與第j幅訓練圖像pj的總得分的相關(guān)系數(shù)以及第i幅匹配圖像qi的總得分與第j幅匹配圖像qj的總得分的相關(guān)系數(shù)并利用式(1)獲得相關(guān)系數(shù)乘積

則表示所述第i幅訓練圖像pi與第j幅訓練圖像pj相似,且第i幅匹配圖像qi與第j幅匹配圖像qj相似,并刪除所述第i幅訓練圖像pi與第i幅匹配圖像qi或者刪除第j幅訓練圖像pj與第j幅匹配圖像qj;若則表示所述第i幅訓練圖像pi與第j幅訓練圖像pj不相似,且第i幅匹配圖像qi與第j幅匹配圖像qj不相似,并均保留;

權(quán)值δ直接影響支持樣本的選取結(jié)果,經(jīng)過實驗證明的取值范圍為0.3~0.5最為合適;

步驟3.3、重復步驟3.1-步驟3.2,對所述行人訓練圖像集p和行人匹配圖像集q進行處理,從而得到訓練支持樣本集p′和匹配支持樣本集q′;

步驟4、行人再識別

步驟4.1、利用所述兩個攝像頭camera_p和camera_q分別獲取一幅行人測試圖像pt和qt

步驟4.2、根據(jù)步驟3.1,計算行人測試圖像pt與訓練支持樣本集p′中所有訓練支持樣本的總得分,并選取得分最高的訓練支持樣本p′max作為行人測試圖像pt在訓練支持樣本集p′中的代表圖像;同理,計算行人測試圖像qt在匹配支持樣本集q′中的代表圖像q′max;

步驟4.3、判斷訓練支持樣本集p′中的代表圖像p′max的序號與匹配支持樣本集q′中的代表圖像q′max的序號是否相同,若相同,表示行人測試圖像pt和qt為同一個人,否則,表示行人測試圖像pt和qt不為同一個人。

當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
霍州市| 贵定县| 黎平县| 临澧县| 鄂伦春自治旗| 青龙| 东辽县| 陇川县| 济阳县| 唐海县| 盐边县| 西吉县| 清水县| 从江县| 定结县| 桑日县| 沭阳县| 台中市| 白河县| 蓬安县| 金平| 来宾市| 宾阳县| 武强县| 绵阳市| 陆川县| 遂川县| 绥滨县| 中阳县| 新乐市| 梁山县| 河南省| 富平县| 昌都县| 卢龙县| 襄汾县| 铁岭县| 夏津县| 华容县| 海宁市| 甘洛县|