本發(fā)明屬于數(shù)字圖像處理和控制系統(tǒng)交叉技術(shù)領(lǐng)域,更具體地,涉及一種面向無人艇應(yīng)用的水面目標(biāo)檢測(cè)跟蹤一體化方法。
背景技術(shù):
無人艇作為水面無人操作艦艇,在許多實(shí)際應(yīng)用場(chǎng)景中,都有著十分重要的作用。例如,民用領(lǐng)域中的水質(zhì)監(jiān)測(cè),警用領(lǐng)域中的海關(guān)緝私,軍用領(lǐng)域中的近海巡邏等等。因此,我國(guó)對(duì)無人艇的需求正在日益增加。而無人艇要完成自主航行的前提是要實(shí)現(xiàn)自動(dòng)避障技術(shù),水面目標(biāo)的快速檢測(cè)是自動(dòng)避障技術(shù)的基礎(chǔ)。對(duì)于水面目標(biāo)的檢測(cè)除了要快速和準(zhǔn)確,檢測(cè)結(jié)果一定要平滑,才能夠?yàn)闊o人艇的控制模塊提供穩(wěn)定的環(huán)境感知信息。下面介紹幾種目前常用的目標(biāo)檢測(cè)算法:
(1)基于目標(biāo)潛在區(qū)域的目標(biāo)檢測(cè)算法
2014年rossgirshick等人在cvpr上發(fā)表r-cnn算法,首先計(jì)算得到目標(biāo)潛在區(qū)域,然后對(duì)眾多目標(biāo)潛在區(qū)域分別提取cnn特征進(jìn)行分類,最終實(shí)現(xiàn)目標(biāo)檢測(cè)。r-cnn算法開創(chuàng)了基于目標(biāo)潛在區(qū)域的目標(biāo)檢測(cè)方法,利用selectivesearch算法獲取目標(biāo)潛在區(qū)域,然后將每一個(gè)目標(biāo)潛在區(qū)域輸入到卷積神經(jīng)網(wǎng)絡(luò)中,分別提取各自的cnn特征,最后將特征送入到svm分類器中進(jìn)行分類,r-cnn算法在voc2010數(shù)據(jù)庫(kù)上獲得了53.7%的正確率。
2015年kaiminghe等人在nips上發(fā)表了fasterr-cnn算法,提出了rpn網(wǎng)絡(luò),從輸入圖片的卷積層中提取目標(biāo)潛在區(qū)域,實(shí)現(xiàn)了端對(duì)端的卷積神經(jīng)網(wǎng)絡(luò)。該算法將圖片輸入到cnn網(wǎng)絡(luò)中,計(jì)算輸入圖片的卷積特征圖,從中提取目標(biāo)的潛在區(qū)域,然后將目標(biāo)潛在區(qū)域送入全連接層,最后利用softmax分類器進(jìn)行分類和回歸,得到目標(biāo)的類別和位置。該算法取得了當(dāng)時(shí)最好的效果,在voc2007數(shù)據(jù)集上正確率達(dá)到了73.2%。
(2)不需要目標(biāo)潛在區(qū)域的目標(biāo)檢測(cè)算法
2016年weiliu等人在eccv上發(fā)表了ssd算法,去除了提取目標(biāo)潛在區(qū)域的過程,直接將圖片輸入到cnn網(wǎng)絡(luò)進(jìn)行目標(biāo)檢測(cè)識(shí)別,大大縮短了計(jì)算時(shí)間。ssd算法將輸入圖片統(tǒng)一剪裁成固定的大小(300*300或500*500),然后計(jì)算圖片的cnn特征,將其中的多層特征圖分別接上分類器,得到目標(biāo)的類別和位置,對(duì)眾多目標(biāo)框進(jìn)行非極大值抑制得到最終的結(jié)果。ssd300網(wǎng)絡(luò)在voc2007數(shù)據(jù)集上獲得了72.1%的準(zhǔn)確率,速度達(dá)到了58fps。
目前常用的目標(biāo)檢測(cè)算法主要是基于深度學(xué)習(xí),此類目標(biāo)檢測(cè)算法由于算法復(fù)雜度高,大多數(shù)的速度都比較慢,不能達(dá)到實(shí)時(shí)。而不需要提取目標(biāo)潛在區(qū)域的目標(biāo)檢測(cè)算法(例如ssd算法)速度可以達(dá)到實(shí)時(shí)的要求,但是對(duì)于小目標(biāo)的效果不好,無法達(dá)到實(shí)際應(yīng)用的要求。同時(shí),目標(biāo)檢測(cè)算法對(duì)于視頻序列的檢測(cè)結(jié)果不平滑,相近幾幀的結(jié)果可能差別較大。而無人艇在進(jìn)行自主航行的時(shí)候,需要穩(wěn)定的目標(biāo)位置信息。
對(duì)于目標(biāo)檢測(cè)方法速度慢和檢測(cè)結(jié)果不平滑的問題,目標(biāo)跟蹤方法可以很好的解決。目前常用的跟蹤算法有,jianmingzhang等人在eccv上提出meem跟蹤方法,
綜上所述,無論是目標(biāo)檢測(cè)算法還是目標(biāo)跟蹤算法,單獨(dú)使用都不能完成無人艇的障礙物檢測(cè)識(shí)別任務(wù),無法實(shí)現(xiàn)無人艇的自主避障。但是,兩種方法的優(yōu)點(diǎn)恰好可以補(bǔ)充各自方法的不足,因此考慮將目標(biāo)檢測(cè)算法和目標(biāo)跟蹤算法結(jié)合到一起,來完成無人艇的自主避障任務(wù)。
技術(shù)實(shí)現(xiàn)要素:
本發(fā)明要解決的技術(shù)問題是提供一種面向無人艇應(yīng)用的水面目標(biāo)檢測(cè)跟蹤一體化方法,既能夠快速、準(zhǔn)確的獲取障礙物類別和位置,又可以獲取穩(wěn)定的檢測(cè)結(jié)果。
為了解決上述技術(shù)問題,本發(fā)明采取以下技術(shù)方案:
一種面向無人艇應(yīng)用的水面目標(biāo)檢測(cè)跟蹤一體化方法,包括以下步驟:
s1,訓(xùn)練目標(biāo)檢測(cè)神經(jīng)網(wǎng)絡(luò)模型;
s2,目標(biāo)檢測(cè),對(duì)輸入的圖片進(jìn)行檢測(cè),得到該圖片中的包含目標(biāo)的目標(biāo)框,進(jìn)而得到目標(biāo)檢測(cè)結(jié)果,將檢測(cè)結(jié)果放入集合bd中;
s3,檢測(cè)當(dāng)前圖片是否為第一幀圖片,若是,則轉(zhuǎn)入步驟s4;若不是,則檢驗(yàn)?zāi)繕?biāo)跟蹤結(jié)果,將上一幀圖片的目標(biāo)跟蹤結(jié)果,輸入到目標(biāo)檢測(cè)神經(jīng)網(wǎng)絡(luò)模型中進(jìn)行檢測(cè),保留沒有丟失目標(biāo)的跟蹤框,將該跟蹤框放入集合bt中;
s4、精調(diào)目標(biāo)框和跟蹤框的大小和位置,對(duì)步驟s2中的目標(biāo)框和步驟s3中的跟蹤框進(jìn)行邊緣提取得到邊緣圖,將該邊緣圖的最大外接矩形作為精確的目標(biāo)框和跟蹤框;
s5,判斷是否出現(xiàn)新目標(biāo),對(duì)比集合bt和bd中的目標(biāo)框和跟蹤框,判斷集合bd中是否發(fā)現(xiàn)了新目標(biāo),若發(fā)現(xiàn)新目標(biāo),將該新目標(biāo)的框加入集合bt中,舍棄集合bd中其余的目標(biāo)框;
s6,目標(biāo)跟蹤,將集合bt中的跟蹤框中的目標(biāo)作為跟蹤目標(biāo);
s7,連續(xù)跟蹤m幀,然后重復(fù)步驟2至步驟7,直到最后一幀圖片。
所述步驟s1具體包括:
s11,定義神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)誤差函數(shù):
其中l(wèi)c和lr分別代表分類誤差和回歸誤差,具體定義如下:
在上述公式中,i表示框的序號(hào);bi表示框里有目標(biāo)的概率,如果第i個(gè)框是正樣本則bi等于1,否則等于0;bi*表示第i個(gè)框?qū)嶋H的類別;mi表示第i個(gè)框的四個(gè)坐標(biāo);mi*表示第i個(gè)框?qū)嶋H的坐標(biāo);λ表示分類誤差和回歸誤差的平衡參數(shù);
s12,網(wǎng)絡(luò)初始化;
s13,訓(xùn)練神經(jīng)網(wǎng)絡(luò),使用反向傳播算法,對(duì)神經(jīng)網(wǎng)絡(luò)的參數(shù)進(jìn)行更新,當(dāng)測(cè)試誤差不再變化時(shí),訓(xùn)練停止。
所述步驟s2具體包括:
s21,圖片初始化,對(duì)輸入的圖片初始化處理;
s22,提取圖片cnn特征;
s23,獲取目標(biāo)初始位置和類別,得到包含目標(biāo)的初始目標(biāo)框;
s24,獲取目標(biāo)精確位置和類別,得到目標(biāo)框;
s25,剔除虛景,對(duì)步驟s24的結(jié)果進(jìn)行非極大值抑制處理,剔除虛景和重復(fù)的目標(biāo)框,得到目標(biāo)檢測(cè)最終結(jié)果,將該目標(biāo)檢測(cè)最終結(jié)果放入集合bd中。
所述步驟s23具體為,由步驟s22提取的圖片的cnn特征構(gòu)成該圖片的cnn特征圖,在該cnn特征圖上以每個(gè)元素為中心,構(gòu)建9種不同大小的矩形框,將該9種矩形框輸入到softmax分類器中進(jìn)行分類和回歸,得到具有初始位置和類別的初始目標(biāo)框。
所述步驟s24具體為,將初始目標(biāo)框歸一化至設(shè)定大小,再接入2個(gè)全連接層,然后送入softmax分類器得到目標(biāo)框的精確位置和類別。
所述步驟s5具體包括:
s51,計(jì)算區(qū)域h-s顏色直方圖,將輸入圖片從rgb顏色空間轉(zhuǎn)換至hsv顏色空間,對(duì)集合bt和bd中的目標(biāo)框和跟蹤框,構(gòu)建區(qū)域h-s顏色直方圖,將目標(biāo)框的直方圖放入集合hd中,將跟蹤框的直方圖放入集合ht中;
s52,區(qū)域顏色直方圖匹配,比較集合ht和集合hd中的顏色直方圖,如果相似度小于設(shè)定值,則檢測(cè)到了新目標(biāo);如果相似度大于設(shè)定值,則沒有檢測(cè)到新目標(biāo),將新目標(biāo)的框放入集合bt中;
s53,剔除重復(fù)目標(biāo)框,在集合bt中,計(jì)算每個(gè)目標(biāo)框與其他目標(biāo)框交集部分的面積,若交集的面積占其中某個(gè)目標(biāo)框面積70%以上,同時(shí)該兩個(gè)目標(biāo)框檢測(cè)到的目標(biāo)類型一致,則判定出現(xiàn)重復(fù)目標(biāo)框,將面積大的目標(biāo)框移出集合bt。
所述步驟s6具體包括:
s61,構(gòu)造循環(huán)偏移矩陣,以集合bt中跟蹤框作為跟蹤目標(biāo)的起始位置,以該起始位置為中心,選擇面積大于起始位置面積的矩形區(qū)域作為樣本圖像,將該樣本圖像進(jìn)行上下左右的循環(huán)偏移,得到若干訓(xùn)練樣本,所有訓(xùn)練樣本構(gòu)成樣本矩陣,該樣本矩形變成循環(huán)矩陣;
s62,訓(xùn)練濾波器參數(shù),得到濾波器w=[w(1)w(2)w(3)……w(n)]t使得:
其中λ是為了防止過擬合設(shè)定的正則化項(xiàng),求解可得w=(xhx+λi)-1xhy,x和xh都是循環(huán)矩陣,進(jìn)一步求出
s63,搜尋目標(biāo),在下一幀圖片上,按照步驟s61找到若干樣本圖像,利用濾波器w,對(duì)每一個(gè)樣本圖像進(jìn)行回歸,將回歸值最高的圖像設(shè)為目標(biāo)位置,完成目標(biāo)跟蹤,將新的目標(biāo)位置放入新的集合bt中。
本發(fā)明能夠快速、準(zhǔn)確的檢測(cè)到無人艇自主航行中遇到的障礙物,并且檢測(cè)結(jié)果較為穩(wěn)定。接收攝像機(jī)拍攝的圖片,對(duì)圖片進(jìn)行目標(biāo)檢測(cè),將檢測(cè)結(jié)果作為目標(biāo)跟蹤的起始位置,進(jìn)行目標(biāo)跟蹤。利用目標(biāo)檢測(cè)與目標(biāo)跟蹤的相互驗(yàn)證,提高方法的準(zhǔn)確率。利用顏色直方圖對(duì)比、目標(biāo)位置關(guān)系等策略,平滑檢測(cè)結(jié)果,從而得到穩(wěn)定的目標(biāo)位置。
附圖說明
圖1為本發(fā)明流程原理示意圖;
圖2為本發(fā)明中目標(biāo)檢測(cè)流程示意圖;
圖3為本發(fā)明中目標(biāo)邊緣示意圖;
圖4為本發(fā)明目標(biāo)h-s顏色直方圖;
圖5為本發(fā)明檢測(cè)跟蹤一體化實(shí)驗(yàn)結(jié)果序列圖。
具體實(shí)施方式
為了便于本領(lǐng)域技術(shù)人員的理解,下面結(jié)合附圖對(duì)本發(fā)明作進(jìn)一步的描述。應(yīng)當(dāng)理解,此處所描述的具體實(shí)施例僅僅用以解釋本發(fā)明,并不用于限定本發(fā)明
如附圖1-4所示,本發(fā)明揭示了一種面向無人艇應(yīng)用的水面目標(biāo)檢測(cè)跟蹤一體化方法,包括以下步驟:
s1,訓(xùn)練目標(biāo)檢測(cè)神經(jīng)網(wǎng)絡(luò)模型。為了解決訓(xùn)練問題,本發(fā)明制作了水面常見目標(biāo)數(shù)據(jù)集,共2000張圖片,其中包括內(nèi)河船、帆船、軍艦、郵輪、浮標(biāo)等5類水面常見目標(biāo)。同時(shí)為了增強(qiáng)目標(biāo)檢測(cè)神經(jīng)網(wǎng)絡(luò)的穩(wěn)定性,訓(xùn)練時(shí)另外加入pascalvoc2007數(shù)據(jù)集20類共10000張圖片,本發(fā)明訓(xùn)練集最終包含25類目標(biāo)共12000張訓(xùn)練圖片。
該步驟s1具體包括:
s11,定義神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)誤差函數(shù):
其中l(wèi)c和lr分別代表分類誤差和回歸誤差,具體定義如下:
在上述公式中,i表示框的序號(hào);bi表示框里有目標(biāo)的概率,如果第i個(gè)框是正樣本則bi等于1,否則等于0;bi*表示第i個(gè)框?qū)嶋H的類別;mi表示第i個(gè)框的四個(gè)坐標(biāo);mi*表示第i個(gè)框?qū)嶋H的坐標(biāo);λ表示分類誤差和回歸誤差的平衡參數(shù)。在本實(shí)施例中,λ等于9;nc表示神經(jīng)網(wǎng)絡(luò)在進(jìn)行批量訓(xùn)練時(shí),每一批圖片的數(shù)量,nc等于100;nr表示神經(jīng)網(wǎng)絡(luò)第5層卷積特征圖元素的個(gè)數(shù),nr等于2400。
s12,網(wǎng)絡(luò)初始化。可利用神經(jīng)網(wǎng)絡(luò)框架caffe進(jìn)行訓(xùn)練。使用在imagenet數(shù)據(jù)集上訓(xùn)練好的vgg16網(wǎng)絡(luò)模型,初始化目標(biāo)檢測(cè)方法中的神經(jīng)網(wǎng)絡(luò)參數(shù)。
s13,訓(xùn)練神經(jīng)網(wǎng)絡(luò),使用反向傳播算法,對(duì)神經(jīng)網(wǎng)絡(luò)的參數(shù)進(jìn)行更新,當(dāng)測(cè)試誤差不再變化時(shí),訓(xùn)練停止。
s2,目標(biāo)檢測(cè),對(duì)輸入的圖片進(jìn)行檢測(cè),得到該圖片中的包含目標(biāo)的目標(biāo)框,進(jìn)而得到目標(biāo)檢測(cè)結(jié)果,將檢測(cè)結(jié)果放入集合bd中。
該步驟s2具體包括:
s21,圖片初始化,對(duì)輸入的圖片初始化處理。本實(shí)施例中,將輸入的圖片歸一化至600*800大小,然后對(duì)圖片進(jìn)行去均值處理,均值從水面目標(biāo)數(shù)據(jù)集上計(jì)算得來,或者是通過大量計(jì)算進(jìn)行一個(gè)預(yù)設(shè)設(shè)定取值。歸一化大小,可以靈活設(shè)定,上述只是一種舉例,并非是限定。
s22,提取圖片cnn特征。
s23,獲取目標(biāo)初始位置和類別,得到包含目標(biāo)的初始目標(biāo)框。由步驟s22提取的圖片的cnn特征構(gòu)成該圖片的cnn特征圖,在該cnn特征圖上以每個(gè)元素為中心,構(gòu)建9種不同大小的矩形框,將該9種矩形框輸入到softmax分類器中進(jìn)行分類和回歸,得到具有初始位置和類別的目標(biāo)初始目標(biāo)框。比如,可在圖片的cnn特征圖上,以每一個(gè)像素為中心構(gòu)建3種不同尺度(1282,2562,5122)和3種不同縱橫比(2:1,1:1,1:2)共9種類型的矩形框,將所有的目標(biāo)框送入softmax分類器進(jìn)行分類和回歸。每個(gè)目標(biāo)框會(huì)有25個(gè)得分值,分別代表25種目標(biāo)類型,得分值最高的類作為該目標(biāo)框的類別?;貧w得到的是目標(biāo)框的4個(gè)新坐標(biāo),分別是目標(biāo)框左上角的橫坐標(biāo)和縱坐標(biāo)以及目標(biāo)框的寬和長(zhǎng),回歸之后目標(biāo)框會(huì)更加貼合目標(biāo)。由于水面目標(biāo)背景比較簡(jiǎn)單,因此取得分前150的框作為目標(biāo)的初始位置。
s24,獲取目標(biāo)精確位置和類別,得到目標(biāo)框。將初始目標(biāo)框歸一化至設(shè)定大小(如7*7),再接入2個(gè)4096維的全連接層,然后送入softmax分類器得到目標(biāo)框的精確位置和類別。
s25,剔除虛景,對(duì)步驟s24的結(jié)果進(jìn)行非極大值抑制處理,剔除虛景和重復(fù)的目標(biāo)框,得到目標(biāo)檢測(cè)最終結(jié)果,將該目標(biāo)檢測(cè)最終結(jié)果放入集合bd中。
s3,檢測(cè)當(dāng)前圖片是否為第一幀圖片,若是,則轉(zhuǎn)入步驟s4;若不是,則檢驗(yàn)?zāi)繕?biāo)跟蹤結(jié)果,將上一幀圖片的目標(biāo)跟蹤結(jié)果,輸入到目標(biāo)檢測(cè)神經(jīng)網(wǎng)絡(luò)模型中進(jìn)行檢測(cè),保留沒有丟失目標(biāo)的跟蹤框,將該跟蹤框放入集合bt中。通過目標(biāo)檢測(cè)的神經(jīng)網(wǎng)絡(luò),來檢驗(yàn)跟蹤框內(nèi)是否還有其他目標(biāo)。同時(shí)可以根據(jù)回歸結(jié)果來調(diào)整跟蹤框的位置,讓目標(biāo)跟蹤的矩形框能夠更好的貼合目標(biāo)。對(duì)上一輪目標(biāo)跟蹤最后一幀的跟蹤框進(jìn)行步驟s24的操作,如果輸出的得分值高于設(shè)定閾值,則認(rèn)為跟蹤框沒有丟失目標(biāo),保留該跟蹤框;若得分值低于閾值,則舍棄該跟蹤框。將保留下來的跟蹤框放入集合bt。閾值的設(shè)定范圍為0.6-0.8,在本發(fā)明實(shí)施例中,閾值設(shè)為0.7。
s4、精調(diào)目標(biāo)框和目標(biāo)跟蹤的大小和位置,對(duì)步驟s2中的目標(biāo)框和步驟s3中的跟蹤框進(jìn)行邊緣提取得到邊緣圖,將該邊緣圖的最大外接矩形作為新目標(biāo)框和新跟蹤框。在本實(shí)施例中,邊緣圖進(jìn)行二值化處理,將小于閾值的邊緣設(shè)為0,大于閾值的邊緣設(shè)為1。得到局部區(qū)域的邊緣圖后,將目標(biāo)邊緣的最大外接矩形作為精確的目標(biāo)框和跟蹤框。經(jīng)過調(diào)整后,目標(biāo)框和跟蹤框可以更好的包圍目標(biāo),進(jìn)一步減少框內(nèi)虛景。邊緣閾值范圍為0.1-0.3,在本發(fā)明實(shí)施例中,邊緣閾值設(shè)為0.2。
s5,判斷是否出現(xiàn)新目標(biāo),對(duì)比集合bt和bd中的目標(biāo)框和跟蹤框,判斷集合bd中是否發(fā)現(xiàn)了新目標(biāo),若發(fā)現(xiàn)新目標(biāo),將新目標(biāo)的框加入集合bt中,舍棄集合bd中其余的目標(biāo)框。
步驟s5具體包括:
s51,計(jì)算區(qū)域h-s顏色直方圖,將輸入圖片從rgb顏色空間轉(zhuǎn)換至hsv顏色空間,對(duì)集合bt和bd中的目標(biāo)框和跟蹤框,構(gòu)建區(qū)域h-s顏色直方圖,將目標(biāo)框的直方圖放入集合hd中,將跟蹤框的直方圖放入集合ht中。構(gòu)造h-s直方圖,h通道直方圖直條數(shù)量為30,色調(diào)的取值范圍為0~179,統(tǒng)計(jì)色調(diào)的分布情況;s通道直方圖直條數(shù)量為60,飽和度的取值范圍為0~255,統(tǒng)計(jì)飽和度的分布情況。將輸入圖片從rgb顏色空間轉(zhuǎn)換至hsv顏色空間,步驟s4得到了目標(biāo)框和跟蹤框的坐標(biāo),在輸入圖片上截取相應(yīng)的矩形區(qū)域,計(jì)算這些區(qū)域h-s顏色直方圖,最后將所有的顏色直方圖的縱坐標(biāo)歸一化至0~1。將目標(biāo)框的h-s顏色直方圖放入集合hd,hi∈hd;將跟蹤框的h-s顏色直方圖放入集合ht,hj∈ht。
s52,區(qū)域顏色直方圖匹配,比較集合ht和集合hd中的顏色直方圖,如果相似度小于設(shè)定值,則檢測(cè)到了新目標(biāo);如果相似度大于設(shè)定值,則沒有檢測(cè)到新目標(biāo),將新目標(biāo)的框放入集合bt中。
區(qū)域顏色直方圖匹配。采用相關(guān)的方法來比較兩個(gè)直方圖的相似性,其中相關(guān)對(duì)比的公式如下:
其中i、j代表顏色空間的通道,n代表直方圖中直條的數(shù)量。將目標(biāo)框與跟蹤框進(jìn)行直方圖對(duì)比,若目標(biāo)框與所有跟蹤框的相似度都小于閾值,則認(rèn)為該目標(biāo)框發(fā)現(xiàn)了新目標(biāo),將該目標(biāo)框放入集合bt;若與某個(gè)跟蹤框的相似度大于閾值,則認(rèn)為該目標(biāo)框沒有檢測(cè)到新目標(biāo),舍棄該目標(biāo)框。相似度閾值范圍為0.75-0.9,在本實(shí)施例中,閾值設(shè)為0.8。
s53,剔除重復(fù)目標(biāo)框,在集合bt中,計(jì)算每個(gè)目標(biāo)框與其他目標(biāo)框交集部分的面積,若交集的面積占其中某個(gè)目標(biāo)框面積70%以上,同時(shí)該兩個(gè)目標(biāo)框檢測(cè)到的目標(biāo)類型一致,則判定出現(xiàn)重復(fù)目標(biāo)框,將面積大的目標(biāo)框移出集合bt。
由于水面上存在光照變換、波浪、霧汽等復(fù)雜的氣候條件,導(dǎo)致同一目標(biāo)在前后幾幀可能會(huì)不同的樣貌或姿態(tài)。經(jīng)過步驟s52處理后,會(huì)出現(xiàn)同一目標(biāo)上存在多個(gè)矩形框的情況,因此需要剔除重復(fù)的目標(biāo)矩形框。在集合bt中,計(jì)算每個(gè)目標(biāo)矩形框與其他矩形框交集部分的面積。若交集的面積占其中某個(gè)矩形框面積70%以上,同時(shí)兩個(gè)矩形框檢測(cè)到的目標(biāo)類型一致,則判定出現(xiàn)重復(fù)框,將面積大的框移出集合bt。
s6,目標(biāo)跟蹤,跟蹤集合bt中的目標(biāo)框。
步驟s6具體包括:
s61,構(gòu)造循環(huán)偏移矩陣,以集合bt中跟蹤框作為跟蹤目標(biāo)的起始位置,以該起始位置為中心,選擇面積大于起始位置面積的矩形區(qū)域作為樣本圖像,將該樣本圖像進(jìn)行上下左右的循環(huán)偏移,得到若干訓(xùn)練樣本,所有訓(xùn)練樣本構(gòu)成樣本矩陣,該樣本矩形變成循環(huán)矩陣。本實(shí)施例中,樣本圖像面積為起始位置面積的1.5倍。
s62,訓(xùn)練濾波器參數(shù),得到濾波器w=[w(1)w(2)w(3)……w(n)]t使得:
其中λ是為了防止過擬合設(shè)定的正則化項(xiàng),求解可得w=(xhx+λi)-1xhy,x和xh都是循環(huán)矩陣,進(jìn)一步求出
s63,搜尋目標(biāo),在下一幀圖片上,按照步驟s61找到若干樣本圖像,利用濾波器w,對(duì)每一個(gè)樣本圖像進(jìn)行回歸,將回歸值最高的圖像設(shè)為目標(biāo)位置,完成目標(biāo)跟蹤,將新的目標(biāo)位置放入新的集合bt中。
s7,連續(xù)跟蹤m幀,然后重復(fù)步驟2至步驟7,直到最后一幀圖片。為了保證結(jié)果的平滑并且及時(shí)檢測(cè)到新目標(biāo),m的取值范圍在30-50之間,在實(shí)施例中,m等于40。
如附圖5所示,為本發(fā)明檢測(cè)跟蹤的效果序列示意圖,應(yīng)用上述方法,得到穩(wěn)定的目標(biāo)位置。
本領(lǐng)域的技術(shù)人員容易理解,以上所述僅為本發(fā)明的較佳實(shí)施例而已,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi)所作的任何修改、等同替換和改進(jìn)等,均應(yīng)包含在本發(fā)明的保護(hù)范圍之內(nèi)。