欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種車(chē)輛實(shí)時(shí)檢測(cè)與跟蹤方法與流程

文檔序號(hào):11583550閱讀:1142來(lái)源:國(guó)知局

本發(fā)明涉及汽車(chē)圖像處理技術(shù)領(lǐng)域,具體涉及一種車(chē)輛實(shí)時(shí)檢測(cè)與跟蹤方法。



背景技術(shù):

車(chē)輛在行駛過(guò)程中,由于駕駛員的疏忽、道路情況的突然變化等,很容易造成追尾等交通事故,產(chǎn)生財(cái)產(chǎn)或生命的損失。近年來(lái),隨著科技的不斷發(fā)展,安全輔助駕駛技術(shù)也得到了不斷的進(jìn)步,采用安全輔助駕駛系統(tǒng)一方面能夠減小駕駛員的壓力,另一方面能夠?qū)Φ缆肪o急情況做出預(yù)警,從而避免交通事故的發(fā)生。

在安全輔助駕駛系統(tǒng)中,車(chē)輛的檢測(cè)與跟蹤技術(shù)是保障安全行駛的關(guān)鍵技術(shù)之一,車(chē)輛檢測(cè)與跟蹤是指通過(guò)分析視頻圖像序列自動(dòng)獲取畫(huà)面中出現(xiàn)的車(chē)輛信息,并在連續(xù)視頻中對(duì)相同車(chē)輛目標(biāo)進(jìn)行穩(wěn)定跟蹤,在避免或者減少交通事故的發(fā)生中發(fā)揮了巨大作用。

目前,在車(chē)輛檢測(cè)方面有多種方法,比如:背景差分法、光流法、運(yùn)動(dòng)矢量法等。其中背景差分法檢測(cè)運(yùn)動(dòng)目標(biāo)的速度快而且準(zhǔn)確,計(jì)算的復(fù)雜度較低,它是采用圖像序列中的當(dāng)前幀和背景參考模型比較來(lái)檢測(cè)運(yùn)動(dòng)物體的一種方法,其性能依賴(lài)于所使用的背景建模技術(shù)。但是該方法對(duì)光照變化的敏感度大,容易將圖像中的陰影部分誤認(rèn)為是檢測(cè)目標(biāo)。光流法和運(yùn)動(dòng)矢量法雖然準(zhǔn)確度尚可,但是魯棒性較差并且處理速度很慢,無(wú)法滿(mǎn)足實(shí)時(shí)系統(tǒng)的應(yīng)用需求。目前目標(biāo)跟蹤的方法主流的主要有三種:meanshift方法,卡爾曼濾波方法以及camshif方法。這些方法只是針對(duì)單目標(biāo)跟蹤,首先要指定跟蹤的目標(biāo),然后進(jìn)行跟蹤,優(yōu)點(diǎn)是提高了檢測(cè)速率,但也存在不可忽視的缺點(diǎn),這些方法一般只是在一開(kāi)始進(jìn)行車(chē)輛檢測(cè),檢測(cè)完成之后便開(kāi)始跟蹤,這樣誤檢結(jié)果會(huì)直接傳輸給跟蹤器,無(wú)法更正,嚴(yán)重的話(huà)會(huì)直接影響到跟蹤器的可靠性。



技術(shù)實(shí)現(xiàn)要素:

本發(fā)明解決的技術(shù)問(wèn)題是現(xiàn)有的車(chē)輛檢測(cè)技術(shù)只在一開(kāi)始進(jìn)行車(chē)輛檢測(cè),檢測(cè)后便開(kāi)始跟蹤,出現(xiàn)誤檢無(wú)法更正,容易漏檢,使得跟蹤準(zhǔn)確率低。

為解決上述問(wèn)題,本發(fā)明提供一種車(chē)輛實(shí)時(shí)檢測(cè)與跟蹤方法,包括以下步驟:

s1、分類(lèi)器訓(xùn)練:

獲得正樣本和負(fù)樣本;對(duì)所有樣本進(jìn)行預(yù)處理;提取所有樣本的特征值,利用所有樣本的特征值進(jìn)行訓(xùn)練,得到車(chē)輛檢測(cè)分類(lèi)器;

s2、跟蹤目標(biāo)檢測(cè):

s201、獲取實(shí)時(shí)視頻中的圖像xi進(jìn)行車(chē)輛檢測(cè),其中圖像幀號(hào)i為大于0的正整數(shù),若圖像xi未檢測(cè)到車(chē)輛,則圖像幀號(hào)i增加1,繼續(xù)執(zhí)行s201,否則執(zhí)行s202;

s202、獲取實(shí)時(shí)視頻中的圖像xi+1進(jìn)行車(chē)輛檢測(cè),若圖像xi+1未檢測(cè)到車(chē)輛,則圖像幀號(hào)i增加2,繼續(xù)執(zhí)行s201,否則將圖像xi+1中檢測(cè)出的每個(gè)車(chē)輛與圖像xi中檢測(cè)出的所有車(chē)輛分別進(jìn)行比較,若圖像xi+1的車(chē)輛中有與圖像xi的車(chē)輛滿(mǎn)足相似性指標(biāo),則將圖像xi+1中滿(mǎn)足相似性指標(biāo)的車(chē)輛視為初級(jí)目標(biāo),執(zhí)行s203,否則圖像幀號(hào)i增加1,執(zhí)行s202;

s203、獲取實(shí)時(shí)視頻中的圖像xi+2進(jìn)行車(chē)輛檢測(cè),若圖像xi+2未檢測(cè)到車(chē)輛,則圖像幀號(hào)i增加3,繼續(xù)執(zhí)行s201,否則將圖像xi+2檢測(cè)出的每個(gè)車(chē)輛與圖像xi+1檢測(cè)出的視為初級(jí)目標(biāo)的車(chē)輛相比較,若圖像xi+2的車(chē)輛中有與圖像xi+1中視為初級(jí)目標(biāo)的車(chē)輛滿(mǎn)足相似性指標(biāo),則圖像xi+2中滿(mǎn)足相似性指標(biāo)的車(chē)輛視為跟蹤目標(biāo),用標(biāo)記框進(jìn)行標(biāo)記,將圖像xi+2視為跟蹤圖像輸出,執(zhí)行s3,否則圖像幀號(hào)i增加2,執(zhí)行s202;

s3、車(chē)輛跟蹤:

s301、提取跟蹤圖像中每一標(biāo)記框區(qū)域的hog特征向量;

s302、獲取實(shí)時(shí)視頻中的圖像xi+3,提取圖像xi+3所有檢測(cè)區(qū)域的hog特征向量,其中每個(gè)檢測(cè)區(qū)域與跟蹤圖像的每個(gè)標(biāo)記框區(qū)域一一對(duì)應(yīng);

s303、將跟蹤圖像的每一標(biāo)記框區(qū)域的hog特征向量與圖像xi+3對(duì)應(yīng)的檢測(cè)區(qū)域的hog特征向量相比較,滿(mǎn)足相似性指標(biāo)的標(biāo)記框區(qū)域和檢測(cè)區(qū)域視為目標(biāo)相同,使用與跟蹤圖像標(biāo)記框大小相同的標(biāo)記框在檢測(cè)區(qū)域中進(jìn)行標(biāo)記,若跟蹤圖像的所有標(biāo)記框區(qū)域與對(duì)應(yīng)的檢測(cè)區(qū)域均目標(biāo)相同,則跟蹤成功,將圖像xi+3視為跟蹤圖像輸出,圖像幀號(hào)i增加1,執(zhí)行s302,否則跟蹤失敗,圖像幀號(hào)i增加3,執(zhí)行s2。

作為本發(fā)明的進(jìn)一步改進(jìn),s1中提取所有樣本的haar特征值,使用adaboost算法進(jìn)行訓(xùn)練,得到車(chē)輛檢測(cè)分類(lèi)器。

作為本發(fā)明的進(jìn)一步改進(jìn),s2中車(chē)輛檢測(cè)的具體步驟為:將當(dāng)前幀圖像進(jìn)行預(yù)處理;提取當(dāng)前幀圖像的感興趣區(qū)域的haar特征值,其中感興趣區(qū)域?yàn)橐詧D像中心為中心,長(zhǎng)寬分別為圖像長(zhǎng)寬的四分之三的方框所勾勒出的區(qū)域;將特征值輸入車(chē)輛檢測(cè)分類(lèi)器,檢測(cè)出當(dāng)前幀圖像中的所有車(chē)輛。

本發(fā)明將haar特征與adaboost算法相結(jié)合用于檢測(cè)車(chē)輛,實(shí)現(xiàn)簡(jiǎn)單,檢測(cè)速度快且準(zhǔn)確率高。

本發(fā)明的有益效果:(1)本發(fā)明可用于多目標(biāo)車(chē)輛的檢測(cè)與跟蹤;(2)本發(fā)明對(duì)連續(xù)三幀圖像進(jìn)行車(chē)輛檢測(cè),將連續(xù)三幀檢測(cè)到的相同車(chē)輛作為跟蹤目標(biāo)進(jìn)行跟蹤,即連續(xù)三幀檢測(cè)到相同車(chē)輛才進(jìn)行跟蹤,減小車(chē)輛檢測(cè)出現(xiàn)誤檢時(shí)對(duì)車(chē)輛跟蹤的影響,提高跟蹤的準(zhǔn)確率;(3)本發(fā)明車(chē)輛跟蹤時(shí)采用方向梯度直方圖作為圖像特征提取,方向梯度直方圖特征對(duì)圖像幾何和光學(xué)的形變能保持很好的不變性,提高了車(chē)輛跟蹤的準(zhǔn)確率;(4)本發(fā)明只有當(dāng)所有跟蹤目標(biāo)均跟蹤成功才繼續(xù)跟蹤,否則重新進(jìn)行跟蹤目標(biāo)的檢測(cè),而且跟蹤只在相鄰幀圖像之間進(jìn)行,減少漏檢現(xiàn)象的發(fā)生,提高檢測(cè)和跟蹤的準(zhǔn)確率。

附圖說(shuō)明

圖1是本發(fā)明方法的流程圖。

具體實(shí)施方式

本發(fā)明提出了一種車(chē)輛實(shí)時(shí)檢測(cè)與跟蹤方法,如圖1所示,包括如下步驟:

s1、分類(lèi)器訓(xùn)練,本發(fā)明具體實(shí)施例中使用adaboost(adaptiveboosting自適應(yīng)增強(qiáng))算法訓(xùn)練得到車(chē)輛檢測(cè)分類(lèi)器:

s101、獲得正樣本和負(fù)樣本:設(shè)定僅僅含有車(chē)輛的圖片為正樣本,包含馬路但不含車(chē)輛的圖片為負(fù)樣本,正樣本與負(fù)樣本的數(shù)量比為1:5;

s102、對(duì)所有樣本進(jìn)行預(yù)處理:對(duì)上述獲得的正樣本和負(fù)樣本先進(jìn)行灰度化處理,再對(duì)所有正樣本進(jìn)行尺寸歸一化處理,均縮放為20*20大?。?/p>

s103、提取所有樣本的haar特征值,根據(jù)所有樣本的特征值使用adaboost算法進(jìn)行訓(xùn)練,得到車(chē)輛檢測(cè)分類(lèi)器。該步驟方法為現(xiàn)有技術(shù),本發(fā)明具體實(shí)施例中采用計(jì)算機(jī)視覺(jué)庫(kù)(opencv)提供的haartraing程序訓(xùn)練得到車(chē)輛檢測(cè)分類(lèi)器。

s2、跟蹤目標(biāo)檢測(cè),具體包括以下步驟:

s201、獲取實(shí)時(shí)視頻中的圖像xi進(jìn)行車(chē)輛檢測(cè),其中實(shí)時(shí)視頻由連續(xù)的圖像序列x1,x2,…組成,若圖像xi未檢測(cè)到車(chē)輛,則圖像幀號(hào)i增加1,繼續(xù)執(zhí)行s201,否則執(zhí)行s202;

s202、獲取實(shí)時(shí)視頻中的圖像xi+1進(jìn)行車(chē)輛檢測(cè),若圖像xi+1未檢測(cè)到車(chē)輛,則圖像幀號(hào)i增加2,繼續(xù)執(zhí)行s201,否則將圖像xi+1檢測(cè)出的每個(gè)車(chē)輛所在區(qū)域的haar特征值與圖像xi檢測(cè)出的所有車(chē)輛所在區(qū)域的haar特征值分別進(jìn)行比較,計(jì)算他們之間的方差,若圖像xi+1的車(chē)輛中有與圖像xi的車(chē)輛的特征值的方差滿(mǎn)足在預(yù)設(shè)方差范圍內(nèi),則將圖像xi+1的滿(mǎn)足相似性指標(biāo)的車(chē)輛視為初級(jí)目標(biāo),執(zhí)行s203,否則圖像幀號(hào)i增加1,執(zhí)行s202;

s203、獲取實(shí)時(shí)視頻中的圖像xi+2進(jìn)行車(chē)輛檢測(cè),若圖像xi+2未檢測(cè)到車(chē)輛,則圖像幀號(hào)i增加3,繼續(xù)執(zhí)行s201,否則將圖像xi+2檢測(cè)出的每個(gè)車(chē)輛所在區(qū)域的haar特征值與圖像xi+1檢測(cè)出的視為初級(jí)目標(biāo)的車(chē)輛所在區(qū)域的haar特征值相比較,計(jì)算他們之間的方差,若圖像xi+2的車(chē)輛中有與圖像xi+1的視為初級(jí)目標(biāo)的車(chē)輛的特征值的方差滿(mǎn)足在預(yù)設(shè)方差范圍內(nèi),則將圖像xi+2的滿(mǎn)足相似性指標(biāo)的車(chē)輛視為跟蹤目標(biāo),用標(biāo)記框進(jìn)行標(biāo)記,將圖像xi+2視為跟蹤圖像輸出,執(zhí)行s3,否則圖像幀號(hào)i增加2,執(zhí)行s202;所述標(biāo)記框?yàn)榫匦慰?,矩形框的大小通過(guò)檢測(cè)出的每輛車(chē)的對(duì)角坐標(biāo)來(lái)確定。

其中車(chē)輛檢測(cè)的具體步驟為:將當(dāng)前幀圖像進(jìn)行預(yù)處理,即進(jìn)行灰度化處理;提取當(dāng)前幀圖像的感興趣區(qū)域的haar特征值,其中感興趣區(qū)域?yàn)橐詧D像中心為中心,長(zhǎng)寬分別為圖像長(zhǎng)寬的四分之三的方框所勾勒出的區(qū)域;將特征值輸入車(chē)輛檢測(cè)分類(lèi)器,檢測(cè)出當(dāng)前幀圖像中的所有車(chē)輛。

本發(fā)明跟蹤目標(biāo)檢測(cè)步驟對(duì)連續(xù)三幀圖像進(jìn)行車(chē)輛檢測(cè),將連續(xù)三幀檢測(cè)到的相同車(chē)輛作為跟蹤目標(biāo)進(jìn)行跟蹤,即連續(xù)三幀檢測(cè)到相同車(chē)輛才進(jìn)行跟蹤,減小車(chē)輛檢測(cè)出現(xiàn)誤檢時(shí)的影響,提高跟蹤的準(zhǔn)確率。

s3、車(chē)輛跟蹤,具體步驟為:

s301、提取跟蹤圖像中每一標(biāo)記框區(qū)域的hog特征,具體為:

提取跟蹤圖像中標(biāo)記框內(nèi)的圖像,將圖像縮放成32*32,再將縮放后的圖像截成64個(gè)4*4大小的小圖像,計(jì)算每個(gè)小圖像的橫向和縱向的梯度,得到每個(gè)小圖像的每個(gè)像素的梯度信息,將每個(gè)像素的梯度信息按四邊形分解法則投影到八個(gè)方向上,得到每個(gè)像素在每個(gè)方向的梯度信息,計(jì)算每個(gè)小圖像的八個(gè)方向梯度上的統(tǒng)計(jì)直方圖,得到該標(biāo)記框內(nèi)圖像的特征向量,上述特征向量為512維,使用同樣的方法得到跟蹤圖像中每個(gè)標(biāo)記框內(nèi)區(qū)域的特征向量;

s302、獲取實(shí)時(shí)視頻中的圖像xi+3,提取圖像xi+3所有檢測(cè)區(qū)域的hog特征向量,其中每個(gè)檢測(cè)區(qū)域與跟蹤圖像的每個(gè)標(biāo)記框區(qū)域一一對(duì)應(yīng),檢測(cè)區(qū)域也為矩形,每個(gè)檢測(cè)區(qū)域的中心分別對(duì)應(yīng)每個(gè)標(biāo)記框的中心,長(zhǎng)寬為標(biāo)記框的1.5倍,具體為:

提取圖像xi+3檢測(cè)區(qū)域內(nèi)的圖像,采用32*32大小的掃描框依次掃描提取出的圖像,將掃描框中的圖像截成64個(gè)4*4大小的小圖像,計(jì)算每個(gè)小圖像的橫向和縱向的梯度,得到每個(gè)小圖像中每個(gè)像素的梯度信息,將每個(gè)像素的梯度信息按四邊形分解法則投影到八個(gè)方向上,得到每個(gè)像素在每個(gè)方向的梯度信息,計(jì)算每個(gè)小圖像的八個(gè)方向梯度上的統(tǒng)計(jì)直方圖,得到該掃描框內(nèi)的特征向量,從而得到該檢測(cè)區(qū)域的特征向量,使用相同方法得到圖像xi+3每個(gè)檢測(cè)區(qū)域的特征向量;

s303、將跟蹤圖像的每一標(biāo)記框區(qū)域的特征向量與圖像xi+3對(duì)應(yīng)的檢測(cè)區(qū)域的特征向量作比較,計(jì)算他們之間的方差,若滿(mǎn)足在預(yù)設(shè)方差范圍內(nèi),則檢測(cè)區(qū)域與對(duì)應(yīng)的標(biāo)記框區(qū)域目標(biāo)相同,并使用與跟蹤圖像對(duì)應(yīng)的標(biāo)記框大小相同的標(biāo)記框在檢測(cè)區(qū)域中進(jìn)行標(biāo)記,并保存檢測(cè)區(qū)域中標(biāo)記框內(nèi)的特征向量,使用相同方法遍歷圖像xi+3所有檢測(cè)區(qū)域,若所有檢測(cè)區(qū)域與對(duì)應(yīng)的跟蹤圖像的標(biāo)記框區(qū)域目標(biāo)均相同,則跟蹤成功,將圖像xi+3視為跟蹤圖像輸出,圖像幀號(hào)i增加1,執(zhí)行s302,否則跟蹤失敗,圖像幀號(hào)i增加3,執(zhí)行s2。

本發(fā)明車(chē)輛跟蹤步驟只有當(dāng)所有跟蹤目標(biāo)均跟蹤成功后才繼續(xù)跟蹤,否則重新進(jìn)行跟蹤目標(biāo)的檢測(cè),而且跟蹤只在相鄰幀圖像之間進(jìn)行,減少漏檢現(xiàn)象的發(fā)生,提高檢測(cè)和跟蹤的準(zhǔn)確率。

當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
贵定县| 旅游| 雷山县| 普格县| 马龙县| 林甸县| 南和县| 凉城县| 成都市| 图木舒克市| 育儿| 普定县| 余庆县| 娄底市| 增城市| 石棉县| 富裕县| 元朗区| 阿坝县| 灌南县| 汕头市| 漳平市| 海原县| 通城县| 南和县| 白城市| 体育| 上栗县| 寿阳县| 山阳县| 葵青区| 六安市| 鄂托克旗| 金昌市| 慈利县| 通化县| 怀柔区| 阳朔县| 景谷| 钦州市| 循化|