專利名稱:基于視頻的多車型交通信息檢測方法
技術(shù)領(lǐng)域:
本發(fā)明屬于智能交通領(lǐng)域,主要用于高速公路和城市道路的多種車型的交通信息采集,尤其涉及一種基于視頻的多車型交通信息檢測方法。
背景技術(shù):
在智能交通系統(tǒng)應(yīng)用、交通管理、交通仿真和交通流理論研究中,一項非常重要的工作就是對交通信息的采集。目前絕大多數(shù)交通信息采集設(shè)備能夠提供的信息主要是單一車型的流量、速度、密度等宏觀參數(shù),這些交通信息并不區(qū)分車輛類型。大型車輛由于較大的車型結(jié)構(gòu)和較低的動力性能,在運(yùn)行過程中表現(xiàn)出速度小和對道路時空消耗過大的運(yùn)行特征,在降低道路通行能力的同時,對交通安全產(chǎn)生不良影響。因此采集多車型交通信息對于交通管理和理論研究具有重要意義。 傳統(tǒng)的交通信息采集方法主要有地埋式感應(yīng)線圈法、紅外線檢測法和超聲波檢測法等。這些傳統(tǒng)方法的成本高、維護(hù)困難。而且中國的道路交通環(huán)境復(fù)雜,導(dǎo)致這些傳統(tǒng)方法不能有效地分辨車型。隨著視頻處理技術(shù)的快速發(fā)展,基于視頻的交通信息采集系統(tǒng)得到廣泛應(yīng)用。相比傳統(tǒng)的交通信息采集方法,視頻檢測系統(tǒng)具有安裝簡單、維護(hù)方便、采集參數(shù)多等優(yōu)點(diǎn),而且可以在復(fù)雜交通場景下有效識別車型。目前絕大多數(shù)的交通信息視頻采集系統(tǒng)只是提供不考慮車型分類的宏觀交通信息,經(jīng)常忽視跨車道行駛的車輛造成漏檢,也會對同一車輛的重復(fù)計數(shù),對于車輛粘連和遮擋等因素照成的誤差抗干擾性較差。因此本發(fā)明提供了一種基于視頻的多車型交通信息采集方法。本發(fā)明跟蹤經(jīng)過檢測斷面的每一輛車,記錄每一輛經(jīng)過車輛的車型和速度,采集區(qū)分車型的流量和平均速度等交通信息。本發(fā)明采用了基于彩色圖像的自適應(yīng)背景差分算法識別車輛目標(biāo),提取了更加準(zhǔn)確的車輛目標(biāo);使用了諸如陰影去除和設(shè)置道路檢測區(qū)域等一系列措施來提高系統(tǒng)的魯棒性和抗干擾性;考慮了跨車道行駛車輛避免漏檢,也避免了對同一車輛的重復(fù)計數(shù),提高了車輛計數(shù)準(zhǔn)確率;應(yīng)用K-means聚類算法得到更加準(zhǔn)確的車型分類閾值參數(shù),引進(jìn)了車輛占空比參數(shù)和數(shù)據(jù)融合技術(shù)減少車輛粘連和遮擋造成的車型識別誤差,提高了車型分類準(zhǔn)確率。
發(fā)明內(nèi)容
針對上述現(xiàn)有技術(shù)存在的缺陷或不足,本發(fā)明的目的在于,提供一種基于視頻的多車型交通信息檢測方法,該方法跟蹤經(jīng)過的每一輛車,并記錄每一輛車的車型和速度,得到不同車型的流量和平均速度等多車型交通信息,本發(fā)明充分考慮了跨車道車輛,避免對同一車輛重復(fù)計數(shù),并充分考慮了車輛粘連和遮擋因素,抗干擾性強(qiáng),檢測精確度高。為了實(shí)現(xiàn)上述目的,本發(fā)明采用如下技術(shù)解決方案基于視頻的多車型交通信息檢測方法,其特征在于,至少包括如下步驟步驟I :交通視頻采集;步驟2 :參數(shù)設(shè)置設(shè)置虛擬檢測線圈大小和位置;
步驟3 :系統(tǒng)初始化以幀為單位讀取采集到的交通視頻流,對圖像進(jìn)行預(yù)處理去噪,計算初始彩色背景圖像,標(biāo)定交通場景,設(shè)置道路檢測區(qū)域;步驟4 :車輛目標(biāo)檢測具體包括如下步驟Step400:讀取下一巾貞圖像;St印401 :通過公式(5),結(jié)合初始彩色背景圖像和視頻當(dāng)前幀的RGB彩色圖像,得到自適應(yīng)的動態(tài)實(shí)時彩色背景圖像;通過公式(6)提取出彩色差分結(jié)果圖像fgi ;bg +i = {β;+ι, Gi+υ^ +ι} - I Cj+i = (I-U)Gi + α^+1 i i > 0,0 < α < I
U+i = (I - Φ + CtfisJ其中,α為調(diào)節(jié)更新速率,a =0. 005,bgi的RGB三通道分量分別為民、Gi, Bi,第 i+1幀的彩色背景圖像是bgi+1,bgi+1的RGB三通道分量分別為Ri+1、Gi+1、Bi+1 ;
tool 6] fdi = {fgf, fdiJgf} = fgf = ft - Gi I >ι
Kf3i ^fis-Bi)
(…其中,fgi為彩色差分結(jié)果圖像,&為第i幀RGB彩色圖像;St印402:自適應(yīng)Otsu閾值分割對彩色差分結(jié)果圖像fgi灰度化處理后,再經(jīng)過自適應(yīng)Otsu閾值分割得到前景目標(biāo)圖像;Step403 :利用基于HSV (Hue、Saturation、Value)空間的陰影檢測去除算法,對步驟402得到的前景目標(biāo)圖像去除陰影;Step404:對步驟403得到的結(jié)果進(jìn)行形態(tài)學(xué)操作和車輛團(tuán)塊填充;Step405:車輛計數(shù)判斷是否至少有一個虛擬檢測線圈檢測到車輛,如果是,則判定該虛擬檢測線圈LoopX檢測到車輛,將總車輛數(shù)加1,然后執(zhí)行步驟5 ;否則執(zhí)行步驟406 ;記錄當(dāng)前幀數(shù)F。,在當(dāng)前幀數(shù)F。以后的連續(xù)Fs幀中,該虛擬檢測線圈LoopX以及它的沖突線圈均停止檢測;FS通過下式得到
21Fe= — * fps
^ (8)其中Γ為平均車輛長度,單位米,Γ為平均車速,單位米每秒,fps為視頻的采集幀率,單位幀每秒;Step406:判斷步驟I拍攝的交通視頻流是否讀取結(jié)束,是則執(zhí)行步驟6 ;否則執(zhí)行步驟400 ;步驟5 :車輛跟蹤和分類某個虛擬檢測線圈檢測到車輛后,開始連續(xù)跟蹤該車M幀;跟蹤車輛過程中,轉(zhuǎn)換坐標(biāo),計算每一幀中車輛的瞬時速度,對于被跟蹤車輛得到M個瞬時速度;每一幀都提取車輛的長度、面積和占空比等幾何參數(shù)識別其車型,得到M個瞬時車型識別結(jié)果;每一輛車被連續(xù)跟蹤M幀結(jié)束后,采用數(shù)據(jù)融合的方法判斷被跟蹤車輛的最終速度和最終車型;執(zhí)行步驟400 ;步驟6 :多車型交通信息采集。進(jìn)一步的,所述步驟3中系統(tǒng)初始化具體包括以下步驟
Step300 :以巾貞為單位讀取采集到的交通視頻;St印301 :圖像預(yù)處理;Step302 :計算初始彩色背景圖像對視頻起始的前N幀圖像的求平均值,作為初始彩色背景圖像;Step303:交通場景標(biāo)定采用直接線性變換算法標(biāo)定交通場景;Step304:設(shè)置道路檢測區(qū)域;對步驟302得到的初始彩色背景圖像灰度化,利用Canny算子進(jìn)行邊沿檢測,再利用Hough變換檢測道路左右邊沿直線,然后將道路左右邊沿直線均向外平移后得到道路檢測區(qū)域。進(jìn)一步的,所述步驟5具體包括如下步驟St印501:特征匹配跟蹤車輛設(shè)圖像的坐標(biāo)原點(diǎn)在左下角,對于每一個車輛團(tuán) 塊,定義車輛團(tuán)塊范圍內(nèi)的Y坐標(biāo)最小的那個點(diǎn)為車頭特征點(diǎn)。如果要跟蹤第K幀的第i個車輛團(tuán)塊,計算這個車輛團(tuán)塊的車頭特征點(diǎn)與第K+1幀每一個車輛團(tuán)塊的車頭特征點(diǎn)的
像素距離TXij) =h _4)2 +iyl+l -^kf l<j<h(9)其中,(4,4 )是第K幀的第i個車輛團(tuán)塊的車頭特征點(diǎn)在圖像坐標(biāo)系中的坐標(biāo);()是第K+1幀的第j個車輛團(tuán)塊的車頭特征點(diǎn)在圖像坐標(biāo)系中的坐標(biāo);h是第K+1幀的車輛團(tuán)塊總數(shù);在第K+1幀中,與第K幀的第i個車輛團(tuán)塊的最佳匹配目標(biāo)可以由下式得出
匹配if D(/,p)=minBjsh {D(iJ)}
<不匹配otherwise(10)其中,第K+1幀的第P個車輛團(tuán)塊的車頭特征點(diǎn)與第K幀的第i個車輛團(tuán)塊的車頭特征點(diǎn)距離最小,則這兩個車輛團(tuán)塊是同一輛車。以此類推,連續(xù)跟蹤車輛M幀,M取10到15之間的值;車輛跟蹤M幀的過程中,伴隨著瞬時車速測量和車型分類步驟;St印501-A:瞬時車速測量;跟蹤車輛過程中,利用交通場景標(biāo)定結(jié)果把車頭特征點(diǎn)的圖像坐標(biāo)轉(zhuǎn)換到世界坐標(biāo)系中的對應(yīng)坐標(biāo);得到第K+t幀被跟蹤車輛的車頭特征點(diǎn)在世界坐標(biāo)系中對應(yīng)點(diǎn)為(Xk+t,Yk+t);每相鄰兩幀計算被跟蹤車輛的瞬時速度Vt (m/s),具體如下式 y — Jd+1+d U.. \<t<M(11 \
*AT"'其中,Λ T表示連續(xù)視頻圖像的采樣時間間隔,取1/29秒;每輛車都被連續(xù)跟蹤M幀,共得到M個瞬時速度Vt (m/s);St印501-B:瞬時車型分類;車型分為大車LV和小車SV兩種;在車輛前景目標(biāo)圖像中,首先提取團(tuán)塊目標(biāo)的最小外接矩形,再提取團(tuán)塊目標(biāo)的像素長度L和像素面積S,并計算團(tuán)塊目標(biāo)的占空比R,設(shè)定閾值后判斷車型
權(quán)利要求
1.一種基于視頻的多車型交通信息檢測方法,其特征在于,具體包括如下步驟 步驟I :交通視頻采集; 步驟2 :參數(shù)設(shè)置設(shè)置虛擬檢測線圈大小和位置; 步驟3 :系統(tǒng)初始化以幀為單位讀取采集到的交通視頻流,對圖像進(jìn)行預(yù)處理去噪,計算初始彩色背景圖像,標(biāo)定交通場景,設(shè)置道路檢測區(qū)域; 步驟4 :車輛目標(biāo)檢測具體包括如下步驟 Step400:讀取下一巾貞圖像; St印401 :通過公式(5),結(jié)合初始彩色背景圖像和視頻當(dāng)前幀的RGB彩色圖像,得到自適應(yīng)的動態(tài)實(shí)時彩色背景圖像;通過公式(6)提取出彩色差分結(jié)果圖像fgi ; 其中,a為調(diào)節(jié)更新速率,a=0.005,bgi的1^ 三通道分量分別為RpGpBi,第i+1幀的彩色背景圖像是bgi+1,bgi+1的RGB三通道分量分別為Ri+1、Gi+1、Bi+1 ; (t>) 其中,fgi為彩色差分結(jié)果圖像,A為第i幀RGB彩色圖像; St印402:自適應(yīng)Otsu閾值分割對彩色差分結(jié)果圖像fgi灰度化處理后,再經(jīng)過自適應(yīng)Otsu閾值分割得到前景目標(biāo)圖像; Step403 :利用基于HSV (Hue、Saturation、Value)空間的陰影檢測去除算法,對步驟402得到的前景目標(biāo)圖像去除陰影; Step404:對步驟403得到的結(jié)果進(jìn)行形態(tài)學(xué)操作和車輛團(tuán)塊填充; Step405:車輛計數(shù)判斷是否至少有一個虛擬檢測線圈檢測到車輛,如果是,則判定該虛擬檢測線圈LoopX檢測到車輛,將總車輛數(shù)加1,然后執(zhí)行步驟5 ;否則執(zhí)行步驟406 ;記錄當(dāng)前幀數(shù)F。,在當(dāng)前幀數(shù)F。以后的連續(xù)Fs幀中,該虛擬檢測線圈LoopX以及它的沖突線圈均停止檢測;FS通過下式得到 其中r為平均車輛長度,單位米,t 為平均車速,單位米每秒,fps為視頻的采集幀率,單位幀每秒; Step406:判斷步驟I拍攝的交通視頻流是否讀取結(jié)束,是則執(zhí)行步驟6 ;否則執(zhí)行步驟.400 ; 步驟5 :車輛跟蹤和分類某個虛擬檢測線圈檢測到車輛后,開始連續(xù)跟蹤該車M幀;跟蹤車輛過程中,轉(zhuǎn)換坐標(biāo),計算每一幀中車輛的瞬時速度,對于被跟蹤車輛得到M個瞬時速度;每一幀都提取車輛的長度、面積和占空比等幾何參數(shù)識別其車型,得到M個瞬時車型識別結(jié)果;每一輛車被連續(xù)跟蹤M幀結(jié)束后,采用數(shù)據(jù)融合的方法判斷被跟蹤車輛的最終速度和最終車型;執(zhí)行步驟400 ; 步驟6:多車型交通信息采集。
2.如權(quán)利要求I所述的基于視頻的多車型交通信息檢測方法,其特征在于,所述步驟3中系統(tǒng)初始化具體包括以下步驟 Step300 :以巾貞為單位讀取采集到的交通視頻; Step301 :圖像預(yù)處理; Step302 :計算初始彩色背景圖像對視頻起始的前N幀圖像的求平均值,作為初始彩色背景圖像; Step303:交通場景標(biāo)定采用直接線性變換算法標(biāo)定交通場景; St印304:設(shè)置道路檢測區(qū)域;對步驟302得到的初始彩色背景圖像灰度化,利用Canny算子進(jìn)行邊沿檢測,再利用Hough變換檢測道路左右邊沿直線,然后將道路左右邊沿直線均向外平移后得到道路檢測區(qū)域。
3.如權(quán)利要求I所述的基于視頻的多車型交通信息檢測方法,其特征在于,所述步驟5具體包括如下步驟 Step501:特征匹配跟蹤車輛設(shè)圖像的坐標(biāo)原點(diǎn)在左下角,對于每一個車輛團(tuán)塊,定義車輛團(tuán)塊范圍內(nèi)的Y坐標(biāo)最小的那個點(diǎn)為車頭特征點(diǎn)。如果要跟蹤第K幀的第i個車輛團(tuán)塊,計算這個車輛團(tuán)塊的車頭特征點(diǎn)與第K+1幀每一個車輛團(tuán)塊的車頭特征點(diǎn)的像素距 其中,(4,是第K幀的第i個車輛團(tuán)塊的車頭特征點(diǎn)在圖像坐標(biāo)系中的坐標(biāo);()是第K+1幀的第j個車輛團(tuán)塊的車頭特征點(diǎn)在圖像坐標(biāo)系中的坐標(biāo);h是第K+1幀的車輛團(tuán)塊總數(shù);在第K+1幀中,與第K幀的第i個車輛團(tuán)塊的最佳匹配目標(biāo)可以由下式得出其中,第K+1幀的第p個車輛團(tuán)塊的車頭特征點(diǎn)與第K幀的第i個車輛團(tuán)塊的車頭特征點(diǎn)距離最小,則這兩個車輛團(tuán)塊是同一輛車。以此類推,連續(xù)跟蹤車輛M幀,M取10到15之間的值;車輛跟蹤M幀的過程中,伴隨著瞬時車速測量和車型分類步驟; St印501-A:瞬時車速測量; 跟蹤車輛過程中,利用交通場景標(biāo)定結(jié)果把車頭特征點(diǎn)的圖像坐標(biāo)轉(zhuǎn)換到世界坐標(biāo)系中的對應(yīng)坐標(biāo);得到第K+t幀被跟蹤車輛的車頭特征點(diǎn)在世界坐標(biāo)系中對應(yīng)點(diǎn)為(Xk+t,Yk+t);每相鄰兩幀計算被跟蹤車輛的瞬時速度Vt (m/s),具體如下式 ) 其中,A T表示連續(xù)視頻圖像的采樣時間間隔,取1/29秒;每輛車都被連續(xù)跟蹤M幀,共得到M個瞬時速度Vt (m/s); St印501-B:瞬時車型分類;車型分為大車LV和小車SV兩種;在車輛前景目標(biāo)圖像中,首先提取團(tuán)塊目標(biāo)的最小外接矩形,再提取團(tuán)塊目標(biāo)的像素長度L和像素面積S,并計算團(tuán)塊目標(biāo)的占空比R,設(shè)定閾值后判斷車型 ) 其中,I1, S1和T1分別是車輛團(tuán)塊目標(biāo)的車長、面積和占空比的閾值參數(shù); St印502:數(shù)據(jù)融合 計算最終速度利用式(11)得到M個瞬時速度Vt,單位m/s,通過式(13)計算該被跟蹤車輛的最終速度V,單位km/h 其中,I ≤ t ≤ M ;3. 6是m/s到km/h的單位轉(zhuǎn)換因子; 判斷最終車型利用式(12)得到M個瞬時車型分類結(jié)果,再利用式(14)所示的投票算法對最終車型判斷;統(tǒng)計這M個車型判斷結(jié)果,其中,瞬時車型分類為大型車LV的數(shù)量為Nlv,瞬時車型分類為小型車SV的數(shù)量為Nsv。ffype = LV if Nlv > Nsv (14)
4.如權(quán)利要求3所述的基于視頻的多車型交通信息檢測方法,其特征在于,所述Step501-B的瞬時車型分類中,車輛團(tuán)塊目標(biāo)的車長I1、面積S1和占空比F1的閾值參數(shù)分別為 J1=Hl, Sl=10162, r^O. 65。
5.如權(quán)利要求I所述的基于視頻的多車型交通信息檢測方法,其特征在于,所述的步驟6多車型交通信息采集具體如下 U =-* V Vi (;22)其中,t是當(dāng)前時刻,單位秒;n是當(dāng)前幀數(shù),單位幀;fps是視頻采集幀率,單位幀/秒;SVNum是小車數(shù)量,單位輛;Ratio是大車混入率;Q是總交通流量,單位輛/小時;Qw是大車交通流量,單位輛/小時;(^ 是小車交通流量,單位輛/小時;Ut是總時間平均速度,單位千米/小時;時7是大車的時間平均速度,單位千米/小時;yp是小車的時間平均速度,單位千米/小時%是第i輛車的速度,單位千米/小時是第i輛大車的速度,單位千米/小時是第i輛小車的速度,單位千米/小時。
全文摘要
本發(fā)明公開了一種基于視頻的多車型交通信息檢測方法,包括如下步驟交通視頻采集;參數(shù)設(shè)置;系統(tǒng)初始化;車輛目標(biāo)檢測結(jié)合初始彩色背景圖像和視頻當(dāng)前幀的RGB彩色圖像,得到自適應(yīng)的動態(tài)實(shí)時彩色背景圖像;提取出彩色差分結(jié)果圖像fgi;自適應(yīng)Otsu閾值分割;對前景目標(biāo)圖像去除陰影;形態(tài)學(xué)操作和車輛團(tuán)塊填充;車輛計數(shù)判斷是否至少有一個虛擬檢測線圈檢測到車輛,是則判定該虛擬檢測線圈檢測到車輛,將總車輛數(shù)加1,然后執(zhí)行步驟5;否則執(zhí)行步驟406;多車型交通信息采集。本發(fā)明的方法跟蹤經(jīng)過的每一輛車并記錄車型和速度,得到不同車型的流量和平均速度等多車型交通信息,且充分考慮了跨車道車輛、車輛粘連和遮擋因素,抗干擾性強(qiáng),檢測精確度高。
文檔編號H04N7/18GK102810250SQ20121026920
公開日2012年12月5日 申請日期2012年7月31日 優(yōu)先權(quán)日2012年7月31日
發(fā)明者李曙光, 余洪凱, 張敬茹, 岳珂, 鄭??? 賈晨, 王為達(dá), 張婷玉, 陳開放, 薛超 申請人:長安大學(xué)