本發(fā)明屬于智能交通、智能車輛研究領(lǐng)域,涉及一種基于光流聚類的車載行人區(qū)域估計(jì)方法,適用于行人檢測(cè)系統(tǒng)快速定位行人區(qū)域。
背景技術(shù):
近年來(lái)逐漸形成了haar小波行人檢測(cè)法、人體形態(tài)檢測(cè)法、hog+svm行人檢測(cè)法等研究成果,推動(dòng)了智能駕駛技術(shù)的發(fā)展,這些研究均采用了滑動(dòng)窗口的行人模板匹配方法來(lái)識(shí)別行人,但由于模板匹配的全局多尺度窗口搜索策略,造成了行人檢測(cè)大量的盲目搜索和時(shí)間浪費(fèi),降低了行人檢測(cè)的實(shí)時(shí)性。而行人感興趣區(qū)域(regionsofinterest,roi)獲得行人可能區(qū)域的方法可以減少滑動(dòng)窗口的盲目搜索,提高行人檢測(cè)的實(shí)時(shí)性。目前行人roi檢測(cè)方法可概括為兩類:(1)特征估計(jì)法,該方法通過(guò)圖像紋理、顏色、亮度等特征,估算行人形態(tài)、概率密度分布等檢測(cè)行人roi。該類方法雖然能夠獲取行人roi,但復(fù)雜的模型計(jì)算反而增加了行人檢測(cè)的運(yùn)行時(shí)間.(2)運(yùn)動(dòng)檢測(cè)法,該方法利用光流計(jì)算和運(yùn)動(dòng)分割方法,獲取行人區(qū)域。如elzein等人從運(yùn)動(dòng)分割的角度為行人roi估計(jì)提供了新的視覺(jué),但該方法缺乏考慮運(yùn)動(dòng)場(chǎng)景與行人的運(yùn)動(dòng)差異特性,仍無(wú)法降低光流場(chǎng)分割計(jì)算復(fù)雜度。
技術(shù)實(shí)現(xiàn)要素:
本發(fā)明的目的是提出一種基于光流聚類的車載行人區(qū)域估計(jì)方法,本方法能夠有效且快速地識(shí)別車輛前方的行人區(qū)域,避免傳統(tǒng)方法的盲目搜索所造成的時(shí)間上的浪費(fèi),為車載主動(dòng)行人保障技術(shù)、無(wú)人駕駛、智能車輛等研究和應(yīng)用提供技術(shù)支持和依據(jù)。
本發(fā)明提出的一種基于光流聚類的車載行人區(qū)域估計(jì)方法是采用如下技術(shù)方案實(shí)現(xiàn)的:
步驟一、利用車載攝像機(jī)拍攝車輛前方道路,通過(guò)攝像機(jī)獲取的圖像為rgb三維圖像,經(jīng)過(guò)圖像灰度化處理得到二維灰度圖像,二維灰度圖像可視為一個(gè)個(gè)像素點(diǎn)的亮度值構(gòu)成的矩陣i(x,y),其中x為圖像的像素點(diǎn)的橫坐標(biāo),y為圖像的像素點(diǎn)的縱坐標(biāo);
步驟二、光流場(chǎng)是指圖像中所有像素點(diǎn)構(gòu)成的一種二維瞬時(shí)速度場(chǎng),包含了被觀察物體的運(yùn)動(dòng)信息,還包含有關(guān)景物三維結(jié)構(gòu)的豐富信息,光流在物體運(yùn)動(dòng)檢測(cè)方面有著重要應(yīng)用,光流的計(jì)算過(guò)程如下:
1)令i(x,y,t)表示圖像i(x,y)的時(shí)間序列,其中,t為時(shí)間,令dx代表橫坐標(biāo)x上的變化量、dy代表縱坐標(biāo)y上的變化量、dt代表i(x,y,t)在時(shí)間t上的變化量,那么在圖像光強(qiáng)亮度恒定和物體微小運(yùn)動(dòng)的假設(shè)下有:
i(x,y,t)=i(x+dx,y+dy,t+dt)(1)
將上式中的i(x+dx,y+dy,t+dt)進(jìn)行泰勒公式展開(kāi):
式中,
結(jié)合式(1)和式(2)且忽略高階項(xiàng)δ,則得到:
令
ixu+iyv=-it
整理成矩陣形式為:
其中:
采用局部與全局相結(jié)合的光流求解方法求解(4)式,得到圖像光流場(chǎng),即[u,v];
步驟三、移動(dòng)個(gè)體做不同于背景的運(yùn)動(dòng),具有不同于背景的光流場(chǎng),對(duì)步驟二所獲得的圖像光流場(chǎng)[u,v]聚類,獲取圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖和圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖,進(jìn)一步可實(shí)現(xiàn)前景和背景分離,具體過(guò)程如下:
1、獲取圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖和圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖:
1)令坐標(biāo)為(x,y)的像素點(diǎn)的光流在x方向分量為u(x,y),在y方向分量v(x,y),再根據(jù)下式計(jì)算坐標(biāo)為(x,y)的像素點(diǎn)的運(yùn)動(dòng)幅值m(x,y)和坐標(biāo)為(x,y)的像素點(diǎn)的運(yùn)動(dòng)方向角θ(x,y):
2)對(duì)運(yùn)動(dòng)幅值m(x,y)的取值范圍離散化以及運(yùn)動(dòng)方向角θ(x,y)的取值范圍離散化,統(tǒng)計(jì)運(yùn)動(dòng)幅值m(x,y)不同取值范圍下對(duì)應(yīng)的頻數(shù)n1和運(yùn)動(dòng)方向角θ(x,y)不同取值范圍下對(duì)應(yīng)的頻數(shù)n2,以運(yùn)動(dòng)幅值m(x,y)為橫軸,以運(yùn)動(dòng)幅值各取值范圍對(duì)應(yīng)的頻數(shù)n1為縱軸,可獲得運(yùn)動(dòng)幅值聚類直方圖;同理,以運(yùn)動(dòng)方向角θ(x,y)為橫軸,以運(yùn)動(dòng)方向角各取值范圍其對(duì)應(yīng)的頻數(shù)n2為縱軸即可獲得運(yùn)動(dòng)方向角聚類直方圖;圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖和圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖均可分別視為一個(gè)混合高斯分布,每個(gè)混合高斯分布均含有背景高斯分量、前景高斯分量、估計(jì)誤差高斯分量以及噪聲干擾高斯分量;
2、估計(jì)車載攝像機(jī)拍攝的車輛前方道路的圖像的背景:
1)考慮到車載攝像機(jī)拍攝的車輛前方道路的圖像的背景占該圖像的絕大部分區(qū)域,即背景區(qū)域像素點(diǎn)頻數(shù)最大;因此可以將圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖的極大值點(diǎn)對(duì)應(yīng)的高斯分量和圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖的極大值點(diǎn)對(duì)應(yīng)的高斯分量作為背景高斯分量;
選取背景高斯分量和前景高斯分量的交叉點(diǎn)作為它們的分類閾值;根據(jù)攝像機(jī)成像投影原理,所有的成像點(diǎn)相交于成像的滅點(diǎn),即車輛前方距離車載攝像機(jī)較遠(yuǎn)的背景的像素點(diǎn)的運(yùn)動(dòng)幅值向于0點(diǎn),運(yùn)動(dòng)幅值聚類直方圖中從0點(diǎn)開(kāi)始到極大值點(diǎn)對(duì)應(yīng)的高斯分量為背景高斯分量;因此,圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖中運(yùn)動(dòng)幅值m(x,y)∈[0,t]且t>mmax對(duì)應(yīng)的區(qū)間為背景部分,其中t為圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖中背景高斯分量與前景高斯分量的分類閾值,mmax為圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖的極大值點(diǎn);此外,由于運(yùn)動(dòng)方向角θ(x,y)的范圍為[-π,π]以及前景運(yùn)動(dòng)方向的不確定性,為降低背景的誤分類,在圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖極大值點(diǎn)兩側(cè)分別選取閾值作為背景部分,即運(yùn)動(dòng)方向角θ(x,y)∈[t1,t2]且t1<θmax<t2的區(qū)間為背景部分,其中t1和t2為圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖中的背景高斯分量與前景高斯分量的分類閾值,θmax為圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖的極大值點(diǎn);
因此坐標(biāo)為(x,y)的像素點(diǎn)如果滿足如下條件,則該像素點(diǎn)屬于背景區(qū)域:
m(x,y)∈[0,t]且t>mmax,θ(x,y)∈[t1,t2]且t1<θmax<t2
2)為滿足背景估計(jì)的自適應(yīng),需要自適應(yīng)確定t、t1和t2,利用過(guò)零點(diǎn)檢測(cè)方法自適應(yīng)確定閾值t、t1和t2,具體如下:
為降低噪聲造成的干擾,利用平滑窗口函數(shù)k(ω)與圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖f(z)和圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖g(a)進(jìn)行卷積運(yùn)算,如式(6)所示:
這里用函數(shù)f(z)表示圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖,用函數(shù)g(a)表示圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖,ω為濾波窗口長(zhǎng)度,長(zhǎng)度為奇數(shù),則
由于ff(z)導(dǎo)數(shù)的零點(diǎn)對(duì)應(yīng)ff(z)的拐點(diǎn),同理gg(a)導(dǎo)數(shù)的零點(diǎn)對(duì)應(yīng)gg(a)的拐點(diǎn),可利用差分函數(shù)求解ff(z)的導(dǎo)數(shù)
其中:tzero表示ff(z)的零點(diǎn),
3、剔除估計(jì)的背景區(qū)域,即可得到前景區(qū)域;
步驟四、采用基于圖論的分割算法分割步驟三得到的前景區(qū)域的光流場(chǎng):令g=(pfore,e)為頂點(diǎn)pi∈pfore,邊集(pi,pj)∈e構(gòu)成的無(wú)向圖,其中pi、pj均為該無(wú)向圖的頂點(diǎn),pfore表示去除估計(jì)的背景區(qū)域內(nèi)的像素點(diǎn)后的前景像素點(diǎn)的集合,(pi,pj)為近鄰頂點(diǎn)構(gòu)成的邊,e表示所有邊的集合,ω(pi,pj)為邊(pi,pj)對(duì)應(yīng)的權(quán)重,表示為頂點(diǎn)pi和pj的差異性;圖像光流場(chǎng)為速度矢量場(chǎng),頂點(diǎn)pi的光流表示為
其中σ表示矢量模mij的權(quán)重系數(shù),取為0.2;β表示矢量夾角αij的權(quán)重系數(shù),取為0.8;
區(qū)域c1和區(qū)域c2表示無(wú)向圖g中的兩個(gè)區(qū)域,根據(jù)無(wú)向圖g的最小生成樹(shù),如果滿足條件:dif(c1,c2)>mint(c1,c2),則區(qū)域c1和區(qū)域c2需要分割;
其中,dif(c1,c2)=minω(pi,pj),其中pi∈c1,pj∈c2,(pi,pj)∈e,表示兩個(gè)分割區(qū)域c1、c2之間頂點(diǎn)相互連接的最小邊的權(quán)值,表示區(qū)域的類間差異;mint(c1,c2)=min(int(c1)+τ(c1),int(c2)+τ(c2)),分割區(qū)域的合并指標(biāo)
步驟五、因步驟三無(wú)法準(zhǔn)確得到背景區(qū)域,因此經(jīng)步驟四分割后的各區(qū)域除了包含行人、非行人物體外,還可能包含步驟三中無(wú)法完全剔除的背景,需進(jìn)一步減少上述非行人區(qū)域,利用人體形態(tài)的相關(guān)指標(biāo)進(jìn)行判斷其是否為行人,剔除非行人區(qū)域:
選取物體的高度與寬度之比l、區(qū)域面積s、區(qū)域面積與圈定區(qū)域的矩形窗口面積之比sn作為判別指標(biāo),來(lái)判斷某區(qū)域是否為行人區(qū)域;如果l、s、sn同時(shí)滿足l∈(lmin,lmax),s∈(smin,smax),sn∈(snmin,snmax),則該區(qū)域?yàn)樾腥藚^(qū)域,獲得行人區(qū)域后,將除了行人區(qū)域外的其他非行人區(qū)域剔除;
其中l(wèi)max是為高度與寬度比設(shè)定的最大值、lmin是為高度與寬度比設(shè)定的最小值;smax是為區(qū)域面積設(shè)定的最大值、smin是為區(qū)域面積設(shè)定的最小值;snmax是為區(qū)域面積與圈定區(qū)域的矩形窗口面積之比設(shè)定的最大值、snmin是為區(qū)域面積與圈定區(qū)域的矩形窗口面積之比設(shè)定的最小值,lmax、lmin、smax、smin、snmax和snmin的具體取值均通過(guò)以手工標(biāo)定的方式進(jìn)行的大量實(shí)驗(yàn)來(lái)獲得。
與現(xiàn)有技術(shù)相比本發(fā)明的有益效果是:
1、本發(fā)明提出的基于光流聚類的車載行人區(qū)域估計(jì)方法,避免了傳統(tǒng)行人檢測(cè)系統(tǒng)采用全局模板搜索匹配識(shí)別造成的行人識(shí)別的盲目搜索,適用于車載環(huán)境下的無(wú)人駕駛。
2、在背景估計(jì)步驟中,通常的em算法和k-means等聚類算法難以確定背景的高斯分布,而本方法提出的光流聚類算法可更加有效地估計(jì)背景區(qū)域。
3、在判別前景行人區(qū)域的過(guò)程中,利用人體形態(tài)特征,可有效地剔除非行人區(qū)域,獲得行人區(qū)域。
附圖說(shuō)明
圖1是本發(fā)明所述的一種基于光流聚類的車載行人區(qū)域估計(jì)方法的框架示意圖;
圖2a是步驟三所述背景估計(jì)過(guò)程中獲取的相鄰幀圖像運(yùn)動(dòng)幅值聚類直方圖示意圖;
圖2b是步驟三所述背景估計(jì)過(guò)程中獲取的相鄰幀圖像運(yùn)動(dòng)方向角聚類直方圖示意圖;
圖3是步驟三所述背景估計(jì)的流程圖;
圖4是兩高斯分布的最小誤分類分割閾值示意圖;
圖5a是步驟三所述背景估計(jì)過(guò)程中平滑后的運(yùn)動(dòng)幅值分割閾值示意圖;
圖5b是步驟三所述背景估計(jì)過(guò)程中平滑后的運(yùn)動(dòng)方向角分割閾值示意圖。
具體實(shí)施方式
下面結(jié)合附圖,對(duì)本發(fā)明的技術(shù)方案進(jìn)行詳細(xì)說(shuō)明:
如圖1所示的本發(fā)明所述的方法框架,本發(fā)明所述方法是對(duì)攝像機(jī)獲取的圖像進(jìn)行光流估計(jì),獲得圖像光流場(chǎng);再進(jìn)行光流聚類,從而估計(jì)出背景區(qū)域;剔除背景區(qū)域,使用圖分割算法分割前景區(qū);最后對(duì)前景區(qū)各區(qū)域進(jìn)行判別,識(shí)別出有效的行人區(qū)域。具體步驟如下:
步驟一、利用車載攝像機(jī)拍攝車輛前方道路,通過(guò)攝像機(jī)獲取的圖像為rgb三維圖像,經(jīng)過(guò)圖像灰度化處理得到二維灰度圖像,二維灰度圖像可視為一個(gè)個(gè)像素點(diǎn)的亮度值構(gòu)成的矩陣i(x,y),其中x為圖像的像素點(diǎn)的橫坐標(biāo),y為圖像的像素點(diǎn)的縱坐標(biāo);
步驟二、光流場(chǎng)是指圖像中所有像素點(diǎn)構(gòu)成的一種二維瞬時(shí)速度場(chǎng),其中的二維速度矢量是景物中可見(jiàn)點(diǎn)的三維速度矢量在成像表面的投影,所以光流不僅包含了被觀察物體的運(yùn)動(dòng)信息,而且還包含有關(guān)景物三維結(jié)構(gòu)的豐富信息,光流在物體運(yùn)動(dòng)檢測(cè)方面有著重要應(yīng)用,光流場(chǎng)估計(jì)方法經(jīng)過(guò)多年的發(fā)展,在估計(jì)精度和速度方面取得重要進(jìn)展,并行環(huán)境下達(dá)到45幀每秒的快速運(yùn)算,其中基于梯度的光流估計(jì)方法應(yīng)用尤為廣泛,基于梯度的光流估計(jì)方法建立在光強(qiáng)亮度恒定和物體微小運(yùn)動(dòng)假設(shè)基礎(chǔ)上估計(jì)圖像光流場(chǎng),光流的計(jì)算過(guò)程如下:
1)令i(x,y,t)表示圖像i(x,y)的時(shí)間序列,式中,t為時(shí)間,令dx代表橫坐標(biāo)x上的變化量、dy代表縱坐標(biāo)y上的變化量、dt代表i(x,y,t)在時(shí)間t上的變化量,那么在圖像光強(qiáng)亮度恒定和物體微小運(yùn)動(dòng)的假設(shè)下有:
i(x,y,t)=i(x+dx,y+dy,t+dt)(1)
將上式等號(hào)右邊,即i(x+dx,y+dy,t+dt)進(jìn)行泰勒公式展開(kāi):
式中,
結(jié)合式(1)和式(2)且忽略高階項(xiàng)δ,則得到:
令
ixu+iyv=-it
整理成矩陣形式為:
其中:
為了求解光流計(jì)算矩陣(4),現(xiàn)有局部光流計(jì)算法、全局光流計(jì)算法以及局部與全局相結(jié)合的光流求解法。局部光流計(jì)算方法利用最小二乘法計(jì)算矩陣方程求解圖像光流場(chǎng);全局光流計(jì)算方法利用松弛迭代法求解全局能量最小,計(jì)算全局光流場(chǎng)。局部光流法對(duì)噪聲具有較好的魯棒性,但計(jì)算為稀疏光流場(chǎng);全局光流法具有較好的圖像結(jié)構(gòu)邊緣探測(cè)精度,獲取稠密光流,但抗噪聲干擾較差。車載行人檢測(cè)過(guò)程,為滿足行人運(yùn)動(dòng)區(qū)域估計(jì)以及提高外界干擾影響,本發(fā)明采用局部與全局相結(jié)合的光流求解方法,該方法利用共軛梯度法快速求解光流矩陣,得到圖像光流場(chǎng)[u,v]。
步驟三、相同運(yùn)動(dòng)屬性的物體將具有近似相同的光流場(chǎng)。車載相機(jī)的移動(dòng)致使交通場(chǎng)景背景具有近似相同的運(yùn)動(dòng)場(chǎng),從而交通場(chǎng)景圖像的背景每個(gè)像素點(diǎn)具有近似相同的光流矢量,即背景像素點(diǎn)的光流具有近似相同的運(yùn)動(dòng)幅值和運(yùn)動(dòng)方向角。移動(dòng)個(gè)體作為不同于背景的運(yùn)動(dòng),具有不同于背景的光流場(chǎng)。根據(jù)運(yùn)動(dòng)差異性,對(duì)圖像光流場(chǎng)聚類可實(shí)現(xiàn)前景與背景的分離。背景估計(jì)的流程如圖3所示,具體過(guò)程如下:
1、獲取圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖和圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖:
1)令坐標(biāo)為(x,y)的像素點(diǎn)的光流在x方向分量為u(x,y),在y方向分量v(x,y),再根據(jù)下式計(jì)算坐標(biāo)為(x,y)的像素點(diǎn)的運(yùn)動(dòng)幅值m(x,y)和坐標(biāo)為(x,y)的像素點(diǎn)的運(yùn)動(dòng)方向角θ(x,y):
2)對(duì)運(yùn)動(dòng)幅值m(x,y)的取值范圍離散化以及運(yùn)動(dòng)方向角θ(x,y)的取值范圍離散化,統(tǒng)計(jì)運(yùn)動(dòng)幅值m(x,y)不同取值范圍下對(duì)應(yīng)的頻數(shù)n1和運(yùn)動(dòng)方向角θ(x,y)不同取值范圍下對(duì)應(yīng)的頻數(shù)n2,以運(yùn)動(dòng)幅值m(x,y)為橫軸,以運(yùn)動(dòng)幅值各取值范圍對(duì)應(yīng)的頻數(shù)n1為縱軸,可獲得運(yùn)動(dòng)幅值聚類直方圖,示意圖如圖2a所示;同理,以運(yùn)動(dòng)方向角θ(x,y)為橫軸,以運(yùn)動(dòng)方向角各取值范圍其對(duì)應(yīng)的頻數(shù)n2為縱軸即可獲得運(yùn)動(dòng)方向角聚類直方圖,示意圖如圖2b所示;由圖2a所示的運(yùn)動(dòng)幅值聚類直方圖和圖2b所示的運(yùn)動(dòng)方向角聚類直方圖示意圖可以看出,圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖和圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖均可分別視為一個(gè)混合高斯分布,每個(gè)混合高斯分布均含有背景高斯分量、前景高斯分量、估計(jì)誤差高斯分量以及噪聲干擾高斯分量;
2、估計(jì)車載攝像機(jī)拍攝的車輛前方道路的圖像的背景:
由于車載視頻場(chǎng)景中運(yùn)行物體和行人個(gè)數(shù)的不確定性,上述混合高斯分布難以確定各高斯分量的個(gè)數(shù),從而通常的em算法和k-means聚類算法難以確定背景的高斯分布。本方法提出的光流聚類方法可有效估計(jì)背景區(qū)域:
1)考慮到車載攝像機(jī)拍攝的車輛前方道路的圖像的背景占該圖像的絕大部分區(qū)域,即背景區(qū)域像素點(diǎn)頻數(shù)最大;因此可以將圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖的極大值點(diǎn)對(duì)應(yīng)的高斯分量和圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖的極大值點(diǎn)對(duì)應(yīng)的高斯分量作為背景高斯分量;
根據(jù)如下原理:兩高斯分布的最小誤分類閾值t對(duì)應(yīng)兩高斯分布的交叉點(diǎn),如圖4所示。本方法選取背景高斯分量和前景高斯分量的交叉點(diǎn)作為它們的分類閾值;根據(jù)攝像機(jī)成像投影原理,所有的成像點(diǎn)相交于成像的滅點(diǎn),即車輛前方距離車載攝像機(jī)較遠(yuǎn)的背景的像素點(diǎn)的運(yùn)動(dòng)幅值向于0點(diǎn),運(yùn)動(dòng)幅值聚類直方圖中從0點(diǎn)開(kāi)始到極大值點(diǎn)對(duì)應(yīng)的高斯分量為背景高斯分量;因此,圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖中運(yùn)動(dòng)幅值m(x,y)∈[0,t]且t>mmax對(duì)應(yīng)的區(qū)間為背景部分,其中t為圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖中背景高斯分量與前景高斯分量的分類閾值,mmax為圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖的極大值點(diǎn);此外,由于運(yùn)動(dòng)方向角θ(x,y)的范圍為[-π,π]以及前景運(yùn)動(dòng)方向的不確定性,為降低背景的誤分類,在圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖極大值點(diǎn)兩側(cè)分別選取閾值作為背景部分,即運(yùn)動(dòng)方向角θ(x,y)∈[t1,t2]且t1<θmax<t2的區(qū)間為背景部分,其中t1和t2為圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖中的背景高斯分量與前景高斯分量的分類閾值,θmax為圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖的極大值點(diǎn);平滑后的運(yùn)動(dòng)幅值分割閾值示意圖如圖5a所示,平滑后的運(yùn)動(dòng)方向角分割閾值示意圖如圖5b所示。
因此坐標(biāo)為(x,y)的像素點(diǎn)如果滿足如下條件,則該像素點(diǎn)屬于背景區(qū)域:
m(x,y)∈[0,t]且t>mmax,θ(x,y)∈[t1,t2]且t1<θmax<t2
2)為滿足背景估計(jì)的自適應(yīng),需要自適應(yīng)確定t、t1和t2,利用過(guò)零點(diǎn)檢測(cè)方法自適應(yīng)確定閾值t、t1和t2,具體如下:
為降低噪聲造成的干擾,利用平滑窗口函數(shù)k(ω)與圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖f(z)和圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖g(a)進(jìn)行卷積運(yùn)算,如式(6)所示:
這里用函數(shù)f(z)表示圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)幅值聚類直方圖,用函數(shù)g(a)表示圖像光流場(chǎng)[u,v]的運(yùn)動(dòng)方向角聚類直方圖,ω為濾波窗口長(zhǎng)度,長(zhǎng)度為奇數(shù),則
由于ff(z)導(dǎo)數(shù)的零點(diǎn)對(duì)應(yīng)ff(z)的拐點(diǎn),同理gg(a)導(dǎo)數(shù)的零點(diǎn)對(duì)應(yīng)gg(a)的拐點(diǎn),可利用差分函數(shù)求解ff(z)的導(dǎo)數(shù)
其中:tzero表示ff(z)的零點(diǎn),
步驟四、通常不同運(yùn)動(dòng)物體具有不同的運(yùn)動(dòng)屬性,同一運(yùn)動(dòng)物體同一時(shí)刻具有基本相同的運(yùn)動(dòng)屬性;對(duì)圖像光流圖而言,同一物體光流場(chǎng)具有均一性,不同物體具有不同的光流場(chǎng),從而,對(duì)圖像光流場(chǎng)的光流分割可實(shí)現(xiàn)前景物體的分割。對(duì)剔除背景區(qū)域的光流圖,采用基于圖論的分割算法。
令g=(pfore,e)為頂點(diǎn)pi∈pfore,邊集(pi,pj)∈e構(gòu)成的無(wú)向圖,其中pi、pj均為該無(wú)向圖的頂點(diǎn),pfore表示去除估計(jì)的背景區(qū)域內(nèi)的像素點(diǎn)后的前景像素點(diǎn)的集合,(pi,pj)為近鄰頂點(diǎn)構(gòu)成的邊,e表示所有邊的集合,ω(pi,pj)為邊(pi,pj)對(duì)應(yīng)的權(quán)重,表示為頂點(diǎn)pi和pj的差異性;圖像光流場(chǎng)為速度矢量場(chǎng),頂點(diǎn)pi的光流表示為
其中σ表示矢量模mij的權(quán)重系數(shù),取為0.2;β表示矢量夾角αij的權(quán)重系數(shù),取為0.8;
區(qū)域c1和區(qū)域c2表示無(wú)向圖g中的兩個(gè)區(qū)域,根據(jù)無(wú)向圖g的最小生成樹(shù),如果滿足條件:dif(c1,c2)>mint(c1,c2),則區(qū)域c1和區(qū)域c2需要分割;
其中,dif(c1,c2)=minω(pi,pj),其中pi∈c1,pj∈c2,(pi,pj)∈e,表示兩個(gè)分割區(qū)域c1、c2之間頂點(diǎn)相互連接的最小邊的權(quán)值,表示區(qū)域的類間差異;mint(c1,c2)=min(int(c1)+τ(c1),int(c2)+τ(c2)),分割區(qū)域的合并指標(biāo)
步驟五、因步驟三無(wú)法準(zhǔn)確得到背景區(qū)域,因此經(jīng)步驟四分割后的各區(qū)域除了包含行人、非行人物體外,還可能包含步驟三中無(wú)法完全剔除的背景,需進(jìn)一步減少上述非行人區(qū)域,利用人體形態(tài)的相關(guān)指標(biāo)進(jìn)行判斷其是否為行人,剔除非行人區(qū)域:
選取物體的高度與寬度之比l、區(qū)域面積s、區(qū)域面積與圈定區(qū)域的矩形窗口面積之比sn作為判別指標(biāo),來(lái)判斷某區(qū)域是否為行人區(qū)域;如果l、s、sn同時(shí)滿足l∈(lmin,lmax),s∈(smin,smax),sn∈(snmin,snmax),則該區(qū)域?yàn)樾腥藚^(qū)域,獲得行人區(qū)域后,將除了行人區(qū)域外的其他非行人區(qū)域剔除;
其中l(wèi)max是為高度與寬度比設(shè)定的最大值、lmin是為高度與寬度比設(shè)定的最小值;smax是為區(qū)域面積設(shè)定的最大值、smin是為區(qū)域面積設(shè)定的最小值;snmax是為區(qū)域面積與圈定區(qū)域的矩形窗口面積之比設(shè)定的最大值、snmin是為區(qū)域面積與圈定區(qū)域的矩形窗口面積之比設(shè)定的最小值,lmax、lmin、smax、smin、snmax和snmin的具體取值均通過(guò)以手工標(biāo)定的方式進(jìn)行的大量實(shí)驗(yàn)來(lái)獲得。
將本發(fā)明所述方法分別在jlu-pds車載實(shí)驗(yàn)平臺(tái)與國(guó)際daimler車載行人測(cè)試視頻集進(jìn)行測(cè)試。jlu-pds實(shí)驗(yàn)環(huán)境選取了吉林大學(xué)校園內(nèi)車輛運(yùn)行環(huán)境下的測(cè)試,實(shí)車測(cè)試時(shí)長(zhǎng)為2個(gè)小時(shí);daimler測(cè)試視頻集為野外和城市道路上的視頻集;結(jié)合圖1所述過(guò)程,對(duì)車載攝像機(jī)拍攝的圖像分別進(jìn)行光流計(jì)算、光流聚類、運(yùn)動(dòng)場(chǎng)景背景估計(jì)、光流分割以及區(qū)域判別等步驟,獲取最終的行人區(qū)域。實(shí)驗(yàn)結(jié)果顯示本算法能夠較好地滿足行人被部分遮擋、野外、街道、人群等復(fù)雜環(huán)境下的應(yīng)用,表明了本發(fā)明的算法具有較好的環(huán)境應(yīng)用性和較好的性能。本發(fā)明的算法極大地降低了行人檢測(cè)的搜索空間,為車載環(huán)境下的行人識(shí)別提供了快速、準(zhǔn)確的行人區(qū)域估計(jì)方法。