本發(fā)明涉及圖像處理技術(shù)領(lǐng)域,尤其涉及一種基于分類器的行人檢測方法及系統(tǒng)。
背景技術(shù):
視覺傳感器具有使用方便、重量小、采集到的信息豐富且相互影響較小的特點,已經(jīng)廣泛地應(yīng)用于人們的生活與工作場所,其在主動安全領(lǐng)域發(fā)揮了重要的作用。人是社會活動的主體,所以視頻圖像中的行人檢測對促進(jìn)智能安防、交通及自動駕駛領(lǐng)域的發(fā)展都有著重大的影響。但是行人是一個非剛性物體,不同的人群其服飾的差異性大,并且容易產(chǎn)生姿態(tài)的變換,在復(fù)雜環(huán)境下受光照變換的影響及被部分遮擋時,高效的行人檢測具有高度挑戰(zhàn)性。
當(dāng)前,行人檢測的構(gòu)架一般是首先進(jìn)行特征提取然后用分類器進(jìn)行檢測。傳統(tǒng)的行人特征方法有梯度直方圖特征hog、gabor特征及紋理形狀特征等,其在剛性物體的特征描述中發(fā)揮了較好的效果,但是gabor的計算復(fù)雜度較高;hog的特征維數(shù)較大,導(dǎo)致檢測效率變低,難以滿足實時性的要求。且當(dāng)檢測非剛性的行人時,其效果下降。常用的分類器學(xué)習(xí)方法有支持向量機(jī)svm、adaboost方法,以及最近流行的深度神經(jīng)網(wǎng)絡(luò)算法等。svm算法對于大規(guī)模存在差異性的訓(xùn)練樣本無法實施;深度神經(jīng)網(wǎng)絡(luò)的參數(shù)量巨大,基本無法在嵌入式的平臺上進(jìn)行實時的檢測。
因此,現(xiàn)有技術(shù)還有待于改進(jìn)和發(fā)展。
技術(shù)實現(xiàn)要素:
鑒于現(xiàn)有技術(shù)的不足,本發(fā)明目的在于提供一種基于分類器的行人檢測方法及系統(tǒng),旨在解決現(xiàn)有技術(shù)中如何建立有效模型對行人在復(fù)雜環(huán)境及不同姿態(tài)下進(jìn)行準(zhǔn)確的描述,并用分類器進(jìn)行快速而準(zhǔn)確地識別的技術(shù)問題。
本發(fā)明的技術(shù)方案如下:
一種基于分類器的行人檢測方法,其中,方法包括步驟:
a、獲取拍攝的圖像,提取圖像的顏色特征及梯度特征,根據(jù)分類器構(gòu)造的整體行人模型對圖像的顏色特征及梯度特征進(jìn)行識別,根據(jù)識別結(jié)果判斷圖像是否為候選行人目標(biāo);
b、當(dāng)檢測到圖像中的目標(biāo)為候選行人目標(biāo)時,對候選行人目標(biāo)進(jìn)行部位劃分,分別是頭肩部位、軀干部位、左軀干拓展部位、右軀干拓展部位、左腿部位及右腿部位;
c、提取各個部位的顏色特征及梯度特征,采用聚類算法對同一部位的不同姿態(tài)進(jìn)行類別劃分,得到部位類,根據(jù)不同部位的部位類構(gòu)成部位類簇;
d、使用分類器對各個部位類簇分別建立模型生成對應(yīng)的部位類簇分類器,根據(jù)部位類簇分類器對候選行人目標(biāo)進(jìn)行識別,根據(jù)各個部位類的得分進(jìn)行加權(quán)融合后生成最終得分;
e、判斷最終得分是否大于第一預(yù)定閾值,若最終得分大于第一預(yù)定閾值,則判定候選行人目標(biāo)為行人。
所述的基于分類器的行人檢測方法,其中,所述步驟a具體包括步驟:
a1、獲取拍攝的圖像,將圖像的rgb顏色空間轉(zhuǎn)換為hsv顏色空間,分別記錄圖像中各個像素點的h、s與v通道的顏色值作為顏色特征;
a2、對圖像的h、s、v各個通道的各個像素點的梯度值進(jìn)行濾波得到梯度幅值,對梯度幅值進(jìn)行非線性變換,構(gòu)造梯度方向特征向量,提取梯度幅值特征與梯度方向特征向量為梯度特征;
a3、根據(jù)分類器對圖像的顏色特征及梯度特征進(jìn)行識別,獲取識別后的第一分類器得分,判斷第一分類器得分是否大于第二預(yù)定閾值,若第一分類器得分大于第二預(yù)定閾值,則當(dāng)前圖像中為候選行人目標(biāo)。
所述的基于分類器的行人檢測方法,其中,所述步驟b具體包括步驟:
b1、當(dāng)檢測到圖像中的目標(biāo)為候選行人目標(biāo)時,獲取圖像中的候選行人目標(biāo)的外接矩形框的高度和寬度,以及候選行人目標(biāo)的中心位置坐標(biāo)及預(yù)設(shè)的各部位的偏移量;
b2、根據(jù)候選行人目標(biāo)的外接矩形框的高度和寬度,以及候選行人目標(biāo)的中心位置坐標(biāo)及預(yù)設(shè)的各部位的偏移量將候選行人目標(biāo)劃分為頭肩部、軀干部位、左軀干拓展部位、右軀干拓展部位、左腿部位及右腿部位。
所述的基于分類器的行人檢測方法,其中,所述步驟d具體包括步驟:
d1、使用分類器對各個部位類簇進(jìn)行分類,分別得到頭肩部位分類器、軀干部位分類器、左軀干部位分類器、右軀干部位分類器、左腿部位分類器、右腿部位分類器;
d2、根據(jù)頭肩部位分類器、軀干部位分類器、左軀干部位分類器、右軀干部位分類器、左腿部位分類器、右腿部位分類器分別對候選行人目標(biāo)進(jìn)行識別后生成對應(yīng)的得分為頭肩部位得分、軀干部位得分、左軀干部位得分、右軀干部位得分、左腿部位得分、右腿部位得分;
d3、根據(jù)頭肩部位得分、軀干部位得分、左軀干部位得分、右軀干部位得分、左腿部位得分、右腿部位得分進(jìn)行加權(quán)融合計算,得到候選行人的最終得分。
所述的基于分類器的行人檢測方法,其中,所述步驟a3還包括步驟:
a31、若第一分類器得分小于等于第二預(yù)定閾值,則判定當(dāng)前圖像中不包含行人,過濾圖像。
一種基于分類器的行人檢測系統(tǒng),其中,系統(tǒng)包括:
特征提取模塊,用于獲取拍攝的圖像,提取圖像的顏色特征及梯度特征,根據(jù)分類器構(gòu)造的整體行人模型對圖像的顏色特征及梯度特征進(jìn)行識別,根據(jù)識別結(jié)果判斷圖像是否為候選行人目標(biāo);
部位劃分模塊,用于當(dāng)檢測到圖像中的目標(biāo)為候選行人目標(biāo)時,對候選行人目標(biāo)進(jìn)行部位劃分,分別是頭肩部位、軀干部位、左軀干拓展部位、右軀干拓展部位、左腿部位及右腿部位;
部位類簇構(gòu)造模塊,用于提取各個部位的顏色特征及梯度特征,采用聚類算法對同一部位的不同姿態(tài)進(jìn)行類別劃分,得到部位類,根據(jù)不同部位的部位類構(gòu)成部位類簇;
識別模塊,用于使用分類器對各個部位類簇分別建立模型生成對應(yīng)的部位類簇分類器,根據(jù)部位類簇分類器對候選行人目標(biāo)進(jìn)行識別,根據(jù)各個部位類的得分進(jìn)行加權(quán)融合后生成最終得分;
行人判定模塊,用于判斷最終得分是否大于第一預(yù)定閾值,若最終得分大于第一預(yù)定閾值,則判定候選行人目標(biāo)為行人。
所述的基于分類器的行人檢測系統(tǒng),其中,所述特征提取模塊具體包括:
顏色特征提取單元,用于獲取拍攝的圖像,將圖像的rgb顏色空間轉(zhuǎn)換為hsv顏色空間,分別記錄圖像中各個像素點的h、s與v通道的顏色值作為顏色特征;
梯度特征提取單元,用于對圖像的h、s、v各個通道的各個像素點的梯度值進(jìn)行濾波得到梯度幅值,對梯度幅值進(jìn)行非線性變換,構(gòu)造梯度方向特征向量,提取梯度幅值特征與梯度方向特征向量為梯度特征;
候選行人目標(biāo)判定單元,用于根據(jù)分類器對圖像的顏色特征及梯度特征進(jìn)行識別,獲取識別后的第一分類器得分,判斷第一分類器得分是否大于第二預(yù)定閾值,若第一分類器得分大于第二預(yù)定閾值,則當(dāng)前圖像中為候選行人目標(biāo)。
所述的基于分類器的行人檢測系統(tǒng),其中,所述部位劃分模塊具體包括:
部位坐標(biāo)獲取單元,用于當(dāng)檢測到圖像中的目標(biāo)為候選行人目標(biāo)時,獲取圖像中的候選行人目標(biāo)的外接矩形框的高度和寬度,以及候選行人目標(biāo)的中心位置坐標(biāo)及預(yù)設(shè)的各部位的偏移量;
部位劃分單元,用于根據(jù)候選行人目標(biāo)的外接矩形框的高度和寬度,以及候選行人目標(biāo)的中心位置坐標(biāo)及預(yù)設(shè)的各部位的偏移量將候選行人目標(biāo)劃分為頭肩部、軀干部位、左軀干拓展部位、右軀干拓展部位、左腿部位及右腿部位。
所述的基于分類器的行人檢測系統(tǒng),其中,所述識別模塊具體包括:
分類單元,用于使用分類器對各個部位類簇進(jìn)行分類,分別得到頭肩部位分類器、軀干部位分類器、左軀干部位分類器、右軀干部位分類器、左腿部位分類器、右腿部位分類器;
識別單元,用于根據(jù)頭肩部位分類器、軀干部位分類器、左軀干部位分類器、右軀干部位分類器、左腿部位分類器、右腿部位分類器分別對候選行人目標(biāo)進(jìn)行識別后生成對應(yīng)的得分為頭肩部位得分、軀干部位得分、左軀干部位得分、右軀干部位得分、左腿部位得分、右腿部位得分;
計算單元,用于根據(jù)頭肩部位得分、軀干部位得分、左軀干部位得分、右軀干部位得分、左腿部位得分、右腿部位得分進(jìn)行加權(quán)融合計算,得到候選行人的最終得分。
所述的基于分類器的行人檢測系統(tǒng),其中,所述特征提取模塊具體包括:
圖像過濾單元,用于若第一分類器得分小于等于第二預(yù)定閾值,則判定當(dāng)前圖像中不包含行人,過濾圖像。
本發(fā)明提供了一種基于分類器的行人檢測方法及系統(tǒng),本發(fā)明對圖像的顏色和梯度特征進(jìn)行提取,在不同的環(huán)境下具有較高的魯棒性,且計算復(fù)雜度低;并提出了建立部位類簇模型的方法更好地對行人在不同姿態(tài)及環(huán)境下的特征進(jìn)行描述,同時采用了使用整體模型和部位類簇模型的多重判斷機(jī)制,提高了行人檢測的效率和準(zhǔn)確度。
附圖說明
圖1為本發(fā)明的一種基于分類器的行人檢測方法的較佳實施例的流程圖。
圖2為本發(fā)明的一種基于分類器的行人檢測方法的具體應(yīng)用實施例的流程圖。
圖3為本發(fā)明的一種基于分類器的行人檢測系統(tǒng)的較佳實施例的功能原理框圖。
具體實施方式
為使本發(fā)明的目的、技術(shù)方案及效果更加清楚、明確,以下對本發(fā)明進(jìn)一步詳細(xì)說明。應(yīng)當(dāng)理解,此處所描述的具體實施例僅僅用以解釋本發(fā)明,并不用于限定本發(fā)明。
本發(fā)明還提供了一種基于分類器的行人檢測方法的的較佳實施例的流程圖,如圖1所示,方法包括步驟:
s100、獲取拍攝的圖像,提取圖像的顏色特征及梯度特征,根據(jù)分類器構(gòu)造的整體行人模型對圖像的顏色特征及梯度特征進(jìn)行識別,根據(jù)識別結(jié)果判斷圖像是否為候選行人目標(biāo)。
具體實施時,獲取拍攝的視頻,視頻中的圖像進(jìn)行顏色及梯度特征提取,用分類器構(gòu)造整體行人模型,采用其對圖像進(jìn)行窗口掃描得到候選的目標(biāo)。
進(jìn)一步的實施例中,步驟s100具體包括步驟:
s101、獲取拍攝的圖像,將圖像的rgb顏色空間轉(zhuǎn)換為hsv顏色空間,分別記錄圖像中各個像素點的h、s與v通道的顏色值作為顏色特征;
s102、對圖像的h、s、v各個通道的各個像素點的梯度值進(jìn)行濾波得到梯度幅值,對梯度幅值進(jìn)行非線性變換,構(gòu)造梯度方向特征向量,提取梯度幅值特征與梯度方向特征向量為梯度特征;
s103、根據(jù)分類器對圖像的顏色特征及梯度特征進(jìn)行識別,獲取識別后的第一分類器得分,判斷第一分類器得分是否大于第二預(yù)定閾值,若第一分類器得分大于第二預(yù)定閾值,則當(dāng)前圖像中為候選行人目標(biāo)。
具體實施時,步驟s101具體為提取行人的顏色特征。具體是將圖像轉(zhuǎn)換為hsv顏色空間,分別記錄各個像素點的h、s與v通道的顏色值作為顏色特征。
步驟s102提取行人的梯度特征。為了減少噪聲的影響,對于hsv各個通道的顏色值,首先采用平均濾波的方法對每個像素點的橫軸方向和縱軸方向的梯度值進(jìn)行濾波,如公式(1)(2)所示;然后采用sigmod函數(shù)對梯度幅g(x,y)值進(jìn)行了非線性的變換,使得梯度值越大的像素其特征的重要系數(shù)越大,如公式(3)所示;接著構(gòu)造梯度方向特征向量
gx(x,y)=|(∑rv(x+r,y)-∑rv(x-r,y))|/r(公式1)
gy(x,y)=|(∑rv(x,y+r)-∑rv(x,y-r))|/r(公式2)
o(x,y)=arctan(gy(x,y)/gx(x,y))(公式4)
其中,(x,y)表示像素點的坐標(biāo)位置,v(x,y)表示坐標(biāo)為(x,y)的像素點的顏色值;r表示核半徑,為常數(shù),最小值為1,這里r設(shè)置為3;gx(x,y)表示橫向坐標(biāo)方向的梯度值;gy(x,y)表示縱向坐標(biāo)方向的梯度值。
步驟s103具體為構(gòu)造整體行人的模型。首先對行人的外接矩形框包含的圖像進(jìn)行特征提取,然后使用adaboost分類器訓(xùn)練,得到模型mwhole,最后使用該模型對目標(biāo)進(jìn)行識別,其得分設(shè)為swhole,當(dāng)swhole大于第二預(yù)定閾值時,則判斷為行人。第二預(yù)定閾值由人工設(shè)定,第二預(yù)定閾值優(yōu)選為0.6。
進(jìn)一步地,步驟s103還包括步驟:
s131、若第一分類器得分小于等于第二預(yù)定閾值,則判定當(dāng)前圖像中不包含行人,過濾圖像。首先使用整體分類器模型用窗口滑動的方法對圖像進(jìn)行掃描,得到候選目標(biāo),即當(dāng)swhole<=threshwhole(設(shè)threshwhole為第二預(yù)定閾值)時為非行人,對其進(jìn)行過濾。
s200、當(dāng)檢測到圖像中的目標(biāo)為候選行人目標(biāo)時,對候選行人目標(biāo)進(jìn)行部位劃分,分別是頭肩部位、軀干部位、左軀干拓展部位、右軀干拓展部位、左腿部位及右腿部位。對候選行人目標(biāo)進(jìn)行部位劃分,分別是:頭肩部位、軀干部位、左軀干拓展部位、右軀干拓展部位、左腿部位及右腿部位。
進(jìn)一步地實施例中,步驟s200具體包括:
s201、當(dāng)檢測到圖像中的目標(biāo)為候選行人目標(biāo)時,獲取圖像中的候選行人目標(biāo)的外接矩形框的高度和寬度,以及候選行人目標(biāo)的中心位置坐標(biāo)及預(yù)設(shè)的各部位的偏移量;
s202、根據(jù)候選行人目標(biāo)的外接矩形框的高度和寬度,以及候選行人目標(biāo)的中心位置坐標(biāo)及預(yù)設(shè)的各部位的偏移量將候選行人目標(biāo)劃分為頭肩部、軀干部位、左軀干拓展部位、右軀干拓展部位、左腿部位及右腿部位。
具體實施時,對候選行人目標(biāo)的部位模塊的劃分,其劃分的內(nèi)容包括6個部位,分別是:頭肩部位、軀干部位、左軀干拓展部位、右軀干拓展部位、左腿部位及右腿部位。其具體的定義為設(shè)行人的外接矩形框高度設(shè)為h,寬度設(shè)為w,偏移量設(shè)為σ1~σ11,行人中心位置的坐標(biāo)為(cx,cy);頭肩部位的橫向坐標(biāo)取值范圍為[0,w],縱向坐標(biāo)的取值范圍[0,cy-0.25*h+σ1];軀干部位的橫向坐標(biāo)取值范圍為[0,w],縱向坐標(biāo)的取值范圍[cy-0.3*h+σ2,cy+0.1*h+σ3];左軀干拓展部位的橫向坐標(biāo)取值范圍為[0,0.5*w+σ4],縱向坐標(biāo)的取值范圍[cy-0.3*h+σ5,cy+0.1*h+σ6];右軀干拓展部位的橫向坐標(biāo)取值范圍為[0.5*w+σ7,w],縱向坐標(biāo)的取值范圍[cy-0.3*h+σ5,cy+0.1*h+σ6];左腿部位的橫向坐標(biāo)取值范圍為[0,0.5*w+σ8],縱向坐標(biāo)的取值范圍[cy-0.1*h+σ9,cy+0.5*h+σ10];右腿部位的橫向坐標(biāo)取值范圍為[0.5*w+σ11,w],縱向坐標(biāo)的取值范圍[cy-0.1*h+σ9,cy+0.5*h+σ10]。
s300、提取各個部位的顏色特征及梯度特征,采用聚類算法對同一部位的不同姿態(tài)進(jìn)行類別劃分,得到部位類,根據(jù)不同部位的部位類構(gòu)成部位類簇。由于不同姿態(tài)的行人的同一部位特征具有較大差異性,且每個部位的特征產(chǎn)生的差異不一致,因此為了更好地建立同一部位在不同姿態(tài)下的模型,提出使用kmeans聚類的方法自動地對同一部位進(jìn)行不同姿態(tài)的劃分,形成部位類。不同部位的部位類聚合在一起形成部位類簇。設(shè)頭肩部位的特征使用kmeans方法劃分為n1類;設(shè)軀干部位的特征劃分為n2類;設(shè)左軀干拓展部位的特征劃分為n3類;設(shè)右軀干拓展部位的特征劃分為n4類;設(shè)左腿部位的特征劃分為n5類;設(shè)右腿部位的特征劃分為n6類。其中n1~n6為常數(shù),最小值為1。
s400、使用分類器對各個部位類簇分別建立模型生成對應(yīng)的部位類簇分類器,根據(jù)部位類簇分類器對候選行人目標(biāo)進(jìn)行識別,根據(jù)各個部位類的得分進(jìn)行加權(quán)融合后生成最終得分。使用分類器對各個部位類簇分別建立模型,最后用部位類簇分類器對目標(biāo)進(jìn)行識別,將各個部位類的得分進(jìn)行加權(quán)融合生成最終得分。
進(jìn)一步的實施例中,步驟s400具體包括步驟:
s401、使用分類器對各個部位類簇進(jìn)行分類,分別得到頭肩部位分類器、軀干部位分類器、左軀干部位分類器、右軀干部位分類器、左腿部位分類器、右腿部位分類器;
s402、根據(jù)頭肩部位分類器、軀干部位分類器、左軀干部位分類器、右軀干部位分類器、左腿部位分類器、右腿部位分類器分別對候選行人目標(biāo)進(jìn)行識別后生成對應(yīng)的得分為頭肩部位得分、軀干部位得分、左軀干部位得分、右軀干部位得分、左腿部位得分、右腿部位得分;
s403、根據(jù)頭肩部位得分、軀干部位得分、左軀干部位得分、右軀干部位得分、左腿部位得分、右腿部位得分進(jìn)行加權(quán)融合計算,得到候選行人的最終得分。
具體實施時,使用adaboost分類器對部位類簇進(jìn)行分類,得到頭肩部位分類器設(shè)為mhead1、mhead2、…、mheadn1,使用該模型進(jìn)行目標(biāo)識別后對應(yīng)得分設(shè)為shead1、shead2、…、sheadn1;軀干部位分類器設(shè)為mtrunk1、mtrunk2、…、mtrunkn2,使用該模型進(jìn)行目標(biāo)識別后對應(yīng)得分設(shè)為strunk1、strunk2、…、strunkn2;左軀干部位分類器設(shè)為mltrunk1、mltrunk2、…、mltrunkn3,使用該模型進(jìn)行目標(biāo)識別后對應(yīng)得分設(shè)為sltrunk1、sltrunk2、…、sltrunkn3;右軀干部位分類器設(shè)為mrtrunk1、mrtrunk2、…、mrtrunkn4,使用該模型進(jìn)行目標(biāo)分類后對應(yīng)得分設(shè)為srtrunk1、srtrunk2、…、srtrunkn4;左腿部位分類器設(shè)為mlleg1、mlleg2、…、mllegn5,使用該模型進(jìn)行目標(biāo)分類后對應(yīng)得分設(shè)為slleg1、slleg2、…、sllegn5;右腿部位分類器設(shè)為mrleg1、mrleg2、…、mrlegn6,使用該模型進(jìn)行目標(biāo)分類后對應(yīng)得分設(shè)為srleg1、srleg2、…、srlegn6。
對部位類簇的識別分?jǐn)?shù)進(jìn)行加權(quán)融合計算,如公式(5)所示,得到行人的最終得分sfinal,
其中,λi為權(quán)重因子,這里λi設(shè)置為1/ni。
s500、判斷最終得分是否大于第一預(yù)定閾值,若最終得分大于第一預(yù)定閾值,則判定候選行人目標(biāo)為行人。當(dāng)sfinal>threshfinal(設(shè)threshfinal為第一預(yù)定閾值)時判斷為行人。
本發(fā)明還提供了一種基于分類器的行人檢測方法的具體應(yīng)用實施例的流程圖,如圖2所示,方法包括步驟:
s10、開始;
s20、視頻圖像輸入;
s30、行人整體模型、部位類簇模型導(dǎo)入;其中行人整體模型需預(yù)先訓(xùn)練,具體的,獲取行人整體正訓(xùn)練樣本、行人整體負(fù)訓(xùn)練樣本后,進(jìn)行顏色、梯度特征提取,通過分類器訓(xùn)練后,生成整體行人模型。
s40、整體模型繼續(xù)判斷是否為候選行人目標(biāo),若是,則執(zhí)行步驟s50,若否,則執(zhí)行步驟s80;
s50、部位簇模型繼續(xù)判斷是否為行人,若是,則執(zhí)行步驟s60,若否,則執(zhí)行步驟s80;其中獲取取行人整體正訓(xùn)練樣本、行人部位劃分、構(gòu)建行人部位類簇后生成的第一訓(xùn)練樣本,將行人整體負(fù)訓(xùn)練樣本后進(jìn)行行人部位劃分后生成第二訓(xùn)練樣本,將第一訓(xùn)練樣本、第二訓(xùn)練樣本分別進(jìn)行顏色、特征提取后,用分類器進(jìn)行訓(xùn)練,生成行人部位類簇模型;
s60、輸出行人的坐標(biāo)位置信息;
s70、視頻圖像輸入是否結(jié)束,若是,則執(zhí)行步驟s80,若否,則執(zhí)行步驟s20;
s80、結(jié)束。
由以上方法實施例可知,本發(fā)明還提供了一種基于分類器的行人檢測方法,本發(fā)明對行人的顏色和梯度特征進(jìn)行提取,在不同的環(huán)境下具有較高的魯棒性,且計算復(fù)雜度低;并提出了建立部位類簇模型的方法更好地對行人在不同姿態(tài)及環(huán)境下的特征進(jìn)行描述,同時采用了使用整體模型和部位類簇模型的多重判斷機(jī)制具有更高的效率和準(zhǔn)確性。
本發(fā)明還提供了一種基于分類器的行人檢測系統(tǒng)的較佳實施例的功能原理框圖,如圖3所示,其中,系統(tǒng)包括:
特征提取模塊100,用于獲取拍攝的圖像,提取圖像的顏色特征及梯度特征,根據(jù)分類器構(gòu)造的整體行人模型對圖像的顏色特征及梯度特征進(jìn)行識別,根據(jù)識別結(jié)果判斷圖像是否為候選行人目標(biāo);具體如方法實施例所述。
部位劃分模塊200,用于當(dāng)檢測到圖像中的目標(biāo)為候選行人目標(biāo)時,對候選行人目標(biāo)進(jìn)行部位劃分,分別是頭肩部位、軀干部位、左軀干拓展部位、右軀干拓展部位、左腿部位及右腿部位;具體如方法實施例所述。
部位類簇構(gòu)造模塊300,用于提取各個部位的顏色特征及梯度特征,采用聚類算法對同一部位的不同姿態(tài)進(jìn)行類別劃分,得到部位類,根據(jù)不同部位的部位類構(gòu)成部位類簇;具體如方法實施例所述。
識別模塊400,用于使用分類器對各個部位類簇分別建立模型生成對應(yīng)的部位類簇分類器,根據(jù)部位類簇分類器對候選行人目標(biāo)進(jìn)行識別,根據(jù)各個部位類的得分進(jìn)行加權(quán)融合后生成最終得分;具體如方法實施例所述。
行人判定模塊500,用于判斷最終得分是否大于第一預(yù)定閾值,若最終得分大于第一預(yù)定閾值,則判定候選行人目標(biāo)為行人;具體如方法實施例所述。
所述的基于分類器的行人檢測系統(tǒng),其中,所述特征提取模塊具體包括:
顏色特征提取單元,用于獲取拍攝的圖像,將圖像的rgb顏色空間轉(zhuǎn)換為hsv顏色空間,分別記錄圖像中各個像素點的h、s與v通道的顏色值作為顏色特征;具體如方法實施例所述。
梯度特征提取單元,用于對圖像的h、s、v各個通道的各個像素點的梯度值進(jìn)行濾波得到梯度幅值,對梯度幅值進(jìn)行非線性變換,構(gòu)造梯度方向特征向量,提取梯度幅值特征與梯度方向特征向量為梯度特征;具體如方法實施例所述。
候選行人目標(biāo)判定單元,用于根據(jù)分類器對圖像的顏色特征及梯度特征進(jìn)行識別,獲取識別后的第一分類器得分,判斷第一分類器得分是否大于第二預(yù)定閾值,若第一分類器得分大于第二預(yù)定閾值,則當(dāng)前圖像中為候選行人目標(biāo);具體如方法實施例所述。
所述的基于分類器的行人檢測系統(tǒng),其中,所述部位劃分模塊具體包括:
部位坐標(biāo)獲取單元,用于當(dāng)檢測到圖像中的目標(biāo)為候選行人目標(biāo)時,獲取圖像中的候選行人目標(biāo)的外接矩形框的高度和寬度,以及候選行人目標(biāo)的中心位置坐標(biāo)及預(yù)設(shè)的各部位的偏移量;具體如方法實施例所述。
部位劃分單元,用于根據(jù)候選行人目標(biāo)的外接矩形框的高度和寬度,以及候選行人目標(biāo)的中心位置坐標(biāo)及預(yù)設(shè)的各部位的偏移量將候選行人目標(biāo)劃分為頭肩部、軀干部位、左軀干拓展部位、右軀干拓展部位、左腿部位及右腿部位;具體如方法實施例所述。
所述的基于分類器的行人檢測系統(tǒng),其中,所述識別模塊具體包括:
分類單元,用于使用分類器對各個部位類簇進(jìn)行分類,分別得到頭肩部位分類器、軀干部位分類器、左軀干部位分類器、右軀干部位分類器、左腿部位分類器、右腿部位分類器;具體如方法實施例所述。
識別單元,用于根據(jù)頭肩部位分類器、軀干部位分類器、左軀干部位分類器、右軀干部位分類器、左腿部位分類器、右腿部位分類器分別對候選行人目標(biāo)進(jìn)行識別后生成對應(yīng)的得分為頭肩部位得分、軀干部位得分、左軀干部位得分、右軀干部位得分、左腿部位得分、右腿部位得分;具體如方法實施例所述。
計算單元,用于根據(jù)頭肩部位得分、軀干部位得分、左軀干部位得分、右軀干部位得分、左腿部位得分、右腿部位得分進(jìn)行加權(quán)融合計算,得到候選行人的最終得分;具體如方法實施例所述。
所述的基于分類器的行人檢測系統(tǒng),其中,所述特征提取模塊具體包括:
圖像過濾單元,用于若第一分類器得分小于等于第二預(yù)定閾值,則判定當(dāng)前圖像中不包含行人,過濾圖像;具體如方法實施例所述。
綜上所述,本發(fā)明提出了一種基于分類器的行人檢測方法及系統(tǒng),方法包括:提取圖像的顏色特征及梯度特征,根據(jù)整體行人模型對圖像進(jìn)行識別,當(dāng)識別圖像為候選行人目標(biāo)時,對其進(jìn)行部位劃分;提取各個部位的顏色特征及梯度特征,采用聚類算法對同一部位的不同姿態(tài)進(jìn)行類別劃分,得到部位類,根據(jù)不同部位的部位類構(gòu)成部位類簇;對各個部位類簇分別建立模型生成對應(yīng)的部位類簇分類器,根據(jù)部位類簇分類器對候選行人目標(biāo)進(jìn)行識別后生成最終得分;若檢測到最終得分大于第一預(yù)定閾值,則判定候選行人目標(biāo)為行人。本發(fā)明通過建立部位類簇模型的方法對行人在不同姿態(tài)及環(huán)境下的特征進(jìn)行描述,使用整體模型和部位類簇模型的多重判斷機(jī)制,提高了行人檢測的效率和準(zhǔn)確度。
應(yīng)當(dāng)理解的是,本發(fā)明的應(yīng)用不限于上述的舉例,對本領(lǐng)域普通技術(shù)人員來說,可以根據(jù)上述說明加以改進(jìn)或變換,所有這些改進(jìn)和變換都應(yīng)屬于本發(fā)明所附權(quán)利要求的保護(hù)范圍。