本發(fā)明涉及計(jì)算機(jī)視覺(jué)研究領(lǐng)域,更具體地,涉及一種基于方向梯度特征學(xué)習(xí)的目標(biāo)檢測(cè)方法。
背景技術(shù):
目標(biāo)檢測(cè)方法因應(yīng)用廣泛,一直是計(jì)算機(jī)視覺(jué)領(lǐng)域的研究熱點(diǎn)。過(guò)去的十幾年里,目標(biāo)檢測(cè)領(lǐng)域獲得了巨大的發(fā)展,特別是在2001年viola和jones提出boostedcascade這樣一個(gè)里程碑式的工作后,級(jí)聯(lián)框架在目標(biāo)檢測(cè)中受到追捧。為了獲取泛化性能強(qiáng)的級(jí)聯(lián)目標(biāo)檢測(cè)器,需要在訓(xùn)練過(guò)程中投入更多的訓(xùn)練數(shù)據(jù),對(duì)目標(biāo)檢測(cè)器而言,訓(xùn)練一般要求平均假陽(yáng)率要低于10-6,意味著訓(xùn)練過(guò)程需要處理非常大量的非目標(biāo)樣本,時(shí)間花銷巨大,容易使訓(xùn)練產(chǎn)生嚴(yán)重的瓶頸?,F(xiàn)今絕大多數(shù)級(jí)聯(lián)檢測(cè)器框架的訓(xùn)練都是基于假陽(yáng)率和真陽(yáng)率兩個(gè)標(biāo)準(zhǔn)的,但兩個(gè)標(biāo)準(zhǔn)之間是相互矛盾的,限制了級(jí)聯(lián)檢測(cè)器每一級(jí)的收斂速度,如果要生成高質(zhì)量的檢測(cè)器一般需要訓(xùn)練幾天甚至一周。因此有必要對(duì)目標(biāo)檢測(cè)器的訓(xùn)練過(guò)程進(jìn)行優(yōu)化,加快訓(xùn)練速度。
目標(biāo)檢測(cè)器設(shè)計(jì)中的另外一個(gè)關(guān)鍵因素是特征選擇。傳統(tǒng)的級(jí)聯(lián)檢測(cè)器訓(xùn)練通常采用人工設(shè)計(jì)的特征,如hog描述子固定將每個(gè)圖像塊均分成4個(gè)矩形單元,這種固定模式的特征提取方式不能有針對(duì)性地凸顯感興趣目標(biāo),因此訓(xùn)練出來(lái)的檢測(cè)器辨別目標(biāo)的能力有限。當(dāng)前較流行的深度學(xué)習(xí)方法,雖然能夠發(fā)現(xiàn)并刻畫(huà)目標(biāo)內(nèi)部復(fù)雜的結(jié)構(gòu)特征,但是需要龐大的訓(xùn)練集,部署環(huán)境通常必須有g(shù)pu的支持,訓(xùn)練也相當(dāng)耗時(shí),難以快速地對(duì)不同目標(biāo)的特征進(jìn)行學(xué)習(xí)。
技術(shù)實(shí)現(xiàn)要素:
本發(fā)明為解決以上現(xiàn)有技術(shù)的難題,提供了一種基于方向梯度特征學(xué)習(xí)的目標(biāo)檢測(cè)方法,該方法通過(guò)改進(jìn)特征學(xué)習(xí)方式和訓(xùn)練過(guò)程,提高了檢測(cè)器的精度,同時(shí)加快了級(jí)聯(lián)目標(biāo)檢測(cè)器的訓(xùn)練速度。
為實(shí)現(xiàn)以上發(fā)明目的,采用的技術(shù)方案是:
一種基于方向梯度特征學(xué)習(xí)的目標(biāo)檢測(cè)方法,包括以下步驟:
(1).方向梯度特征學(xué)習(xí)
s1.采集n+個(gè)只含目標(biāo)的圖像區(qū)域和n-個(gè)不含目標(biāo)的圖像區(qū)域構(gòu)成圖像區(qū)域訓(xùn)練集x,在圖像區(qū)域上每隔s個(gè)像素定義一個(gè)大小為w×h像素的圖像塊;
s2.對(duì)于訓(xùn)練集x中的每個(gè)圖像區(qū)域,計(jì)算其每個(gè)像素點(diǎn)的梯度大小及方向;
s3.將梯度方向分成l個(gè)連續(xù)的方向區(qū)間,然后為每個(gè)圖像區(qū)域生成l幅方向梯度圖,其具體過(guò)程如下:
s31.對(duì)于方向區(qū)間g的方向梯度圖,若圖像區(qū)域某個(gè)位置像素點(diǎn)的梯度方向在方向區(qū)間g內(nèi),則該方向梯度圖在相同位置的取值設(shè)為步驟s2計(jì)算得到的像素點(diǎn)的梯度大小,否則將該方向梯度圖在此處的取值置為0;
s32.通過(guò)對(duì)每個(gè)像素點(diǎn)進(jìn)行步驟s31的操作得到訓(xùn)練集x中每個(gè)圖像區(qū)域在方向區(qū)間g的方向梯度圖;
s33.通過(guò)對(duì)每個(gè)方向區(qū)間進(jìn)行步驟s31、s32的操作得到訓(xùn)練集x中每個(gè)圖像區(qū)域的l幅方向梯度圖;
s4.對(duì)圖像區(qū)域的每幅方向梯度圖,基于s1中所述分塊方式得到對(duì)應(yīng)的方向梯度圖像塊集合;
s5.對(duì)于每個(gè)方向區(qū)間的方向梯度圖像塊集合,執(zhí)行以下操作:
s51.從方向區(qū)間g的方向梯度圖像塊集合中選出若干方向梯度圖像塊形成方向梯度特征學(xué)習(xí)的訓(xùn)練集;
s52.設(shè)方向梯度圖像塊訓(xùn)練集為
s53.初始化訓(xùn)練集p中所有樣本的權(quán)重:w1,i=1/n,i=1,...,n;
s54.初始化迭代參數(shù)t=1;
s55.為方向梯度圖像塊中的各矩形區(qū)域訓(xùn)練弱分類器;
s56.計(jì)算每個(gè)弱分類器在訓(xùn)練集p中所有樣本上的加權(quán)總誤差,挑選出使加權(quán)總誤差最小的弱分類器
其中hm表示基于訓(xùn)練集p中方向梯度圖像塊的第m個(gè)矩形區(qū)域訓(xùn)練得到的弱分類器,h表示所有矩形區(qū)域弱分類器的集合;δ(·)為指示函數(shù),當(dāng)其參數(shù)為真時(shí)函數(shù)值為1,否則函數(shù)值為0;
s57.計(jì)算
其中
s58.更新訓(xùn)練集p中所有樣本的權(quán)重:
s59.令t=t+1然后重復(fù)執(zhí)行步驟s55~s58,直至t>t;
s510.執(zhí)行完畢步驟s59后將訓(xùn)練過(guò)程中選中的前r個(gè)弱分類器對(duì)應(yīng)的矩形區(qū)域在方向梯度圖像塊中的位置進(jìn)行輸出;
s511.方向區(qū)間g的方向梯度圖像塊集合中的各個(gè)方向梯度圖像塊按照步驟s510輸出的位置信息提取相應(yīng)方向梯度圖像塊中的r個(gè)矩形區(qū)域;
s512.對(duì)各個(gè)方向區(qū)間的方向梯度圖像塊集合進(jìn)行步驟s51~s511的操作,此時(shí)圖像區(qū)域中各個(gè)圖像塊對(duì)應(yīng)的l個(gè)方向區(qū)間的方向梯度圖像塊都分別提取有r個(gè)矩形區(qū)域,計(jì)算每個(gè)矩形區(qū)域內(nèi)的梯度大小之和,最后圖像塊就可以用一個(gè)lr維的方向梯度特征向量表示;
(2).訓(xùn)練級(jí)聯(lián)目標(biāo)檢測(cè)器
s6.設(shè)定全局的假陽(yáng)率ft及最小真陽(yáng)率dmin,以及初始化級(jí)聯(lián)次數(shù)j=1,初始化全局假陽(yáng)率fj=1.0,全局真陽(yáng)率dj=1.0;
s7.基于(1)中提取的方向梯度特征向量,為圖像區(qū)域中的每個(gè)圖像塊訓(xùn)練弱分類器,以auc為收斂準(zhǔn)則進(jìn)行若干次boosting迭代,每次迭代挑選出一個(gè)最優(yōu)的弱分類器;
s8.采用gentleadaboost整合步驟s7選中的所有弱分類器得到強(qiáng)分類器hj(x);
s9.利用hj(x)預(yù)測(cè)訓(xùn)練集x中所有圖像區(qū)域的得分,并生成roc曲線;在roc曲線上查找使dj=dmin的點(diǎn)(dj,fj),其中dj表示真陽(yáng)率,fj表示假陽(yáng)率;
s10.令j=j(luò)+1,然后更新fj、dj,fj+1=fj×fj,,dj+1=dj×dj;
s11.當(dāng)fj>ft時(shí),重復(fù)執(zhí)行步驟s7-s11;fj小于或等于ft時(shí),輸出級(jí)聯(lián)目標(biāo)檢測(cè)器;
(3).目標(biāo)檢測(cè)
s12.使用多個(gè)窗口掃描可能包含目標(biāo)的待檢測(cè)圖像,提取每個(gè)掃描窗口的方向梯度特征;
s13.采用訓(xùn)練好的級(jí)聯(lián)目標(biāo)檢測(cè)器對(duì)掃描窗口進(jìn)行二分類檢測(cè),輸出檢測(cè)到的結(jié)果。
優(yōu)選地,所述步驟s2計(jì)算每個(gè)像素點(diǎn)梯度大小及方向的具體過(guò)程如下:
gp(p,q)=h(p+1,q)-h(p-1,q)
gq(p,q)=h(p,q+1)-h(p,q-1)
其中,gp(p,q)、gq(p,q)、h(p,q)分別表示像素點(diǎn)(p,q)水平方向的梯度大小、垂直方向的梯度大小和像素值;
利用以下公式計(jì)算像素點(diǎn)(p,q)的梯度大小g(p,q)和方向α(p,q):
優(yōu)選地,所述級(jí)聯(lián)目標(biāo)檢測(cè)器為boosting級(jí)聯(lián)目標(biāo)檢測(cè)器。
優(yōu)選地,在進(jìn)行目標(biāo)檢測(cè)時(shí),若一幅圖像中同一個(gè)目標(biāo)被不同大小的窗口掃描并在二分類時(shí)都被判為候選目標(biāo)的情況下,首先根據(jù)候選目標(biāo)之間的相似度將所有候選目標(biāo)劃分成多個(gè)不相交的子集;對(duì)每個(gè)子集,分別統(tǒng)計(jì)子集內(nèi)候選目標(biāo)四個(gè)頂點(diǎn)的坐標(biāo)的均值,輸出為該子集所對(duì)應(yīng)的最終檢測(cè)結(jié)果框的四個(gè)頂點(diǎn)坐標(biāo)。
優(yōu)選地,所述步驟s7采用輸出為概率值的邏輯回歸函數(shù)作為弱分類器,其模型如下:
其中x表示圖像塊的lr維方向梯度特征向量,y為1或-1,當(dāng)圖像塊所屬圖像區(qū)域包含目標(biāo)時(shí),y=1,當(dāng)圖像塊所屬圖像區(qū)域不含目標(biāo)時(shí),y=-1,w是模型的權(quán)重向量,b是一個(gè)偏置項(xiàng)。
優(yōu)選地,所述w、b通過(guò)最小化目標(biāo)函數(shù)獲得,目標(biāo)函數(shù)如下:
xi表示訓(xùn)練集x中第i個(gè)圖像區(qū)域在該圖像塊處的方向梯度特征向量,yi是xi對(duì)應(yīng)的類標(biāo),yi等于1或-1;λ是用于調(diào)節(jié)正則項(xiàng)重要性的參數(shù),
與現(xiàn)有技術(shù)相比,本發(fā)明的有益效果是:
①現(xiàn)有的boosting級(jí)聯(lián)檢測(cè)器訓(xùn)練通常采用手工設(shè)計(jì)的hog特征,不能充分適應(yīng)實(shí)際的數(shù)據(jù)分布。本發(fā)明提供的方法以圖像塊中不同大小矩形區(qū)域內(nèi)梯度大小之和為特征,基于boosting進(jìn)行篩選,產(chǎn)生圖像塊的方向梯度特征,可替代手工設(shè)計(jì)的hog特征。對(duì)不同目標(biāo)的檢測(cè)結(jié)果也表明,本發(fā)明所提出的方向梯度特征相對(duì)于傳統(tǒng)的hog特征能獲得更好的檢測(cè)效果。
②級(jí)聯(lián)檢測(cè)器中的每一級(jí)boosting分類器訓(xùn)練采用auc作為收斂判據(jù)。這種優(yōu)化方法避免了因fpr-hr指標(biāo)相互沖突難以收斂的問(wèn)題,極大地提升了訓(xùn)練速度,同時(shí)也保證了boosting分類器的質(zhì)量。
③基于roc曲線訓(xùn)練級(jí)聯(lián)框架,不斷更新每一級(jí)的fpr,使級(jí)聯(lián)訓(xùn)練只需要經(jīng)過(guò)6-9級(jí)就能完成收斂,加快了訓(xùn)練速度;而經(jīng)典的級(jí)聯(lián)檢測(cè)器訓(xùn)練采用固定fpr,一般訓(xùn)練20級(jí)左右才可以收斂,容易讓訓(xùn)練陷入瓶頸。
附圖說(shuō)明
圖1為方向梯度特征學(xué)習(xí)的流程示意圖。
圖2為級(jí)聯(lián)目標(biāo)檢測(cè)器的流程示意圖。
圖3為目標(biāo)檢測(cè)的流程示意圖。
具體實(shí)施方式
附圖僅用于示例性說(shuō)明,不能理解為對(duì)本專利的限制;
以下結(jié)合附圖和實(shí)施例對(duì)本發(fā)明做進(jìn)一步的闡述。
實(shí)施例1
本發(fā)明提供的方法相較于傳統(tǒng)的boosting級(jí)聯(lián)方法,主要做出了兩方面的優(yōu)化,一是提出一種方向梯度特征學(xué)習(xí)方法,提高了特征對(duì)目標(biāo)的自適應(yīng)刻畫(huà)能力;二是限制訓(xùn)練時(shí)使用的樣本數(shù)量和改進(jìn)訓(xùn)練過(guò)程的收斂準(zhǔn)則,極大地縮短了訓(xùn)練時(shí)間。
如圖1、2、3所示,本發(fā)明提供的基于方向梯度特征學(xué)習(xí)的目標(biāo)檢測(cè)方法包括以下步驟:
(1).方向梯度特征學(xué)習(xí)
s1.采集n+個(gè)只含目標(biāo)的圖像區(qū)域和n-個(gè)不含目標(biāo)的圖像區(qū)域構(gòu)成圖像區(qū)域訓(xùn)練集x,在圖像區(qū)域上每隔s個(gè)像素定義一個(gè)大小為w×h像素的圖像塊;
s2.對(duì)于訓(xùn)練集x中的每個(gè)圖像區(qū)域,計(jì)算其每個(gè)像素點(diǎn)的梯度大小及方向;
s3.將梯度方向分成l個(gè)連續(xù)的方向區(qū)間,然后為每個(gè)圖像區(qū)域生成l幅方向梯度圖,其具體過(guò)程如下:
s31.對(duì)于方向區(qū)間g的方向梯度圖,若圖像區(qū)域某個(gè)位置像素點(diǎn)的梯度方向在方向區(qū)間g內(nèi),則該方向梯度圖在相同位置的取值設(shè)為步驟s2計(jì)算得到的像素點(diǎn)的梯度大小,否則將該方向梯度圖在此處的取值置為0;
s32.通過(guò)對(duì)每個(gè)像素點(diǎn)進(jìn)行步驟s31的操作得到訓(xùn)練集x中每個(gè)圖像區(qū)域在方向區(qū)間g的方向梯度圖;
s33.通過(guò)對(duì)每個(gè)方向區(qū)間進(jìn)行步驟s31、s32的操作得到訓(xùn)練集x中每個(gè)圖像區(qū)域的l幅方向梯度圖;
s4.對(duì)圖像區(qū)域的每幅方向梯度圖,基于s1中所述分塊方式得到對(duì)應(yīng)的方向梯度圖像塊集合;
s5.對(duì)于每個(gè)方向區(qū)間的方向梯度圖像塊集合,執(zhí)行以下操作:
s51.從方向區(qū)間g的方向梯度圖像塊集合中選出若干方向梯度圖像塊形成方向梯度特征學(xué)習(xí)的訓(xùn)練集;
s52.設(shè)方向梯度圖像塊訓(xùn)練集為
s53.初始化訓(xùn)練集p中所有樣本的權(quán)重:w1,i=1/n,i=1,...,n;
s54.初始化迭代參數(shù)t=1;
s55.為方向梯度圖像塊中的各矩形區(qū)域訓(xùn)練弱分類器;
s56.計(jì)算每個(gè)弱分類器在訓(xùn)練集p中所有樣本上的加權(quán)總誤差,挑選出使加權(quán)總誤差最小的弱分類器
其中hm表示基于訓(xùn)練集p中方向梯度圖像塊的第m個(gè)矩形區(qū)域訓(xùn)練得到的弱分類器,h表示所有矩形區(qū)域弱分類器的集合;δ(·)為指示函數(shù),當(dāng)其參數(shù)為真時(shí)函數(shù)值為1,否則函數(shù)值為0;
s57.計(jì)算
其中
s58.更新訓(xùn)練集p中所有樣本的權(quán)重:
s59.令t=t+1然后重復(fù)執(zhí)行步驟s55~s58,直至t>t;
s510.執(zhí)行完畢步驟s59后將訓(xùn)練過(guò)程中選中的前r個(gè)弱分類器對(duì)應(yīng)的矩形區(qū)域在方向梯度圖像塊中的位置進(jìn)行輸出;
s511.方向區(qū)間g的方向梯度圖像塊集合中的各個(gè)方向梯度圖像塊按照步驟s510輸出的位置信息提取相應(yīng)方向梯度圖像塊中的r個(gè)矩形區(qū)域;
s512.對(duì)各個(gè)方向區(qū)間的方向梯度圖像塊集合進(jìn)行步驟s51~s511的操作,此時(shí)圖像區(qū)域中各個(gè)圖像塊對(duì)應(yīng)的l個(gè)方向區(qū)間的方向梯度圖像塊都分別提取有r個(gè)矩形區(qū)域,計(jì)算每個(gè)矩形區(qū)域內(nèi)的梯度大小之和,最后圖像塊就可以用一個(gè)lr維的方向梯度特征向量表示;
(2).訓(xùn)練級(jí)聯(lián)目標(biāo)檢測(cè)器
s6.設(shè)定全局的假陽(yáng)率ft及最小真陽(yáng)率dmin,以及初始化級(jí)聯(lián)次數(shù)j=1,初始化全局假陽(yáng)率fj=1.0,全局真陽(yáng)率dj=1.0;
s7.基于(1)中提取的方向梯度特征向量,為圖像區(qū)域中的每個(gè)圖像塊訓(xùn)練弱分類器,以auc為收斂準(zhǔn)則進(jìn)行若干次boosting迭代,每次迭代挑選出一個(gè)最優(yōu)的弱分類器;
s8.采用gentleadaboost整合步驟s7選中的所有弱分類器得到強(qiáng)分類器hj(x);
s9.利用hj(x)預(yù)測(cè)訓(xùn)練集x中所有圖像區(qū)域的得分,并生成roc曲線;在roc曲線上查找使dj=dmin的點(diǎn)(dj,fj),其中dj表示真陽(yáng)率,fj表示假陽(yáng)率;
s10.令j=j(luò)+1,然后更新fj、dj,fj+1=fj×fj,,dj+1=dj×dj;
s11.當(dāng)fj>ft時(shí),重復(fù)執(zhí)行步驟s7-s11;fj小于或等于ft時(shí),輸出級(jí)聯(lián)目標(biāo)檢測(cè)器;
(3).目標(biāo)檢測(cè)
s12.使用多個(gè)窗口掃描可能包含目標(biāo)的待檢測(cè)圖像,提取每個(gè)掃描窗口的方向梯度特征;
s13.采用訓(xùn)練好的級(jí)聯(lián)目標(biāo)檢測(cè)器對(duì)掃描窗口進(jìn)行二分類檢測(cè),輸出檢測(cè)到的結(jié)果。
在具體的實(shí)施過(guò)程中,所述步驟s2計(jì)算每個(gè)像素點(diǎn)梯度大小及方向的具體過(guò)程如下:
gp(p,q)=h(p+1,q)-h(p-1,q)
gq(p,q)=h(p,q+1)-h(p,q-1)
其中,gp(p,q)、gq(p,q)、h(p,q)分別表示像素點(diǎn)(p,q)水平方向的梯度大小、垂直方向的梯度大小和像素值;
利用以下公式計(jì)算像素點(diǎn)(p,q)的梯度大小g(p,q)和方向α(p,q):
在具體的實(shí)施過(guò)程中,所述級(jí)聯(lián)目標(biāo)檢測(cè)器為boosting級(jí)聯(lián)目標(biāo)檢測(cè)器。
在具體的實(shí)施過(guò)程中,在進(jìn)行目標(biāo)檢測(cè)時(shí),若一幅圖像中同一個(gè)目標(biāo)被不同大小的窗口掃描并在二分類時(shí)都被判為候選目標(biāo)的情況下,首先根據(jù)候選目標(biāo)之間的相似度將所有候選目標(biāo)劃分成多個(gè)不相交的子集;對(duì)每個(gè)子集,分別統(tǒng)計(jì)子集內(nèi)候選目標(biāo)四個(gè)頂點(diǎn)的坐標(biāo)的均值,輸出為該子集所對(duì)應(yīng)的最終檢測(cè)結(jié)果框的四個(gè)頂點(diǎn)坐標(biāo)。
在具體的實(shí)施過(guò)程中,所述步驟s7采用輸出為概率值的邏輯回歸函數(shù)作為弱分類器,其模型如下:
其中x表示圖像塊的lr維方向梯度特征向量,y為1或-1,當(dāng)圖像塊所屬圖像區(qū)域包含目標(biāo)時(shí),y=1,當(dāng)圖像塊所屬圖像區(qū)域不含目標(biāo)時(shí),y=-1,w是模型的權(quán)重向量,b是一個(gè)偏置項(xiàng)。
在具體的實(shí)施過(guò)程中,所述w、b通過(guò)最小化目標(biāo)函數(shù)獲得,目標(biāo)函數(shù)如下:
xi表示訓(xùn)練集x中第i個(gè)圖像區(qū)域在該圖像塊處的方向梯度特征向量,yi是xi對(duì)應(yīng)的類標(biāo),yi等于1或-1;λ是用于調(diào)節(jié)正則項(xiàng)重要性的參數(shù),
實(shí)施例2
用實(shí)施例1的方法分別訓(xùn)練了針對(duì)人臉(正面和半側(cè)面)、車輛(側(cè)視圖)和車標(biāo)的級(jí)聯(lián)檢測(cè)器,并使用訓(xùn)練好的檢測(cè)器進(jìn)行了目標(biāo)檢測(cè)實(shí)驗(yàn)。
人臉級(jí)聯(lián)檢測(cè)器在訓(xùn)練過(guò)程中收集了12102幅正面和半側(cè)面的人臉圖像,這些圖像主要來(lái)自genki、facetracer和feret三個(gè)公開(kāi)數(shù)據(jù)集;收集了8000幅沒(méi)有人臉的圖像作為非目標(biāo)圖像,這部分圖像主要來(lái)自caltech101和corel5k公開(kāi)數(shù)據(jù)集。所有目標(biāo)圖像統(tǒng)一歸一化為40×40像素大小,級(jí)聯(lián)目標(biāo)檢測(cè)器中每個(gè)弱分類器訓(xùn)練時(shí),采用輪盤(pán)賭算法分別選擇1060個(gè)正樣本和負(fù)樣本構(gòu)成有效的訓(xùn)練子集,式(11)的正則項(xiàng)選擇l1范數(shù)。級(jí)聯(lián)分類器的訓(xùn)練在第6級(jí)收斂,用時(shí)僅3個(gè)小時(shí)。在相同的訓(xùn)練集上,使用opencv提供的hogboosting模型訓(xùn)練人臉檢測(cè)器,第20級(jí)才完成收斂,訓(xùn)練時(shí)間長(zhǎng)達(dá)2天,可見(jiàn)本發(fā)明提供的方法大大降低了訓(xùn)練時(shí)間;另外嘗試了用常規(guī)的hog特征代替本發(fā)明所提出的基于學(xué)習(xí)的方向梯度特征進(jìn)行訓(xùn)練,也是在第6級(jí)收斂,但耗費(fèi)了12個(gè)小時(shí)。在測(cè)試階段,從fddb數(shù)據(jù)庫(kù)中挑選了1385幅圖像(總共2178個(gè)正面和半側(cè)面的人臉)組成測(cè)試集,分別對(duì)三個(gè)人臉檢測(cè)器進(jìn)行評(píng)估,檢測(cè)結(jié)果如表1所示。
表1基于三種方法訓(xùn)練的人臉級(jí)聯(lián)檢測(cè)器檢測(cè)結(jié)果對(duì)比
從上述實(shí)驗(yàn)結(jié)果可知,在基于學(xué)習(xí)的方向梯度特征上訓(xùn)練得到的級(jí)聯(lián)檢測(cè)器檢測(cè)成功率比在常規(guī)hog特征上訓(xùn)練得到的檢測(cè)器高1.9%,誤檢的數(shù)量也更少;而相比經(jīng)典的hogboosting模型,檢測(cè)成功率高出了3.3%。
在車輛級(jí)聯(lián)檢測(cè)器的訓(xùn)練中,從pascalvoc2005數(shù)據(jù)庫(kù)(包括uiuc和ethz數(shù)據(jù)庫(kù))和pascalvoc2007中收集了200幅車輛的側(cè)視圖作為目標(biāo)圖像;非目標(biāo)圖像來(lái)自caltech101和corel5k公開(kāi)數(shù)據(jù)集,總共5000幅。所有目標(biāo)圖像統(tǒng)一歸一化為80×32像素大小,使用的參數(shù)與人臉檢測(cè)器訓(xùn)練過(guò)程一致。車輛級(jí)聯(lián)檢測(cè)器的訓(xùn)練在第6級(jí)收斂,用時(shí)39分鐘。為了與文獻(xiàn)[1]提出的基于surf特征的boosting級(jí)聯(lián)檢測(cè)器的實(shí)驗(yàn)結(jié)果進(jìn)行對(duì)比,從pascalvoc2005的tugraz數(shù)據(jù)庫(kù)里抽取了200幅近似側(cè)視的車輛圖像作為測(cè)試集,對(duì)本發(fā)明方法訓(xùn)練的檢測(cè)器進(jìn)行評(píng)估,檢測(cè)結(jié)果如表2所示。
表2.基于兩種方法訓(xùn)練的車輛級(jí)聯(lián)檢測(cè)器檢測(cè)結(jié)果對(duì)比
從實(shí)驗(yàn)結(jié)果可以看到,在相同的數(shù)據(jù)集上,本發(fā)明的方法訓(xùn)練的車輛級(jí)聯(lián)檢測(cè)器具有更高的檢測(cè)成功率,同時(shí)也保持著較低的誤檢率。
車標(biāo)級(jí)聯(lián)檢測(cè)器訓(xùn)練,主要針對(duì)27種類別的車輛標(biāo)志,樣本絕大部分取自高速公路拍攝的車輛,少部分取自白天停車場(chǎng),包括1155幅車標(biāo)圖像,2587幅無(wú)車標(biāo)的非目標(biāo)圖像。級(jí)聯(lián)檢測(cè)器的訓(xùn)練在第6級(jí)收斂,用時(shí)85分鐘;opencv所提供的經(jīng)典hogboosting模型訓(xùn)練在第24級(jí)收斂,耗時(shí)超過(guò)2天。測(cè)試集由不同環(huán)境和光照條件下收集的4011幅含車標(biāo)的圖像組成,檢測(cè)對(duì)比結(jié)果如表3所示。
表3.基于兩種方法訓(xùn)練的車標(biāo)級(jí)聯(lián)檢測(cè)器檢測(cè)結(jié)果對(duì)比
對(duì)比兩種方法對(duì)車標(biāo)的訓(xùn)練和檢測(cè)結(jié)果,可見(jiàn)本發(fā)明提出的方法,不僅在訓(xùn)練速度上取得了絕對(duì)的優(yōu)勢(shì),檢測(cè)成功率相比opencv中經(jīng)典的hogboosting模型也有較大的提升。
參考文獻(xiàn):
[1]jianguoliandyiminzhang.learningsurfcascadeforfastandaccurateobjectdetection.incvpr,2013.
顯然,本發(fā)明的上述實(shí)施例僅僅是為清楚地說(shuō)明本發(fā)明所作的舉例,而并非是對(duì)本發(fā)明的實(shí)施方式的限定。對(duì)于所屬領(lǐng)域的普通技術(shù)人員來(lái)說(shuō),在上述說(shuō)明的基礎(chǔ)上還可以做出其它不同形式的變化或變動(dòng)。這里無(wú)需也無(wú)法對(duì)所有的實(shí)施方式予以窮舉。凡在本發(fā)明的精神和原則之內(nèi)所作的任何修改、等同替換和改進(jìn)等,均應(yīng)包含在本發(fā)明權(quán)利要求的保護(hù)范圍之內(nèi)。