本發(fā)明涉及計(jì)算機(jī)技術(shù)領(lǐng)域,尤其涉及的是一種基于多類型信息融合的場景自適應(yīng)行人檢測方法和系統(tǒng)。
背景技術(shù):
現(xiàn)有技術(shù)的主要流程是:
方法一:通過在數(shù)據(jù)集中標(biāo)注圖像的正負(fù)樣本,即一個(gè)樣本圖像只能是行人或非行人中的一種標(biāo)簽,然后訓(xùn)練可以判斷圖像是行人還是非行人的分類器。在分類器訓(xùn)練好以后,在視頻的每一幀圖像中做滑動(dòng)窗口,把不同位置不同尺度的子圖像輸入分類器,如果分類器判斷是行人則算做檢測到行人,輸出此子圖的位置信息。
方法二:在訓(xùn)練集的整幅圖像中標(biāo)注所有行人的位置,使用深度神經(jīng)網(wǎng)絡(luò)提取圖像的特征并產(chǎn)生候選的行人區(qū)域,最后由深度神經(jīng)網(wǎng)絡(luò)中的判別層對(duì)候選區(qū)域進(jìn)行判斷,刪除不是行人的候選區(qū)域,并使用回歸算法對(duì)是行人的候選區(qū)域進(jìn)行微調(diào),產(chǎn)生最終輸出此區(qū)域的位置信息。
方法一:在新的場景中會(huì)產(chǎn)生很多訓(xùn)練集中沒出現(xiàn)過的滑窗子圖,因此在線下訓(xùn)練好的行人檢測模型應(yīng)用在新的場景中效果往往不好。且此方法如果使用弱分類器則誤檢較多,使用強(qiáng)分類器則運(yùn)算過慢。
方法二:深度神經(jīng)網(wǎng)絡(luò)對(duì)整幅圖像做多層多次的卷積時(shí)消耗的運(yùn)算力十分大,同樣的運(yùn)算資源條件下,運(yùn)算耗時(shí)可能方法一的幾百倍。如果使用性能良好的GPU進(jìn)行運(yùn)算可以勉強(qiáng)達(dá)到實(shí)時(shí),但GPU的成本遠(yuǎn)高于CPU,不利于工程化。且方法二也會(huì)遇到在新場景下不適應(yīng)的問題。
因此,現(xiàn)有技術(shù)存在缺陷,需要改進(jìn)。
技術(shù)實(shí)現(xiàn)要素:
本發(fā)明所要解決的技術(shù)問題是:提供一種檢測速度快、準(zhǔn)確性高、場景適應(yīng)能力強(qiáng)的基于多類型信息融合的場景自適應(yīng)行人檢測方法。
本發(fā)明的技術(shù)方案如下:一種快速的基于多類型信息融合的場景自適應(yīng)行人檢測方法,包含如下步驟:S1:輸入圖像;S2:使用混合高斯模型的背景減除算法計(jì)算當(dāng)前幀與背景模板的差距,提取出當(dāng)前幀的前景區(qū)域;S3:使用幀差法,在當(dāng)前幀與前一幀的差距大于閾值時(shí),提取當(dāng)前幀的運(yùn)動(dòng)區(qū)域;S4:使用了膚色提取算法和發(fā)色提取算法,提取當(dāng)前幀的膚色與發(fā)色區(qū)域;S5:提取輪廓峰值點(diǎn),其中,提取每個(gè)完整輪廓的上部分的1/5區(qū)域作為輪廓峰值點(diǎn)區(qū)域;S6:根據(jù)步驟S2-S5得到補(bǔ)充性前景區(qū)域,使用聯(lián)通區(qū)域?yàn)V波去除了補(bǔ)充性前景區(qū)域的噪點(diǎn),并對(duì)聯(lián)通區(qū)域內(nèi)的孔洞進(jìn)行了補(bǔ)充,得到最終前景區(qū)域;S7:將最終前景區(qū)域加入到AdaBoost檢測器中,快速檢測出候選行人區(qū)域;S8:使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)候選行人區(qū)域進(jìn)行確認(rèn);S9:輸出行人檢測結(jié)果。
應(yīng)用于上述技術(shù)方案,所述的場景自適應(yīng)行人檢測方法中,任意調(diào)換S2-S5的步驟順序。
應(yīng)用于各個(gè)上述技術(shù)方案,所述的場景自適應(yīng)行人檢測方法中,步驟S4中,具體執(zhí)行將輸入的RBG圖像轉(zhuǎn)化為HSV空間的圖像,在HSV空間中定義H、S、V三個(gè)通道的最大和最小值,同時(shí)滿足此值的像素被認(rèn)為是膚色或者發(fā)色像素,將膚色或者發(fā)色像素對(duì)應(yīng)的區(qū)域提取為膚色與發(fā)色區(qū)域。
應(yīng)用于各個(gè)上述技術(shù)方案,所述的場景自適應(yīng)行人檢測方法中,步驟S5中,具體執(zhí)行,將圖像的邊緣使用canny算子提取后,二值化圖像并提取輪廓峰值點(diǎn)區(qū)域。
應(yīng)用于各個(gè)上述技術(shù)方案,所述的場景自適應(yīng)行人檢測方法中,步驟S6中,提取輪廓峰值點(diǎn)區(qū)域后,刪除掉所有周長或面積不在限定范圍內(nèi)的輪廓,并把合法的輪廓進(jìn)行填充重繪制后生成補(bǔ)充性前景區(qū)域。
應(yīng)用于各個(gè)上述技術(shù)方案,所述的場景自適應(yīng)行人檢測方法中,在步驟S7之前,還采集AdaBoost檢測器漏判誤判場景背景數(shù)據(jù),并存儲(chǔ)在場景數(shù)據(jù)庫中。
應(yīng)用于各個(gè)上述技術(shù)方案,所述的場景自適應(yīng)行人檢測方法中,定期更新場景數(shù)據(jù)庫的數(shù)據(jù)。
應(yīng)用于各個(gè)上述技術(shù)方案,一種快速的基于多類型信息融合的場景自適應(yīng)行人檢測系統(tǒng)中,包括一通用數(shù)據(jù)庫和行人檢測子系統(tǒng),其中,行人檢測子系統(tǒng)包括:使用混合高斯模型的背景減除算法計(jì)算當(dāng)前幀與背景模板的差距,提取出當(dāng)前幀的前景區(qū)域的前景區(qū)域提取模塊;使用幀差法,在當(dāng)前幀與前一幀的差距大于閾值時(shí),提取當(dāng)前幀的運(yùn)動(dòng)區(qū)域的運(yùn)動(dòng)區(qū)域提取模塊;使用了膚色提取算法和發(fā)色提取算法,提取當(dāng)前幀的膚色與發(fā)色區(qū)域的膚色與發(fā)色區(qū)域提取模塊;提取每個(gè)完整輪廓的上部分的1/5區(qū)域作為輪廓峰值點(diǎn)區(qū)域的輪廓峰值點(diǎn)區(qū)域提取模塊;分別與前景區(qū)域提取模塊、運(yùn)動(dòng)區(qū)域提取模塊、膚色與發(fā)色區(qū)域提取模塊、輪廓峰值點(diǎn)區(qū)域提取模塊連接,使用聯(lián)通區(qū)域?yàn)V波去除了補(bǔ)充性前景區(qū)域的噪點(diǎn),并對(duì)聯(lián)通區(qū)域內(nèi)的孔洞進(jìn)行了補(bǔ)充,得到最終前景區(qū)域的聯(lián)通區(qū)域?yàn)V波模塊;與聯(lián)通區(qū)域?yàn)V波模塊連接,對(duì)最終前景區(qū)域進(jìn)行快速檢測出候選行人區(qū)域的AdaBoost檢測器;以及與AdaBoost檢測器連接,用于對(duì)候選行人區(qū)域進(jìn)行確認(rèn)的卷積神經(jīng)網(wǎng)絡(luò);
應(yīng)用于各個(gè)上述技術(shù)方案,所述的場景自適應(yīng)行人檢測系統(tǒng)中,還包括一用于采集場景背景數(shù)據(jù)的數(shù)據(jù)采集反饋?zhàn)酉到y(tǒng)、以及用于存儲(chǔ)采集的場景背景數(shù)據(jù)的場景數(shù)據(jù)庫,數(shù)據(jù)采集反饋?zhàn)酉到y(tǒng)與行人檢測子系統(tǒng)連接。
應(yīng)用于各個(gè)上述技術(shù)方案,所述的場景自適應(yīng)行人檢測系統(tǒng)中,還包括一分別與場景數(shù)據(jù)庫和通用數(shù)據(jù)庫連接的在線更新器。
采用上述方案,本發(fā)明具有以下有益技術(shù)效果:
1、速度快:相比于全部使用卷積神經(jīng)網(wǎng)絡(luò),由于之前使用背景減除等計(jì)算量小的方法去除了大量的無用的背景。只在前景區(qū)域進(jìn)行檢測和深度神經(jīng)網(wǎng)絡(luò)確認(rèn),在單cpu上可以達(dá)到50-100幀每秒的分析速度,節(jié)省了大量運(yùn)算資源。
2、準(zhǔn)確性高:相比于只使用滑窗的方法,由于深度神經(jīng)網(wǎng)絡(luò)優(yōu)秀的特征提取能力和判別能力,準(zhǔn)確率比單滑窗的方法提高50%以上。且基于多信息融合的多源輸入能夠使得行人所在區(qū)域盡量被檢測到。
3、場景適應(yīng)能力:以往的方法常常是使用特定的數(shù)據(jù)庫訓(xùn)練好模型后直接放到各個(gè)場景去使用,這樣往往在不同的場景下會(huì)有不同的情況發(fā)生,統(tǒng)一的數(shù)據(jù)難以滿足所有的場景。而加入了數(shù)據(jù)采集子系統(tǒng)和在線更新器后,本發(fā)明可以在各個(gè)場景下獲得自適應(yīng)的能力,從而保證在各個(gè)場景下行人檢測的有效性。
附圖說明
圖1為本發(fā)明中場景自適應(yīng)行人檢測系統(tǒng)的連接結(jié)構(gòu)示意圖;
圖2為本發(fā)明中行人檢測子系統(tǒng)工作流程圖;
圖3為本發(fā)明中高斯混合模型背景建模與檢測過程流程圖;
圖4為本發(fā)明中幀間差運(yùn)動(dòng)檢測流程圖;
圖5為本發(fā)明中膚色與發(fā)色檢測流程圖;
圖6為本發(fā)明中聯(lián)通區(qū)域?yàn)V波流程圖。
具體實(shí)施方式
以下結(jié)合附圖和具體實(shí)施例,對(duì)本發(fā)明進(jìn)行詳細(xì)說明。
本實(shí)施例提供了一種快速的基于多類型信息融合的場景自適應(yīng)行人檢測方法、以及該方法所使用的系統(tǒng),如圖1-6所示,其中,本系統(tǒng)由四部分組成:行人數(shù)據(jù)庫、行人檢測子系統(tǒng)、數(shù)據(jù)采集反饋?zhàn)酉到y(tǒng)以及在線更新器。
本系統(tǒng)使用了傳統(tǒng)的手工特征方法極大的減小了所需檢測的候選區(qū)域范圍,在此候選區(qū)域內(nèi)使用一個(gè)較小的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行逐個(gè)的判斷,不僅提升了運(yùn)算的精度也減少了運(yùn)算消耗。
并且,引入了數(shù)據(jù)采集反饋系統(tǒng),加入數(shù)據(jù)的場景信息和檢測器的錯(cuò)漏判斷,用這些數(shù)據(jù)不斷的提升卷積神經(jīng)網(wǎng)絡(luò)在場景中的性能,做到場景的自適應(yīng)性。
首先使用行人數(shù)據(jù)庫中的數(shù)據(jù)訓(xùn)練一個(gè)通用的卷積神經(jīng)網(wǎng)絡(luò)植入行人檢測子系統(tǒng)。在行人檢測子系統(tǒng)中,數(shù)據(jù)采集反饋?zhàn)酉到y(tǒng)通過不斷收集行人檢測子系統(tǒng)中檢測器誤判和漏判的數(shù)據(jù),再將收集的數(shù)據(jù)放入行人數(shù)據(jù)庫的場景數(shù)據(jù)庫中,并將場景中的背景作為負(fù)樣本也仿佛場景數(shù)據(jù)庫中。最后在線更新器通過使用新收集的場景數(shù)據(jù)庫中的信息訓(xùn)練更適應(yīng)于當(dāng)前場景的模型并放入行人檢測子系統(tǒng),替代原來的模型,以此獲取不斷的對(duì)當(dāng)前場景的適應(yīng)能力。
行人數(shù)據(jù)庫分為兩種類型:一種是系統(tǒng)內(nèi)置數(shù)據(jù)庫,這對(duì)于所有場景都是一致通用的,稱為通用數(shù)據(jù)庫;另一種是該場景下具有特異性的樣本,稱為場景數(shù)據(jù)庫。數(shù)據(jù)庫中包含的數(shù)據(jù)是圖片以及其相應(yīng)的標(biāo)簽信息。標(biāo)簽只有兩種:行人稱為正樣本,非行人稱為負(fù)樣本。通用數(shù)據(jù)庫是手工預(yù)置的,場景數(shù)據(jù)庫則是在系統(tǒng)安裝的場景下采集的。
行人檢測子系統(tǒng)是一個(gè)基于信息融合且使用了多種機(jī)器學(xué)習(xí)算法的系統(tǒng):
一、檢測流程:
首先我們使用了基于混合高斯模型的背景減除算法計(jì)算當(dāng)前幀與背景模板的差距,提取出當(dāng)前幀的前景區(qū)域。
使用幀差法,當(dāng)前幀與前一幀的差距大于閾值,認(rèn)為產(chǎn)生了變化,提取運(yùn)動(dòng)區(qū)域,使用這些運(yùn)動(dòng)區(qū)域彌補(bǔ)上一步提取出的前景的細(xì)節(jié)。
由于人長期不動(dòng)的時(shí)候會(huì)被算法當(dāng)做背景減除掉,而我們需要檢測出所有的人,因此,系統(tǒng)使用了膚色提取算法和發(fā)色提取算法,將提取到的膚色與發(fā)色區(qū)域求與前景的交集,稱為補(bǔ)充性前景,即膚色與發(fā)色區(qū)域。
提取輪廓峰值點(diǎn),假設(shè)人的頭部總是在畫面上方,于是我們提取圖像的輪廓信息,并且提取每個(gè)完整輪廓的上部分的1/5區(qū)域加入候選區(qū)域,即可以得到輪廓峰值點(diǎn)區(qū)域。
綜合前景區(qū)域、運(yùn)動(dòng)區(qū)域、膚色與發(fā)色區(qū)域、輪廓峰值點(diǎn)區(qū)域,既可以得到補(bǔ)充性前景區(qū)域,使用了聯(lián)通區(qū)域?yàn)V波的方法去除了補(bǔ)充性前景區(qū)域中的噪點(diǎn),并對(duì)聯(lián)通區(qū)域內(nèi)的孔洞進(jìn)行了補(bǔ)充。
此時(shí)的前景區(qū)域面積小于畫面面積,僅把上一步提取出的前景區(qū)域輸入AdaBoost(Adaptive Boosting,自適應(yīng)增強(qiáng))檢測器,AdaBoost檢測器是一種通過迭代弱分類器產(chǎn)生的強(qiáng)分類器,其快速的檢測出候選行人區(qū)域,減小了搜索面積。
由于訓(xùn)練時(shí)AdaBoost檢測器被設(shè)定為盡量多的檢出物體,因此候選區(qū)域會(huì)存在一些誤檢。此時(shí)我們用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network)對(duì)候選區(qū)域進(jìn)行判斷,得到候選行人區(qū)域。由于卷積神經(jīng)網(wǎng)絡(luò)有著優(yōu)秀的特征提取能力,提取合適的行人特征后判斷的準(zhǔn)確率和查全率都很高。通過卷積神經(jīng)網(wǎng)絡(luò)分類器的候選行人區(qū)域被認(rèn)為是行人區(qū)域。
因此,行人檢測子系統(tǒng)融合了前景、膚色和發(fā)色信息以及使用了AdaBoost檢測器和卷積神經(jīng)網(wǎng)絡(luò)的融合性子系統(tǒng)。
二、訓(xùn)練流程:
AdaBoost檢測器以及卷積神經(jīng)網(wǎng)絡(luò)分類器的訓(xùn)練,使用AdaBoost檢測器和卷積神經(jīng)網(wǎng)絡(luò)分類器串聯(lián)的原因是,AdaBoost作為一個(gè)級(jí)聯(lián)弱分類器結(jié)構(gòu),每個(gè)弱分類器所需計(jì)算資源小,運(yùn)行速度非???,如果使用全局的卷積神經(jīng)絡(luò)做候選區(qū)域提取所消耗的計(jì)算資源高至少兩個(gè)數(shù)量級(jí)。因此第一步使用AdaBoost作為一個(gè)候選區(qū)域提取器。訓(xùn)練目標(biāo)是盡可能多的提取出所有的行人區(qū)域。使用的特征是haar特征,弱分類器使用決策樹。
Adaboost訓(xùn)練
計(jì)算所有樣本的haar特征,用haar特征代表相應(yīng)的樣本;
初始化訓(xùn)練數(shù)據(jù)權(quán)值分布,當(dāng)有N個(gè)樣本,每個(gè)樣本的權(quán)值被賦值為1/N。
使用樣本訓(xùn)練弱分類器,在本案例中訓(xùn)練的是決策樹,當(dāng)樣本被準(zhǔn)確分類的時(shí)候,構(gòu)造的下一個(gè)弱分類器的訓(xùn)練集中其權(quán)值被降低;如果分類不正確,此樣本的權(quán)值提高,放入下一個(gè)弱分類器的訓(xùn)練集。
將各個(gè)訓(xùn)練得到的弱分類器組合成強(qiáng)分類器。各個(gè)弱分類器的訓(xùn)練過程結(jié)束后,加大分類誤差率小的弱分類器的權(quán)重,使其在最終的分類函數(shù)中起著較大的決定作用,而降低分類誤差率大的弱分類器的權(quán)重,使其在最終的分類函數(shù)中起著較小的決定作用。
卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練
本系統(tǒng)使用的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)有四個(gè)卷積層,每個(gè)卷積層后跟隨一個(gè)池化層,最后為一個(gè)softmax的分類器,以二分類結(jié)果表示輸入的圖片是否是行人,并給出其概率值,并使用反向傳播算法傳遞輸出值和樣本標(biāo)簽之間的差距,不斷的更新網(wǎng)絡(luò)的權(quán)值直至收斂。
訓(xùn)練前會(huì)對(duì)通用數(shù)據(jù)庫中較少樣本的類別進(jìn)行過采樣直到兩個(gè)類別的樣本數(shù)量平衡。然后對(duì)正負(fù)樣本進(jìn)行隨機(jī)的旋轉(zhuǎn)、裁剪、翻轉(zhuǎn)、仿射變化、亮度改變以及隨機(jī)小幅度噪聲疊加制造出更多的樣本,這一個(gè)步驟稱為數(shù)據(jù)增強(qiáng)。使用增強(qiáng)后的數(shù)據(jù)進(jìn)行訓(xùn)練可以使得卷積神經(jīng)網(wǎng)絡(luò)獲得尺度、旋轉(zhuǎn)、噪聲、仿射變換的魯棒性。
三、步驟詳解:
混合高斯背景建模
混合高斯背景建模的在線訓(xùn)練與使用步驟如附圖3。
混合高斯背景建模是基于像素樣本統(tǒng)計(jì)信息的背景表示方法,利用像素在較長時(shí)間內(nèi)大量樣本值的概率密度等統(tǒng)計(jì)信息表示背景,統(tǒng)計(jì)信息如,模式數(shù)量、每個(gè)模式的均值和標(biāo)準(zhǔn)差)然后使用統(tǒng)計(jì)差分,例如,3σ原則,進(jìn)行目標(biāo)像素判斷,可以對(duì)復(fù)雜動(dòng)態(tài)背景進(jìn)行建模。
背景模型由K個(gè)高斯模型所組成,每個(gè)高斯模型具有一個(gè)相應(yīng)的權(quán)值。
每個(gè)新輸入的像素點(diǎn)與K個(gè)高斯模型比較,如果找到一個(gè)模型其值在模型的T閾值范圍內(nèi)則該像素屬于背景,該模型的權(quán)值根據(jù)預(yù)先設(shè)定的學(xué)習(xí)率增加,并根據(jù)新輸入的像素更新該模型的均值和標(biāo)準(zhǔn)差。
如果未找到匹配,則該像素屬于前景,并且舍棄權(quán)值最小的高斯模型,使用當(dāng)前像素值為均值,標(biāo)準(zhǔn)差為一個(gè)較大的值,權(quán)重為一個(gè)較小的值來新生成一個(gè)高斯模型加入背景模型組。當(dāng)對(duì)圖像處理完成所有像素點(diǎn)的時(shí)候,使用腐蝕膨脹操作優(yōu)化最終的前景展現(xiàn)。
幀差法
幀差法進(jìn)使用前后相鄰的兩幀信息進(jìn)行對(duì)比,像素差值小于閾值時(shí)可以認(rèn)為此像素不是運(yùn)動(dòng)區(qū)域,否則此像素為運(yùn)動(dòng)區(qū)域。用此信息可以彌補(bǔ)上面混合高斯模型提取不到的一些邊緣的前景信息,如圖4所示。
膚色發(fā)色提取
膚色和發(fā)色的提取如圖5。首先要把輸入的RBG圖像轉(zhuǎn)化為HSV空間的圖像。因?yàn)檫@樣可以去除光照對(duì)膚色和發(fā)色的影響。在HSV空間中我們定義H、S、V三個(gè)通道的最大和最小值,同時(shí)滿足此值的像素被認(rèn)為是膚色或者發(fā)色像素。補(bǔ)充此步驟的原因是,有些站著不動(dòng)的行人會(huì)被認(rèn)為是背景,且提取不出運(yùn)動(dòng)信息。因此使用膚色和發(fā)色彌補(bǔ)此信息的損失。
輪廓峰值點(diǎn)提取
基于在一般的監(jiān)控視頻中,人的輪廓總會(huì)和其余的圖像不太一致,且人的頭總是在人體輪廓的上1/5部分。將圖像的邊緣使用canny算子提取后,二值化圖像并提取輪廓。將每個(gè)輪廓的上1/5的區(qū)域認(rèn)為是頭部的候選區(qū)域。
聯(lián)通區(qū)域?yàn)V波
把前面輸入的二值圖像進(jìn)行輪廓提取后,刪除掉所有周長或面積不在限定范圍內(nèi)的輪廓,其中,過大或過小都不可能是行人,并把合法的輪廓進(jìn)行填充重繪制后生成新的優(yōu)化后的前景區(qū)域。
數(shù)據(jù)采集反饋?zhàn)酉到y(tǒng)是一個(gè)根據(jù)場景進(jìn)行場景特異性數(shù)據(jù)采集的系統(tǒng)。由于通用數(shù)據(jù)集中的樣本不能覆蓋各個(gè)場景,導(dǎo)致行人的檢測器在某些場景下表現(xiàn)不如意,因此我們需要一個(gè)數(shù)據(jù)采集子系統(tǒng)采集場景數(shù)據(jù)放入場景數(shù)據(jù)庫中。
由于Adaboost檢測器設(shè)置的閾值很低,因此正檢測率和負(fù)檢測率都很高,因此我們主要以刪除錯(cuò)誤檢測為目標(biāo)。誤檢很多都是由于環(huán)境帶來的。因此當(dāng)前面使用背景減除時(shí)發(fā)現(xiàn)的前景比例小于T,且未檢測到行人時(shí),認(rèn)為獲得了一個(gè)背景圖片。將此背景圖片作為負(fù)樣本的產(chǎn)生圖片。通過隨機(jī)滑窗的方法,將生產(chǎn)的圖片標(biāo)簽標(biāo)為非行人,并且放入場景數(shù)據(jù)庫。
而檢測到行人后,我們對(duì)其進(jìn)行跟蹤,直到行人消失。如果跟蹤產(chǎn)生的行人候選區(qū)域并未沒卷積神經(jīng)網(wǎng)絡(luò)判斷為正樣本,則我們把此樣本放入場景數(shù)據(jù)庫并標(biāo)注為行人。
在線更新器是一個(gè)定期查看場景數(shù)據(jù)庫,并利用場景數(shù)據(jù)庫中的數(shù)據(jù)對(duì)卷積神經(jīng)網(wǎng)絡(luò)分類器進(jìn)行微調(diào)的系統(tǒng)。
首先計(jì)算場景數(shù)據(jù)庫中正負(fù)樣本的數(shù)量,對(duì)較少的那一類的樣本進(jìn)行過采樣,使得兩類的樣本數(shù)量平衡。然后再對(duì)樣本進(jìn)行水平翻轉(zhuǎn)、隨機(jī)旋轉(zhuǎn)、隨機(jī)裁剪以及亮度和仿射變換,以使得卷積神經(jīng)網(wǎng)絡(luò)的魯棒性增強(qiáng)。
最后把數(shù)據(jù)增強(qiáng)后的數(shù)據(jù)加入卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,卷積神經(jīng)網(wǎng)絡(luò)使用原來通用數(shù)據(jù)庫訓(xùn)練的模型進(jìn)行權(quán)值的初始化,但使用場景數(shù)據(jù)庫中增強(qiáng)處理后的數(shù)據(jù)進(jìn)行訓(xùn)練微調(diào),使用反向傳播算法調(diào)整預(yù)測值和樣本標(biāo)簽的差距,從而得到適合于當(dāng)前場景的專用模型。
當(dāng)在線更新器訓(xùn)練好新的卷積神經(jīng)網(wǎng)絡(luò)模型,則用此新模型替代行人檢測器中原有的卷積神經(jīng)網(wǎng)絡(luò)分類器。
以上僅為本發(fā)明的較佳實(shí)施例而已,并不用于限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi)所作的任何修改、等同替換和改進(jìn)等,均應(yīng)包含在本發(fā)明的保護(hù)范圍之內(nèi)。