本發(fā)明涉及計(jì)算機(jī)
技術(shù)領(lǐng)域:
,尤其涉及一種圖像分類器建立方法及裝置。
背景技術(shù):
:標(biāo)識(shí)(LOGO)識(shí)別是圖像識(shí)別的一種,通過(guò)特征比對(duì)判斷圖像中是否包含目標(biāo)LOGO,這對(duì)于企業(yè)商品管理來(lái)說(shuō)是非常重要的一個(gè)方面,例如,通過(guò)LOGO識(shí)別判斷企業(yè)商標(biāo)是否被他人冒用,通過(guò)LOGO識(shí)別判斷商品類型等諸多方面。目前對(duì)于LOGO識(shí)別多采用通過(guò)人工提取特征,然后訓(xùn)練分類器的方法。但是人工提取的方法對(duì)LOGO提取的特征是人為指定的,對(duì)于機(jī)器的識(shí)別,可能存在覆蓋面不足等情況,此外,由于LOGO特征需要人工提取,就使得訓(xùn)練分類器時(shí)無(wú)法獲得足夠大的樣本庫(kù),因此獲得的分類器對(duì)于圖像識(shí)別的準(zhǔn)確率并不高,沒(méi)有辦法達(dá)到實(shí)用的目的。綜上,目前仍缺少一種高準(zhǔn)確率的基于LOGO識(shí)別的圖像分類器。技術(shù)實(shí)現(xiàn)要素:本發(fā)明提供一種圖像分類器建立方法及裝置,用以提供一種高準(zhǔn)確率的基于目標(biāo)圖像識(shí)別的圖像分類器。本發(fā)明實(shí)施例提供一種圖像分類器建立方法,包括:獲取樣本圖片集,樣本圖片集中包含含目標(biāo)圖像的正樣本和不含目標(biāo)圖像的負(fù)樣本;對(duì)樣本圖片集中的樣本圖片進(jìn)行變形處理,得到擴(kuò)充后的樣本圖片集;根據(jù)擴(kuò)充后的樣本圖片集和深度卷積神經(jīng)網(wǎng)絡(luò)模型,獲得針對(duì)目標(biāo)圖像的分類器;其中,深度卷積神經(jīng)網(wǎng)絡(luò)模型中對(duì)卷積層的輸出進(jìn)行歸一化處理。可選地,對(duì)樣本圖片集中的樣本圖片進(jìn)行變形處理,包括以下至少之一:鏡像翻轉(zhuǎn)、旋轉(zhuǎn)、隨機(jī)裁剪、亮度調(diào)整。可選地,包括:深度卷積神經(jīng)網(wǎng)絡(luò)模型為Googlenet模型;根據(jù)擴(kuò)充后的樣本圖片集和深度卷積神經(jīng)網(wǎng)絡(luò)模型,獲得針對(duì)目標(biāo)圖像的分類器,包括:將樣本圖片輸入初始化的Googlenet模型中;前向傳播獲取Googlenet模型的損失函數(shù)loss值;根據(jù)loss值反向傳播更新Googlenet模型參數(shù),直至Googlenet模型的loss值符合預(yù)設(shè)條件,得到針對(duì)目標(biāo)圖像的分類器??蛇x地,深度卷積神經(jīng)網(wǎng)絡(luò)模型中對(duì)卷積層的輸出進(jìn)行歸一化處理,包括:對(duì)深度卷積神經(jīng)網(wǎng)絡(luò)模型中的每層卷積層的輸出值進(jìn)行歸一化處理。本發(fā)明實(shí)施例提供一種根據(jù)本發(fā)明實(shí)施例提供的方法建立的圖像分類器的圖像識(shí)別方法,包括:獲取待識(shí)別圖片;將待識(shí)別圖片輸入分類器,得到待識(shí)別圖片是否包含目標(biāo)圖像的分類結(jié)果。本發(fā)明實(shí)施例提供一種圖像分類器建立裝置,包括:獲取模塊,用于獲取樣本圖片集,樣本圖片集中包含含目標(biāo)圖像的正樣本和不含目標(biāo)圖像的負(fù)樣本;擴(kuò)充模塊,用于對(duì)樣本圖片集中的樣本圖片進(jìn)行變形處理,得到擴(kuò)充后的樣本圖片集;處理模塊,用于根據(jù)擴(kuò)充后的樣本圖片集和深度卷積神經(jīng)網(wǎng)絡(luò)模型,獲得針對(duì)目標(biāo)圖像的分類器;其中,深度卷積神經(jīng)網(wǎng)絡(luò)模型中對(duì)卷積層的輸出進(jìn)行歸一化處理??蛇x地,擴(kuò)充模塊,具體用于對(duì)樣本圖片集中的樣本圖片進(jìn)行如下至少之一的變形處理:鏡像翻轉(zhuǎn)、旋轉(zhuǎn)、隨機(jī)裁剪、亮度調(diào)整??蛇x地,處理模塊采用的深度卷積神經(jīng)網(wǎng)絡(luò)模型為Googlenet模型;處理模塊具體用于:將樣本圖片輸入初始化的Googlenet模型中;前向傳播獲取Googlenet模型的損失函數(shù)loss值;根據(jù)loss值反向傳播更新Googlenet模型參數(shù),直至Googlenet模型的loss值符合預(yù)設(shè)條件,得到針對(duì)目標(biāo)圖像的分類器??蛇x地,處理模塊,具體用于對(duì)深度卷積神經(jīng)網(wǎng)絡(luò)模型中的每層卷積層的輸出值進(jìn)行歸一化處理。本發(fā)明實(shí)施例提供一種圖像識(shí)別裝置,包括:獲取模塊,用于獲取待識(shí)別圖片;處理模塊,用于將待識(shí)別圖片輸入目標(biāo)圖像的分類器,得到待識(shí)別圖片是否包含目標(biāo)圖像的分類結(jié)果,其中,目標(biāo)圖像的分類器由本發(fā)明實(shí)施例提供的圖像分類器建立裝置得到。綜上所述,本發(fā)明實(shí)施例提供了一種圖像分類器建立方法及裝置,包括:獲取樣本圖片集,樣本圖片集中包含含目標(biāo)圖像的正樣本和不含目標(biāo)圖像的負(fù)樣本;對(duì)樣本圖片集中的樣本圖片進(jìn)行變形處理,得到擴(kuò)充后的樣本圖片集;根據(jù)擴(kuò)充后的樣本圖片集和深度卷積神經(jīng)網(wǎng)絡(luò)模型,獲得針對(duì)目標(biāo)圖像的分類器;其中,深度卷積神經(jīng)網(wǎng)絡(luò)模型中對(duì)卷積層的輸出進(jìn)行歸一化處理。通過(guò)上述方法,只需人工標(biāo)識(shí)有限的樣本圖片集,之后再對(duì)有限的樣本圖片集進(jìn)行擴(kuò)充,從而擴(kuò)大了樣本數(shù)量,提高了分類器的準(zhǔn)確性,此外,采用深度卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)一步提高了分類器的識(shí)別精度,因此,本方案能夠提供一種識(shí)別精度更高的針對(duì)目標(biāo)圖像的分類器。附圖說(shuō)明為了更清楚地說(shuō)明本發(fā)明實(shí)施例中的技術(shù)方案,下面將對(duì)實(shí)施例描述中所需要使用的附圖作簡(jiǎn)要介紹,顯而易見(jiàn)地,下面描述中的附圖僅僅是本發(fā)明的一些實(shí)施例,對(duì)于本領(lǐng)域的普通技術(shù)人員來(lái)講,在不付出創(chuàng)造性勞動(dòng)性的前提下,還可以根據(jù)這些附圖獲得其他的附圖。圖1為本發(fā)明實(shí)施例提供的一種圖像分類器建立方法流程示意圖;圖2為本發(fā)明實(shí)施例提供的一種Googlenet模型結(jié)構(gòu)示意圖;圖3為本發(fā)明實(shí)施例提供的一種圖像識(shí)別方法流程圖;圖4為本發(fā)明實(shí)施例提供的一種圖像分類器建立裝置結(jié)構(gòu)示意圖;圖5為本發(fā)明實(shí)施例提供的一種圖像識(shí)別裝置結(jié)構(gòu)示意圖。具體實(shí)施方式為了使本發(fā)明的目的、技術(shù)方案和優(yōu)點(diǎn)更加清楚,下面將結(jié)合附圖對(duì)本發(fā)明作進(jìn)一步地詳細(xì)描述,顯然,所描述的實(shí)施例僅僅是本發(fā)明一部份實(shí)施例,而不是全部的實(shí)施例?;诒景l(fā)明中的實(shí)施例,本領(lǐng)域普通技術(shù)人員在沒(méi)有做出創(chuàng)造性勞動(dòng)前提下所獲得的所有其它實(shí)施例,都屬于本發(fā)明保護(hù)的范圍。圖1為本發(fā)明實(shí)施例提供的一種圖像分類器建立方法流程示意圖,如圖1所示,包括以下步驟:S101:獲取樣本圖片集,樣本圖片集中包含含目標(biāo)圖像的正樣本和不含目標(biāo)圖像的負(fù)樣本;S102:對(duì)樣本圖片集中的樣本圖片進(jìn)行變形處理,得到擴(kuò)充后的樣本圖片集;S103:根據(jù)擴(kuò)充后的樣本圖片集和深度卷積神經(jīng)網(wǎng)絡(luò)模型,獲得針對(duì)目標(biāo)圖像的分類器;其中,深度卷積神經(jīng)網(wǎng)絡(luò)模型中對(duì)卷積層的輸出進(jìn)行歸一化處理。具體實(shí)施過(guò)程中,目標(biāo)圖像為一個(gè)固定的圖像,該圖像的形態(tài)可能不規(guī)整、色澤可能不清晰等等。目標(biāo)圖像可以為公司標(biāo)識(shí)、注冊(cè)商標(biāo)、認(rèn)證標(biāo)識(shí)、圖像作品等多種形式。對(duì)于目標(biāo)圖像的識(shí)別指的是判斷待識(shí)別圖片中是否包含目標(biāo)圖像。在步驟S101的具體實(shí)施過(guò)程中,獲取樣本圖片集的方式和渠道并沒(méi)有限制,可以通過(guò)網(wǎng)絡(luò)爬取從互聯(lián)網(wǎng)中獲取樣本圖片集,也可以通過(guò)人工拍攝的方式獲取樣本圖片集,也可以通過(guò)其它渠道或者方式獲得,更可以將多種渠道或者方式相結(jié)合以獲得足夠多的樣本圖片以構(gòu)成樣本圖片集。樣本圖片集的樣本圖片中,既有包含目標(biāo)圖像的樣本圖片,又有不包含目標(biāo)圖像的樣本圖片。這樣可以得到可識(shí)別目標(biāo)圖像的分類器,如包含目標(biāo)圖像,分類器輸出1,不包含目標(biāo)圖像,分類器輸出0??蛇x地,對(duì)樣本圖片集進(jìn)行人工標(biāo)注,將樣本圖片集分為包含目標(biāo)圖像的正樣本和不包含目標(biāo)圖像的負(fù)樣本??蛇x地,對(duì)于正樣本人工標(biāo)注為1,對(duì)于負(fù)樣本人工標(biāo)注為0。表一為本發(fā)明實(shí)施例提供的一種標(biāo)注列表,如表一所示,表一中記錄了樣本圖片集中各樣本圖片的名稱及其對(duì)應(yīng)的路徑和標(biāo)注信息,其中,路徑用來(lái)表示樣本圖片的存儲(chǔ)位置,標(biāo)注用來(lái)區(qū)分樣本圖片為正樣本還是負(fù)樣本,如表1中Pic1,其存儲(chǔ)位置為D:\A\B\Pictures1,且Pic1中包含有目標(biāo)圖像,所以其標(biāo)注信息為1,是一個(gè)正樣本。表1圖片路徑標(biāo)注………Pic1D:\A\B\Pictures11Pic2D:\A\B\Pictures20Pic3D:\A\B\Pictures31………在步驟S102的具體實(shí)施過(guò)程中,通過(guò)對(duì)樣本圖片進(jìn)行變形來(lái)擴(kuò)充樣本圖片集??蛇x地,對(duì)樣本圖片集中的樣本圖片進(jìn)行變形處理,包括以下至少之一:鏡像翻轉(zhuǎn)、旋轉(zhuǎn)、隨機(jī)裁剪、亮度調(diào)整。通過(guò)擴(kuò)充樣本圖片集確保了獲得的分類器在進(jìn)行圖片識(shí)別的準(zhǔn)確性。需指出的是,在對(duì)樣本圖片進(jìn)行變形的過(guò)程中應(yīng)盡量避免改變樣本圖片標(biāo)注特征,即如果樣本圖片含有目標(biāo)圖像,則應(yīng)盡量避免在變形處理之后獲得的圖片中不包含目標(biāo)圖像的情況發(fā)生,例如,只對(duì)目標(biāo)圖像位于中央部分的樣本圖片進(jìn)行隨機(jī)剪裁處理,而不去裁剪目標(biāo)圖像位于邊緣位置的樣本圖片。鏡像翻轉(zhuǎn)和旋轉(zhuǎn)操作一般并不會(huì)改變樣本圖片的標(biāo)注特征,因此可以對(duì)所有的樣本圖片進(jìn)行鏡像翻轉(zhuǎn)和選擇操作。亮度過(guò)亮或過(guò)暗會(huì)影響后續(xù)圖片特征的提取,因此只對(duì)原始亮度適中的樣本圖片進(jìn)行亮度調(diào)整處理。可選地,對(duì)于訓(xùn)練集的擴(kuò)充應(yīng)為多種變形處理的結(jié)合以增加樣本圖片集中的圖片種類。通過(guò)上述操作,可以在原有樣本圖片集的基礎(chǔ)上擴(kuò)充樣本圖片集的大小,此外,在擴(kuò)充是盡量避免改變?cè)袌D片的標(biāo)注特征從而不需對(duì)擴(kuò)充后的大容量樣本集再次進(jìn)行人工標(biāo)注,增加了分類器建立效率,降低了人工和時(shí)間成本。在步驟S103的具體實(shí)施過(guò)程中,根據(jù)擴(kuò)充后的樣本圖片集和深度卷積神經(jīng)網(wǎng)絡(luò)模型,獲得針對(duì)目標(biāo)圖像的分類器,這里的深度卷積神經(jīng)網(wǎng)絡(luò)模型可以為Googlenet模型;根據(jù)擴(kuò)充后的樣本圖片集和深度卷積神經(jīng)網(wǎng)絡(luò)模型,獲得針對(duì)目標(biāo)圖像的分類器,包括:將樣本圖片輸入初始化的Googlenet模型中;前向傳播獲取Googlenet模型的損失函數(shù)loss值;根據(jù)loss值反向傳播更新Googlenet模型參數(shù),直至Googlenet模型的loss值符合預(yù)設(shè)條件,得到針對(duì)目標(biāo)圖像的分類器。當(dāng)然,本發(fā)明實(shí)施例也可以采用其他深度卷積神經(jīng)網(wǎng)絡(luò)模型。深度學(xué)習(xí)分類器訓(xùn)練具有許多模型可以實(shí)現(xiàn),典型網(wǎng)絡(luò)結(jié)構(gòu)有:亞歷克斯網(wǎng)絡(luò)(Alexnet)模型、VGG模型、Googlenet模型、殘差網(wǎng)絡(luò)(Resnet)模型,Alexnet模型較容易訓(xùn)練得到但最終識(shí)別率不夠高;其它三種網(wǎng)絡(luò)層次更深,VGG模型深度為19層、Googlenet模型深度為22層、Resnet模型深度為152層,因而識(shí)別率更佳,但不容易訓(xùn)練;VGG模型與Resnet模型的訓(xùn)練需要很大的顯卡顯存,而Googlenet模型卻不需要,Googlenet模型在有限的顯卡顯存條件下便可以實(shí)現(xiàn)較佳的識(shí)別率,且Googlenet模型的網(wǎng)絡(luò)參數(shù)最小約50M,而VGG模型的網(wǎng)絡(luò)參數(shù)為500M,Resnet模型的網(wǎng)絡(luò)參數(shù)為100M,Googlenet模型更適合后續(xù)系統(tǒng)部署。圖2為本發(fā)明實(shí)施例提供的一種Googlenet模型結(jié)構(gòu)示意圖,如圖2所示,Googlenet模型包括1個(gè)卷積模塊、9個(gè)起始inception模塊、3個(gè)softmax模塊,其中,每3個(gè)inception模塊并聯(lián)一個(gè)softmax模塊。表2為圖2所示的Googlenet模型預(yù)設(shè)參數(shù),如表2和圖2所示,表2中前兩組卷積(conv)參數(shù)和最大池(maxpool)參數(shù)為圖2中卷積模塊的參數(shù),之后為9個(gè)inception參數(shù)及其之間的最大池參數(shù),最大池的作用是降低模型維度。表2如圖2所示,每3個(gè)inception模塊連接有一個(gè)softmax模塊,softmax模塊的作用主要是在模型訓(xùn)練過(guò)程中,檢測(cè)模型的損失函數(shù)(loss)值,前兩個(gè)softmax的作用是為了防止深度過(guò)深,最后一個(gè)softmax模塊對(duì)較淺層模塊不能準(zhǔn)確檢測(cè)的問(wèn)題。可選地,在模型訓(xùn)練之前,將獲取的樣本圖片集按比例分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,這里的比例可以按經(jīng)驗(yàn)或者實(shí)際需求來(lái)決定。訓(xùn)練集用于訓(xùn)練分類器,驗(yàn)證集用于驗(yàn)證模型是否收斂,測(cè)試集用于測(cè)試最后獲取的分類器的識(shí)別率??蛇x地,測(cè)試集圖片的種類應(yīng)較驗(yàn)證集更為豐富,這樣測(cè)試結(jié)果的可信度才夠高??蛇x地,在模型訓(xùn)練之前還需對(duì)Google模型進(jìn)行初始化,先為待訓(xùn)練的參數(shù)賦予一個(gè)初值,可選地,采用標(biāo)準(zhǔn)差為0.1的澤維爾(Xavier)算法隨機(jī)初始化模型中的待訓(xùn)練參數(shù),可以確保模型最后能夠收斂??蛇x地,將訓(xùn)練集和驗(yàn)證集分批次(batch)處理,如訓(xùn)練batch為256,驗(yàn)證batch為64。利用如圖2所示的Googlenet模型進(jìn)行分類器訓(xùn)練的具體過(guò)程為:前向傳播,將訓(xùn)練集中一個(gè)批次的樣本圖片歸一化為固定大小后輸入Googlenet模型,循環(huán)輸入預(yù)設(shè)次數(shù)后,如循環(huán)輸入1000次,獲取此時(shí)的分類器模型,將一個(gè)批次的驗(yàn)證batch輸入此時(shí)的分類器模型,循環(huán)輸入預(yù)設(shè)次數(shù),如100次,獲取分類器模型輸出的預(yù)測(cè)值,并與實(shí)際值對(duì)比,得到此時(shí)分類器模型的loss值及準(zhǔn)確率;之后,判斷分類器模型的loss值和準(zhǔn)確率是否收斂,若并沒(méi)有收斂,則繼續(xù)進(jìn)行反向傳播,使用梯度下降法根據(jù)梯度和學(xué)習(xí)率的大小更新模型權(quán)值;更新權(quán)值后,更換下一批訓(xùn)練batch重復(fù)前向傳播和反向傳播直至loss值和準(zhǔn)確率趨于穩(wěn)定;判斷穩(wěn)定后的loss值是否小于預(yù)設(shè)的loss閾值且準(zhǔn)確率是否高于預(yù)設(shè)的準(zhǔn)確率閾值,若否,則分類器模型訓(xùn)練失敗,需更換訓(xùn)練模型,若是,則繼續(xù)判斷此時(shí)的學(xué)習(xí)率是否高于預(yù)設(shè)的學(xué)習(xí)率閾值;若是,則返回訓(xùn)練集樣本輸入步驟,重復(fù)上述循環(huán),若否,則輸出此時(shí)的分類器模型,即獲得目標(biāo)圖像分類器??蛇x地,此處的loss值是三個(gè)softmax模塊分別獲取的loss值的權(quán)重計(jì)算結(jié)果,softmax模塊層數(shù)越深,其權(quán)重越高,例如,對(duì)于最淺層的softmax所測(cè)得的loss值,其計(jì)算時(shí)的權(quán)重為0.3,對(duì)于中間的softmax模塊其計(jì)算時(shí)的權(quán)重為0.3,對(duì)于最深層的softmax模塊,其計(jì)算時(shí)的權(quán)重為1??蛇x地,對(duì)深度卷積神經(jīng)網(wǎng)絡(luò)模型中的每層卷積層的輸出值進(jìn)行歸一化處理??梢约铀倌P陀?xùn)練收斂,提高識(shí)別率。圖3為本發(fā)明實(shí)施例提供的一種圖像識(shí)別方法流程圖,圖像識(shí)別所用模塊為經(jīng)上述實(shí)施例獲取的目標(biāo)圖像分類器,如圖3所示,包括以下步驟:S301:獲取待識(shí)別圖片;S302:將待識(shí)別圖片輸入分類器,得到待識(shí)別圖片是否包含目標(biāo)圖像的分類結(jié)果。綜上所述,本發(fā)明實(shí)施例提供了一種圖像分類器建立方法,包括:獲取樣本圖片集,樣本圖片集中包含含目標(biāo)圖像的正樣本和不含目標(biāo)圖像的負(fù)樣本;對(duì)樣本圖片集中的樣本圖片進(jìn)行變形處理,得到擴(kuò)充后的樣本圖片集;根據(jù)擴(kuò)充后的樣本圖片集和深度卷積神經(jīng)網(wǎng)絡(luò)模型,獲得針對(duì)目標(biāo)圖像的分類器;其中,深度卷積神經(jīng)網(wǎng)絡(luò)模型中對(duì)卷積層的輸出進(jìn)行歸一化處理。通過(guò)上述方法,只需人工標(biāo)識(shí)有限的樣本圖片集,之后再對(duì)有限的樣本圖片集進(jìn)行擴(kuò)充,從而擴(kuò)大了樣本數(shù)量,提高了分類器的準(zhǔn)確性,此外,采用深度卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)一步提高了分類器的識(shí)別精度,因此,本方案能夠提供一種識(shí)別精度更高的針對(duì)目標(biāo)圖像的分類器?;谙嗤募夹g(shù)構(gòu)思,本發(fā)明實(shí)施例還提供一種圖像分類器建立裝置,該裝置可執(zhí)行上述方法實(shí)施例。圖4為本發(fā)明實(shí)施例提供的一種圖像分類器建立裝置結(jié)構(gòu)示意圖,如圖4所示,建立裝置400包括:獲取模塊401、擴(kuò)充模塊402和處理模塊403,其中:獲取模塊401,用于獲取樣本圖片集,樣本圖片集中包含含目標(biāo)圖像的正樣本和不含目標(biāo)圖像的負(fù)樣本;擴(kuò)充模塊402,用于對(duì)樣本圖片集中的樣本圖片進(jìn)行變形處理,得到擴(kuò)充后的樣本圖片集;處理模塊403,用于根據(jù)擴(kuò)充后的樣本圖片集和深度卷積神經(jīng)網(wǎng)絡(luò)模型,獲得針對(duì)目標(biāo)圖像的分類器;其中,深度卷積神經(jīng)網(wǎng)絡(luò)模型中對(duì)卷積層的輸出進(jìn)行歸一化處理??蛇x地,擴(kuò)充模塊402,具體用于對(duì)樣本圖片集中的樣本圖片進(jìn)行如下至少之一的變形處理:鏡像翻轉(zhuǎn)、旋轉(zhuǎn)、隨機(jī)裁剪、亮度調(diào)整??蛇x地,處理模塊403采用的深度卷積神經(jīng)網(wǎng)絡(luò)模型為Googlenet模型;處理模塊403具體用于:將樣本圖片輸入初始化的Googlenet模型中;前向傳播獲取Googlenet模型的損失函數(shù)loss值;根據(jù)loss值反向傳播更新Googlenet模型參數(shù),直至Googlenet模型的loss值符合預(yù)設(shè)條件,得到針對(duì)目標(biāo)圖像的分類器。可選地,處理模塊403,具體用于對(duì)深度卷積神經(jīng)網(wǎng)絡(luò)模型中的每層卷積層的輸出值進(jìn)行歸一化處理?;谙嗤募夹g(shù)構(gòu)思,本發(fā)明實(shí)施例還提供一種圖像識(shí)別裝置,該裝置可執(zhí)行上述圖像識(shí)別方法實(shí)施例。圖5為本發(fā)明實(shí)施例提供的一種圖像識(shí)別裝置結(jié)構(gòu)示意圖,如圖5所示,識(shí)別裝置500包括:獲取模塊501和處理模塊502,其中:獲取模塊501,用于獲取待識(shí)別圖片;處理模塊502,用于將待識(shí)別圖片輸入目標(biāo)圖像的分類器,得到待識(shí)別圖片是否包含目標(biāo)圖像的分類結(jié)果,其中,目標(biāo)圖像的分類器由本發(fā)明實(shí)施例提供的圖像分類器建立方法獲得。綜上所述,本發(fā)明實(shí)施例提供了一種圖像分類器建立方法及裝置,包括:獲取樣本圖片集,樣本圖片集中包含含目標(biāo)圖像的正樣本和不含目標(biāo)圖像的負(fù)樣本;對(duì)樣本圖片集中的樣本圖片進(jìn)行變形處理,得到擴(kuò)充后的樣本圖片集;根據(jù)擴(kuò)充后的樣本圖片集和深度卷積神經(jīng)網(wǎng)絡(luò)模型,獲得針對(duì)目標(biāo)圖像的分類器;其中,深度卷積神經(jīng)網(wǎng)絡(luò)模型中對(duì)卷積層的輸出進(jìn)行歸一化處理。通過(guò)上述方法,只需人工標(biāo)識(shí)有限的樣本圖片集,之后再對(duì)有限的樣本圖片集進(jìn)行擴(kuò)充,從而擴(kuò)大了樣本數(shù)量,提高了分類器的準(zhǔn)確性,此外,采用深度卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)一步提高了分類器的識(shí)別精度,因此,本方案能夠提供一種識(shí)別精度更高的針對(duì)目標(biāo)圖像的分類器。本發(fā)明是參照根據(jù)本發(fā)明實(shí)施例的方法、設(shè)備(系統(tǒng))、和計(jì)算機(jī)程序產(chǎn)品的流程圖和/或方框圖來(lái)描述的。應(yīng)理解可由計(jì)算機(jī)程序指令實(shí)現(xiàn)流程圖和/或方框圖中的每一流程和/或方框、以及流程圖和/或方框圖中的流程和/或方框的結(jié)合??商峁┻@些計(jì)算機(jī)程序指令到通用計(jì)算機(jī)、專用計(jì)算機(jī)、嵌入式處理機(jī)或其他可編程數(shù)據(jù)處理設(shè)備的處理器以產(chǎn)生一個(gè)機(jī)器,使得通過(guò)計(jì)算機(jī)或其他可編程數(shù)據(jù)處理設(shè)備的處理器執(zhí)行的指令產(chǎn)生用于實(shí)現(xiàn)在流程圖一個(gè)流程或多個(gè)流程和/或方框圖一個(gè)方框或多個(gè)方框中指定的功能的裝置。這些計(jì)算機(jī)程序指令也可存儲(chǔ)在能引導(dǎo)計(jì)算機(jī)或其他可編程數(shù)據(jù)處理設(shè)備以特定方式工作的計(jì)算機(jī)可讀存儲(chǔ)器中,使得存儲(chǔ)在該計(jì)算機(jī)可讀存儲(chǔ)器中的指令產(chǎn)生包括指令裝置的制造品,該指令裝置實(shí)現(xiàn)在流程圖一個(gè)流程或多個(gè)流程和/或方框圖一個(gè)方框或多個(gè)方框中指定的功能。這些計(jì)算機(jī)程序指令也可裝載到計(jì)算機(jī)或其他可編程數(shù)據(jù)處理設(shè)備上,使得在計(jì)算機(jī)或其他可編程設(shè)備上執(zhí)行一系列操作步驟以產(chǎn)生計(jì)算機(jī)實(shí)現(xiàn)的處理,從而在計(jì)算機(jī)或其他可編程設(shè)備上執(zhí)行的指令提供用于實(shí)現(xiàn)在流程圖一個(gè)流程或多個(gè)流程和/或方框圖一個(gè)方框或多個(gè)方框中指定的功能的步驟。盡管已描述了本發(fā)明的優(yōu)選實(shí)施例,但本領(lǐng)域內(nèi)的技術(shù)人員一旦得知了基本創(chuàng)造性概念,則可對(duì)這些實(shí)施例作出另外的變更和修改。所以,所附權(quán)利要求意欲解釋為包括優(yōu)選實(shí)施例以及落入本發(fā)明范圍的所有變更和修改。顯然,本領(lǐng)域的技術(shù)人員可以對(duì)本發(fā)明進(jìn)行各種改動(dòng)和變型而不脫離本發(fā)明的精神和范圍。這樣,倘若本發(fā)明的這些修改和變型屬于本發(fā)明權(quán)利要求及其等同技術(shù)的范圍之內(nèi),則本發(fā)明也意圖包含這些改動(dòng)和變型在內(nèi)。當(dāng)前第1頁(yè)1 2 3