欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于卷積神經(jīng)網(wǎng)絡(luò)和雙向局部特征聚合描述向量的掌紋圖像識別方法與流程

文檔序號:11408110閱讀:690來源:國知局
基于卷積神經(jīng)網(wǎng)絡(luò)和雙向局部特征聚合描述向量的掌紋圖像識別方法與流程

本發(fā)明涉及掌紋圖像識別領(lǐng)域,具體涉及一種基于卷積神經(jīng)網(wǎng)絡(luò)和雙向局部特征聚合描述向量的掌紋圖像識別方法。



背景技術(shù):

在生物特征識別技術(shù)中,掌紋識別技術(shù)具有較高的識別精度。掌紋具有唯一性和基本終生不變性,具有豐富的可用于身份識別的信息,并且采集掌紋的設(shè)備價格低廉,掌紋識別技術(shù)也在政府、銀行、社會福利保障、電子商務(wù)和安全防衛(wèi)等領(lǐng)域得到成功應(yīng)用,因此對掌紋識別技術(shù)方法的研究具有重要意義。

對于掌紋識別技術(shù)來說,掌紋圖像特征提取的效果在很大程度上決定了掌紋識別的精度,因此掌紋圖像特征提取被認為是掌紋識別的關(guān)鍵步驟,成為掌紋識別技術(shù)發(fā)展中的重點研究領(lǐng)域之一?,F(xiàn)有的掌紋特征提取方法主要分為基于紋理的特征提取方法、基于結(jié)構(gòu)的特征提取方法、基于子空間的特征提取方法和基于統(tǒng)計的特征提取方法,這些方法從不同角度來實現(xiàn)掌紋圖像可識別特征的提取,對于掌紋圖像識別技術(shù)的發(fā)展起到重要的促進作用。近年來,卷積神經(jīng)網(wǎng)絡(luò)(cnn)作為一種基于多層監(jiān)督學習的人工神經(jīng)網(wǎng)絡(luò),具有較好的容錯性、自適應(yīng)性和自學習能力,有效改善了傳統(tǒng)方法存在的提取特征不充分問題,被廣泛應(yīng)用于圖像分類、物體檢測與識別和目標跟蹤等領(lǐng)域。此外,將cnn網(wǎng)絡(luò)還可以作為基礎(chǔ)特征提取器,并與其他特征提取方法合理相結(jié)合,則有可能獲得更有效的圖像特征表示,從而進一步提高分類、識別或檢測方法的性能。



技術(shù)實現(xiàn)要素:

本發(fā)明的目的在于基于卷積神經(jīng)網(wǎng)絡(luò)(cnn)和雙向局部特征聚合描述向量(bivlad)相結(jié)合,提供一種可以獲取更全面、完整的特征信息、具有更高的識別精度以及更好的魯棒性的掌紋圖像識別方法。

為解決上述技術(shù)問題,本發(fā)明提供技術(shù)方案如下:采用深度學習法預訓練cnn網(wǎng)絡(luò),通過預訓練cnn網(wǎng)絡(luò)提取掌紋圖像卷積特征,然后選擇具有較好判別能力的卷積層特征與vlad方法相結(jié)合,從兩個方向充分應(yīng)用卷積特征中表征的掌紋全局信息和局部信息,并使用分數(shù)層上的融合方法實現(xiàn)雙向特征信息的互補,從而獲得更高的識別精度,具體包括以下步驟:

步驟1:采用深度學習法預訓練cnn網(wǎng)絡(luò),運用預訓練cnn網(wǎng)絡(luò)對給定數(shù)據(jù)庫的一張掌紋圖像進行特征提取,將其中的一層掌紋卷積特征取出形成一個三維特征圖譜;

步驟2:基于步驟1,以三維特征圖譜中表征圖像同一位置的特征元素來構(gòu)建縱向局部特征向量,并利用特征碼本對這張圖像的所有縱向cnn特征進行vlad編碼,獲得縱向局部特征聚合描述向量;其中,特征碼本是基于一定數(shù)量圖像的縱向局部特征向量進行k-means聚類訓練得到的;

步驟3:基于步驟1,以三維特征圖譜中表征整幅掌紋圖像的特征矩陣按行拉伸成向量作為橫向局部特征向量,并利用特征碼本對這張圖像的所有橫向cnn特征進行vlad編碼,獲得橫向局部特征聚合描述向量;其中,特征碼本是基于一定數(shù)量圖像的橫向局部特征向量進行k-means聚類訓練得到的;

步驟4:基于步驟2和3,采用余弦距離對兩類待識別特征與特征模板分別進行縱向和橫向匹配計算,并在分數(shù)層對縱向和橫向匹配分數(shù)進行融合。

其中步驟1包括以下具體步驟:

(1)采用深度學習法預訓練cnn網(wǎng)絡(luò),對于一張大小為n×n的掌紋圖像,作為已訓練好的cnn網(wǎng)絡(luò)的輸入,對其進行特征提取。

(2)在網(wǎng)絡(luò)層的第ll層,可以得到一個大小為nl×nl×dl的三維特征圖譜ml,其中dl是第ll層對應(yīng)的濾波器個數(shù)。

步驟2包括以下步驟:

(1)對于這張掌紋圖像的特征圖譜ml中的每一個坐標為(x,y)的點,可以得到一個dl-維的向量其中1≤x≤nl,1≤y≤nl,稱之為縱向的局部特征向量。這張圖像在第ll層可以得到(nl)2個dl-維的縱向特征向量的集合,即特征矩陣

(2)對于這張圖像,從卷積層ll提取到的每一個縱向局部特征向量都會被分配到離此向量最近的聚類中心

局部特征向量和聚類中心的向量差反應(yīng)出局部特征向量經(jīng)過聚類中心的映射后的分布情況。這張圖像所有的縱向局部特征向量和其對應(yīng)的聚類中心的向量差的集合,為縱向vald聚合特征向量它是一個dl×k-維的向量,我們稱這種編碼方法為vvlad:

其中,是這張掌紋圖像的一個縱向局部特征向量與其對應(yīng)的聚類中心的向量差。聚類中心是由一定數(shù)量的掌紋圖像的縱向cnn特征作為訓練樣本,進行k-means聚類得到的,這k個聚類中心的集合叫做碼本:

步驟3包括以下步驟:

對于這張掌紋圖像的特征圖譜ml,可以得到一個2維的特征矩陣(nl)2×dl,然后提取一個(nl)2-維的向量其中,1≤i≤dl,將其稱之為橫向的局部特征向量。同時,得到dl個(nl)2-維的橫向局部特征向量的集合,即特征矩陣這張圖像的每一個橫向局部特征向量都會被分配到離此向量最近的聚類中心

然后得到一個(nl)2×k-維的橫向vald聚合特征向量稱這種編碼方法為hvlad:

其中,是這張掌紋圖像的一個橫向局部特征向量與其對應(yīng)的聚類中心的向量差。聚類中心是由一定數(shù)量的掌紋圖像的橫向cnn特征作為訓練樣本,進行k-means聚類得到的:

步驟4包括以下具體步驟:

(1)經(jīng)過編碼后得到一張圖像兩種cnn特征的vlad特征向量,采用余弦距離對兩類待識別特征與特征模板分別進行縱向和橫向匹配計算,得到匹配分值。

(2)將兩種特征的匹配分值進行分數(shù)層融合,分數(shù)層融合操作如下:

fj=(f1+f2)/2

其中fj是融合之后的新得分,f1是縱向編碼特征與特征向量模板的匹配分值,f2縱向編碼特征與模特征向量模板的匹配分值。

與現(xiàn)有技術(shù)相比,本發(fā)明的有益效果為:經(jīng)過預訓練的cnn網(wǎng)絡(luò)多層提取特征,選出效果最好的特征。并且對掌紋卷積特征進行雙向的提取,保留了圖像的全局特征和局部特征,減少了掌紋圖像可能會出現(xiàn)的信息丟失現(xiàn)象。經(jīng)過雙向特征的融合,實現(xiàn)了兩個特征信息的相互補充,使用來識別的特征信息更為全面和完整,從而能得到更高的識別精度,具有更好的魯棒性。

附圖說明

圖1為本發(fā)明的一種基于卷積神經(jīng)網(wǎng)絡(luò)和雙向局部特征聚合描述向量的掌紋圖像識別方法的流程圖。

圖2為本發(fā)明的方法在polyu掌紋圖像庫上進行實驗得到的eer比較圖。

具體實施方式

結(jié)合說明書附圖和具體實施方式對發(fā)明作進一步說明。

實施例1

本發(fā)明具體實施上采用的實驗數(shù)據(jù)來自香港理工大學的公開的polyu掌紋數(shù)據(jù)庫。此數(shù)據(jù)庫是目前世界上公開的最大的掌紋數(shù)據(jù)庫,它包含了來自386個不同手掌的7752張灰度bmp格式的掌紋圖像,其中分兩次獲取,每次平均每個掌紋獲取10張圖像。每張掌紋圖像經(jīng)過預處理之后得到roi區(qū)域為128×128像素。本發(fā)明中的實驗選取第一次獲取的3855張掌紋圖像,其中平均每個手掌10張圖像。

本發(fā)明具體實施上采用的cnn網(wǎng)絡(luò)為vgg-f,它是基于imagenet大規(guī)模圖像庫訓練的深度網(wǎng)絡(luò),共有21層,要求的輸入圖像大小為224×224,本發(fā)明用該網(wǎng)絡(luò)來提取掌紋圖像卷積特征。

如圖1所示,本發(fā)明的具體方法包括以下步驟:

步驟一:獲取polyu掌紋圖像庫中的一張掌紋圖像,其大小為128×128,將其放大到224×224像素,然后放入預訓練的vgg-f網(wǎng)絡(luò)中進行特征提取。發(fā)明取出掌紋圖像的第11層卷積特征,并得到這張圖像的特征圖譜m11,大小為13×13×256。

步驟二:從特征圖譜m11中提取圖像的所有縱向局部特征向量大小為256×169,對于這張圖像的每一個大小為256×1的縱向局部特征向量都會被分別分配到與其對應(yīng)的聚類中心圖像的每個特征向量與其對應(yīng)的聚類中心的向量差的集合,形成了它的局部聚合向量大小為(256×400)×1:

其中,將polyu掌紋圖像數(shù)據(jù)庫中的1930張掌紋圖像(來自386個手掌,平均每個手掌5張掌紋圖像)的所有縱向特征矩陣作為聚類樣本,得到聚類中心的集合即縱向特征碼本,大小為256×400,取聚類中心k的值為400。有公式:

步驟三:從特征圖譜m11中提取圖像的所有橫向局部特征向量大小為169×256。對于這張圖像的每一個大小為169×1的橫向局部特征向量都會被分別分配到與其對應(yīng)的聚類中心每個特征向量與其對應(yīng)的聚類中心的向量差的集合,形成了它的局部聚合向量大小為(169×400)×1:

其中,取polyu掌紋圖像數(shù)據(jù)庫中的1930張掌紋圖像(來自386個手掌,平均每個手掌5張掌紋圖像)的所有橫向特征矩陣作為聚類樣本,得到聚類中心的集合即縱向特征碼本,大小為169×400,取聚類中心k的值為400。有公式:

步驟四:通過計算余弦距離對兩類待識別特征與對應(yīng)的特征模板分別進行縱向和橫向匹配,得到匹配分值。然后,將匹配分值都進行分數(shù)級的融合,將兩種方法得到的匹配分值分別做最大值、最小值以及平均值的融合:

fj=(f1+f2)/2

進而,重復以上步驟對數(shù)據(jù)庫中3855張圖像進行特征提取,然后進行同類圖像和異類圖像的匹配,然后對所有匹配結(jié)果進行統(tǒng)計,可得出相對應(yīng)3855張掌紋圖像的等錯誤率eer值,其中cnn+vvald方法得到的eer值為0.14%,cnn+hvlad方法得到的eer值為0.18%。

如圖2所示,最終得到三種融合方法的eer值分別為最大值融合的0.13%、最小值融合的0.10%和平均值融合得到的最好結(jié)果為0.09%。然而,步驟一中,對于由第11層得到的掌紋卷積特征,基于統(tǒng)計結(jié)果,得到3855張掌紋圖像的cnn卷積特征的等錯誤率eer值為0.28%。

根據(jù)以上步驟,本發(fā)明提出了對cnn卷積特征進行雙向提取,然后再進行雙向編碼特征的融合,可以看出,本發(fā)明提出縱向卷積特征vlad編碼方法(vvlad)和橫向卷積特征vlad編碼方法(hvlad)在表現(xiàn)性能上都優(yōu)于僅僅由cnn提取的卷積特征。除此之外,經(jīng)過對這兩種方法得到結(jié)果的分數(shù)層融合,取得了本實驗最好的值即為eer=0.09%。

綜上所述,本發(fā)明提出的基于卷積神經(jīng)網(wǎng)絡(luò)(cnn)和雙向局部特征聚合描述向量(bivlad)的掌紋圖像識別方法具有很好的效果,具有較好的魯棒性。首先預訓練的cnn網(wǎng)絡(luò)可以提取很好的圖像特征。其次,本發(fā)明對掌紋特征從全局和局部兩個方面都進行了提取和編碼,使得掌紋特征的信息保全的更好,得到了圖像特征信息互補,減少信息丟失。另外,通過編碼,使特征更規(guī)范化,更容易進行后期的相似度計算以及匹配,從而提高掌紋識別的精度,大大的降低掌紋圖像的等錯誤率eer。

以上所述,僅為本發(fā)明較佳的具體實施方式,但本發(fā)明的保護范圍并不局限于此,任何熟悉本技術(shù)領(lǐng)域的技術(shù)人員在本發(fā)明披露的技術(shù)范圍內(nèi),根據(jù)本發(fā)明的技術(shù)方案及其發(fā)明構(gòu)思加以等同替換或改變,都應(yīng)涵蓋在本發(fā)明的保護范圍內(nèi)。

當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
武邑县| 鹿泉市| 贺兰县| 雅江县| 南丹县| 东丰县| 贺州市| 乡城县| 永定县| 嘉荫县| 镇安县| 抚州市| 屏东市| 南郑县| 洛阳市| 清徐县| 哈密市| 长春市| 伊川县| 西乌珠穆沁旗| 巩留县| 比如县| 莱阳市| 延津县| 阜宁县| 太仓市| 皮山县| 岱山县| 乃东县| 丰宁| 库车县| 佛坪县| 华阴市| 宁波市| 独山县| 彭水| 仁寿县| 金秀| 玉屏| 临西县| 南靖县|