欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于注意力機制的Bi-GRU靜脈識別方法

文檔序號:40642565發(fā)布日期:2025-01-10 18:48閱讀:3來源:國知局
基于注意力機制的Bi-GRU靜脈識別方法

本發(fā)明涉及靜脈識別,具體涉及一種基于注意力機制的bi-gru靜脈識別方法。


背景技術(shù):

1、隨著信息產(chǎn)業(yè)的高速發(fā)展和互聯(lián)網(wǎng)的廣泛應用,信息安全變得越來越重要。靜脈識別作為一種新的身份識別技術(shù),相比指紋、人臉,不易復制、偽造、破壞,在高安全性應用領(lǐng)域具有不可替代性,擁有廣闊的應用前景。然而,靜脈特征的成像質(zhì)量受到各種因素,如環(huán)境光照、環(huán)境溫度、用戶行為等的影響,手指靜脈身份識別技術(shù)面臨著嚴峻的挑戰(zhàn)。例如,在識別過程中,用戶手指的翻轉(zhuǎn)會改變?nèi)S血管在二維平面上的投影視角,導致了靜脈特征的多義性,即同一手指靜脈血管可能存在不同的二維平面投影,降低了系統(tǒng)的識別精度。

2、為解決這一問題,現(xiàn)有技術(shù)中提出了基于多視角手指靜脈圖像序列的識別方法,將輸入的不同視角的手指靜脈圖像作為按一定順序的圖像序列進行處理;然而,目前現(xiàn)有技術(shù)給出的各類識別方法的精確度和穩(wěn)定性還有待提高。


技術(shù)實現(xiàn)思路

1、為解決現(xiàn)有技術(shù)中基于多視角手指靜脈圖像序列的識別方法的精確度有待提升的問題,本發(fā)明提供了一種基于注意力機制的bi-gru靜脈識別方法,包括:

2、步驟1:采用以下策略建立基于注意力機制的bi-gru模型:

3、該模型主要由下采樣層、特征編碼模塊、時間注意力模塊、尺度注意力模塊和融合模塊組成;

4、下采樣層將多視角手指靜脈圖像序列中的t個圖像均映射為多個尺度的特征譜,其中,將同一圖像通過不同次數(shù)的下采樣來的得到m個尺度的特征譜t=1,2…t,m=1,2,…,m;

5、特征編碼模塊將每個特征譜均被劃分為n個特征塊,再將每個特征塊轉(zhuǎn)換為特征向量,進而形成單個尺寸下單個圖像的特征矩陣;

6、時間注意力模塊中,取各圖像在單個尺度下的特征矩陣形成序列,進而得到單個尺度下的特征序列,各尺寸下的特征序列分別輸入到注意力雙向gru模塊,在該模塊中學習同一尺度下的特征譜之間的時間依賴關(guān)系;

7、所述注意力雙向gru模塊中包含兩行注意力gru模塊,每行中注意力gru模塊的數(shù)量等于單個尺度下的特征譜序列中特征譜的數(shù)量,即多視角手指靜脈圖像序列中圖像的數(shù)量,每行中的注意力gru模塊均與作為輸入的特征譜序列中的特征譜依次對齊,但各行的注意力gru模塊均依次級聯(lián)但級聯(lián)方向相反,分別稱為前向過程和后向過程;

8、前向過程和后向過程的最終輸出經(jīng)過拼接和線性映射得到特征矩陣

9、尺度注意力模塊中,設(shè)為第t個時刻的,第m個尺度的,第n個特征向量,共有m個第t時刻的第n,n=1,2…,n,個特征向量記為將同一時間下不同尺度的向量分別輸入到注意力gru模塊中學習尺度關(guān)系依賴,所有的輸出記為最后利用非線性映射將每個尺度的輸出融合為計算第t個時刻的n個特征向量序列的取平均得到zt,最后對t個時刻的zt取平均得到

10、融合模塊中,以所有具有不同尺度的特征譜序列作為輸入,首先通過卷積算子將的通道數(shù)增加兩倍,然后通過步長為2的間隔采樣將其分割成四個特征子圖

11、然后,可通過下式計算這四個特征矩陣上的每個點上的得分,形成得分矩陣

12、

13、其中,log為對數(shù)函數(shù),abs為取絕對值運算;

14、基于上述計算出的得分矩陣提取特征子圖間同一位置上得分最高的特征值點形成新的特征矩陣再將其與下一尺度的特征譜進行融合更新如下:

15、

16、逐級的進行更新和遞推,得到沿尺度方向融合的特征矩陣計算每個時刻上的xt′內(nèi)的每個點的得分,進而得到得分矩陣st如下:

17、st=sigmoid(log(abs(xt′))),t=1,2,…,t

18、基于上述計算出的得分矩陣st,提取個時刻特征矩陣間同一位置上得分最高的特征值點形成便沿時間方向融合的特征矩陣y′:

19、再經(jīng)過如特征編碼模塊中相同的方法將特征矩陣y′分為n個特征向量,記為y″n;

20、計算n個特征向量的平均值得到y(tǒng)fusion,再與yattention相加輸出o,用于后續(xù)的分類任務;

21、步驟2:利用訓練好的基于注意力機制的bi-gru模型進行靜脈圖像的分類識別。

22、進一步的,特征編碼模塊中,令x1:t是一個多視角手指靜脈圖像序列x1,x2,…,xt,對于第t幅圖像xt∈rw×h,其中w表示寬度、h表示高度;

23、特征編碼模塊中,使用卷積核大小為3×3,通道數(shù)為64的卷積算子對xt進行下采樣,輸出的特征譜表示為

24、以此類推,下一次的卷積和下采樣運算也使用3×3的卷積核,但是通道數(shù)會進行翻倍,輸出的特征譜可以表示為經(jīng)過m次的卷積和下采樣操作后,得到m個不同尺度的特征譜

25、進一步的,特征編碼模塊中,使用輸出通道為d、卷積核大小為p×p、步長為p的卷積對進行卷積運算得到n個特征向量,表示為n=1,2,…,n,其中n=((w/2)×(h/2))/(p×p);n個特征向量組合為一個矩陣

26、對于后續(xù)的m=2,3,…m,使用輸出通道為d,卷積核大小為(p/2m-1)×(p/2m-1)、步長為(p/2m-1)的卷積進行分塊和拉伸,得到

27、進一步的,所述注意力gru模塊包含三個門控:重置門、選擇門和更新門;

28、重置門負責確定需要保留前一刻的哪些時序信息,選擇門負責決定當前特征矩陣與前一時刻的哪些特征矩陣進行時序信息的交互,更新門用于決定前一刻的時序信息對當前時序信息的影響。

29、進一步的,所述注意力gru模塊中,取作為當前時刻的輸入,令為第m個尺度上的前一個隱藏狀態(tài)的輸出,將通過多層感知機映射為三個矩陣和經(jīng)過多層感知機轉(zhuǎn)換為三個矩陣km、k′m和vm;

30、每個門控的選擇由sigmoid激活函數(shù)做出,各門控的計算過程如下所示:

31、

32、

33、

34、

35、

36、

37、其中,thres為閾值,取值范圍為0≤thres≤1,σ為sigmoid激活函數(shù),0≤σ(·)≤1,和為和的關(guān)系矩陣,為重置門,和為更新門,當前時刻的輸出由以下方式獲得:

38、

39、其中,tanh為雙曲正切函數(shù),concat為拼接函數(shù),為當前時刻的隱藏狀態(tài),最后,經(jīng)過非線性映射即可得到當前時刻的輸出

40、

41、其中:w′為此處的非線性映射網(wǎng)絡中的系數(shù)矩陣,b′為此處的非線性映射中的偏執(zhí)。

42、進一步的,記t時刻的前向過程和后向過程的輸出分別為和將前向過程和后向過程的輸出進行線性映射得如下:

43、

44、其中:w1、w2為相應線性映射網(wǎng)絡中的系數(shù)矩陣,g為線性映射函數(shù)。

45、進一步的,尺度注意力模塊中,利用非線性映射將每個尺度的輸出融合為如下:

46、

47、其中:w″為此處的非線性映射網(wǎng)絡中的系數(shù)矩陣,b″為此處非線性映射中的偏執(zhí)。

48、進一步的,融合模塊中,特征子圖的計算過程如下:

49、

50、其中,conv為卷積核大小為1×1的卷積算子,split表示通過步長為2的間隔采樣方法。

51、進一步的,提取特征子圖間同一位置上得分最高的特征值點形成新的特征矩陣的過程如下所示:

52、

53、

54、進一步的,提取各時刻特征矩陣間同一位置上得分最高的特征值點形成便沿時間方向融合的特征矩陣y′的過程如下:

55、

56、

57、本發(fā)明中引入的注意力gru相較于注意力lstm可以更好地提取多視角手指靜脈圖像間的特征信息,更適用于多視角手指靜脈小數(shù)據(jù)集。尺度注意力模塊則可以有效地提取靜脈圖像序列的尺度特征信息。融合模塊提出的緊湊的特征信息(尺度、時間和空間特征信息)可以對靜脈圖像序列進行表示。模型中的時間注意力模塊、尺度注意力模塊和融合模型提取的特征信息融合后,可以有效地對多視角手指靜脈圖像序列進行建模,通過實驗證明,該模型相對于現(xiàn)有技術(shù)具有跟高的識別精度。

當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
家居| 两当县| 通榆县| 望奎县| 巍山| 仙居县| 广德县| 怀化市| 钟祥市| 孝义市| 新沂市| 五家渠市| 大悟县| 南部县| 吉木乃县| 普洱| 营山县| 保德县| 临颍县| 长岛县| 涟水县| 洮南市| 方正县| 泸定县| 获嘉县| 宝坻区| 吕梁市| 榆树市| 兰坪| 黄骅市| 土默特右旗| 河津市| 长岛县| 衢州市| 株洲县| 余干县| 五寨县| 斗六市| 香港| 漳平市| 安平县|