欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于多元線性回歸聯(lián)想記憶模型的指紋和人臉耦合識別方法與流程

文檔序號:11691286閱讀:241來源:國知局
基于多元線性回歸聯(lián)想記憶模型的指紋和人臉耦合識別方法與流程

本發(fā)明涉及圖像數(shù)據(jù)保存技術(shù)領(lǐng)域,具體的說是一種基于多元線性回歸聯(lián)想記憶模型的指紋和人臉耦合識別方法。



背景技術(shù):

隨著大數(shù)據(jù)時代的發(fā)展,人們通常將日常的照片甚至身份證件照片保存至數(shù)據(jù)庫中,這樣容易被黑客盜取私人信息,來進(jìn)行販賣或者進(jìn)行違法犯罪活動,這樣人們的私人信息被泄露,日常生活容易被打擾甚至卷入犯罪事件當(dāng)中,容易造成諸多不便。

在一些需要進(jìn)行身份信息進(jìn)行驗證的機構(gòu),通常會采集人們的身份信息進(jìn)行身份驗證。例如采集人們的人臉信息或者指紋信息。信息量少,身份核對可信度不高。并且在對人們的身份信息進(jìn)行保存時,通常是直接保存,未對對照片進(jìn)行處理保存,安全系數(shù)低,身份信息容易被盜取。當(dāng)身份信息數(shù)據(jù)庫一旦遭遇不法分子的攻擊,身份信息極為容易被盜取來進(jìn)行違法活動,給人們造成不必要的麻煩。



技術(shù)實現(xiàn)要素:

針對上述問題,本發(fā)明提供了一種基于多元線性回歸聯(lián)想記憶模型的指紋和人臉耦合識別方法,結(jié)合聯(lián)想記憶和多元線性回歸模型,將人臉圖片、指紋圖片轉(zhuǎn)換成一系列參數(shù)進(jìn)行保存,實現(xiàn)雙重身份驗證,安全性高,可靠性好,。

為達(dá)到上述目的,本發(fā)明采用的具體技術(shù)方案如下:

一種基于多元線性回歸聯(lián)想記憶模型的指紋和人臉耦合識別方法,其關(guān)鍵在于包括以下步驟:

s1:采集人群的指紋圖片和人臉圖片,對采集到的指紋圖片和人臉圖片進(jìn)行分組編號;

s2:通過設(shè)置二值圖亮度閾值,將步驟s1得到的所有指紋圖片和人臉圖片處理為二值圖片,得到指紋圖片的聯(lián)想記憶輸入矩陣和輸出矩陣和人臉圖片的聯(lián)想記憶輸入矩陣和輸出矩陣;

s3:利用細(xì)胞神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),構(gòu)建兩個帶有回歸參數(shù)的多元線性回歸圖片識別模型,分別為多元線性回歸指紋圖片識別模型和多元線性回歸人臉圖片識別模型;

s4:根據(jù)步驟s2得到的指紋圖片和人臉圖片的聯(lián)想記憶輸入矩陣、輸出矩陣和步驟s3得到的兩個多元線性回歸圖片識別模型,分別計算步驟s3中的所述回歸參數(shù),最終確定多元線性回歸指紋圖片識別模型、多元線性回歸人臉圖片識別模型;

s5:基于自聯(lián)想記憶準(zhǔn)則,對指紋圖片和人臉圖片分別進(jìn)行識別。

進(jìn)一步地,在進(jìn)行身份驗證時,需要同時獲取該用戶的指紋圖片和人臉圖片進(jìn)行雙重核對。

當(dāng)有其中一個圖片核對有問題,則核對失敗。實現(xiàn)雙重核對,可信度高,提高了身份信息保存的可靠性。

進(jìn)一步地,所述二值圖亮度閾值k=(0,1,2,3...255);

在步驟s1中包括m組圖片,對應(yīng)的編號為1,2,3...m,所有指紋圖片和人臉圖片均由n行m列個的像素點組成,像素點個數(shù)為n=n×m;

設(shè)指紋的二值圖矩陣為聯(lián)想記憶的輸入矩陣γ′=(x′1,x′2,…,x′i,…,x′m),i∈{1,2,…,m},表示第i幅指紋的二值圖中所有的像素點組成的輸入向量,其中,表示在第i幅指紋的二值圖中的第j個像素點的輸入值;

設(shè)指紋的二值圖矩陣為聯(lián)想記憶的輸出矩陣表示第i幅指紋的二值圖中所有的像素點組成的輸出向量,其中,表示在第i幅指紋的二值圖中的第j個像素點的輸出值;

設(shè)人臉的二值圖矩陣為聯(lián)想記憶的輸入矩陣γ″=(x″1,x″2,…,x″i,…,x″m),i∈{1,2,…,m},表示第i幅人臉的二值圖中所有的像素點組成的輸入向量,其中,表示在第i幅人臉的二值圖中的第j個像素點的輸入值;

設(shè)人臉的二值圖矩陣為聯(lián)想記憶的輸出矩陣表示第i幅人臉的二值圖中所有的像素點組成的輸出向量,其中,表示在第i幅人臉的二值圖中的第j個像素點的輸出值。

再進(jìn)一步描述,步驟s3的具體內(nèi)容為::

基于細(xì)胞神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)構(gòu)建的多元線性回歸指紋圖片識別模型,具體為:

其中,i=1,2,…,n;j=1,2,…,m;k1(i,r)=max{1-i,-r};k2(i,r)=min{n-i,r};l1(j,r)=max{1-j,-r};l2(i,r)=min{m-i,r};r是表示模板半徑,為輸入?yún)?shù),是輸出,是輸入,是偏移量,是輸入模板;

輸入模板的表達(dá)式如下:

令r為1,則等式(2)中

公式(1)改寫為:

y′=a′x′+v′(3)

其中,輸入向量:

輸出向量

偏移量

記憶矩陣a′和偏移量v′為所述回歸參數(shù),記憶矩陣a′=(a′ij)n×n可以寫成如下形式:

其中,

基于細(xì)胞神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)構(gòu)建的多元線性回歸人臉圖片識別模型,具體為:

其中,i=1,2,…,n;j=1,2,…,m;k1(i,r)=max{1-i,-r};k2(i,r)=min{n-i,r};l1(j,r)=max{1-j,-r};l2(i,r)=min{m-i,r};r是表示模板半徑,為輸入?yún)?shù),是輸出,是輸入,是偏移量,是輸入模板;

輸入模板的表達(dá)式如下:

令r為1,則等式(7)中

公式(6)改寫為:

y″=a″x″+v″(8)

其中,輸入向量:

輸出向量

偏移量

記憶矩陣a″和偏移量v″為所述回歸參數(shù),記憶矩陣a″=(a″ij)n×n可以寫成如下形式:

其中,

再進(jìn)一步描述,步驟s4中計算步驟s3中的未知回歸參數(shù)的具體步驟為:s41:令向量

令y'=((y″1)t,(y″2)t,…,(y″i)t,…,(y″m)t)t;y″=((y″1)t,(y″2)t,…,(y″i)t,…,(y″m)t)t;

其中y′i和y″i分別表示第i幅指紋二值圖和人臉二值圖中所有的像素點組成的列向量;

令l∈{1,2,…,m}和q∈{1,2,…,n},

則由公式(3)可得:

x′·l′=y(tǒng)′(11)

公式(8)可得:

x″·l″=y(tǒng)″(12)

其中,l′和l″為常數(shù)。

s42:在自聯(lián)想記憶準(zhǔn)則中,存在:

將步驟s2中得到的指紋圖片聯(lián)想記憶輸入矩陣γ′=(x′1,x′2,…,x′i,…,x′m)和輸出矩陣帶入公式(11)中,將步驟s2中得到的指紋圖片聯(lián)想記憶輸入矩陣γ″=(x″1,x″2,…,x″i,…,x″m)和輸出矩陣帶入公式(12)中,并且將γ′轉(zhuǎn)化為x′,將轉(zhuǎn)化為y',γ″轉(zhuǎn)化為x″,將轉(zhuǎn)化為y″,得到x′·l1=y(tǒng)'和x″·l2=y(tǒng)″,得出l′=l1=pinv(x′)·y'和l″=l2=pinv(x″)·y″;

s43:將步驟s42得到的偏移v′i和輸入模板帶入公式(4)、(5),得到記憶矩陣a′和偏移量v′,得出多元線性回歸指紋圖片識別模型;

將步驟s42得到的偏移v″i和輸入模板帶入公式(9)、(10),分別,得到記憶矩陣a″和偏移量v″,得到多元線性回歸人臉圖片識別模型。

再進(jìn)一步描述,步驟s5中對指紋圖片和人臉圖片進(jìn)行識別的具體步驟為:

s51:獲取指紋圖片和人臉圖片,分別得到指紋圖片和人臉圖片的輸入矩陣;

s52:將指紋圖片輸入矩陣輸入到多元線性回歸指紋圖片識別模型中得到指紋圖片的模型輸出矩陣,將人臉圖片輸入矩陣輸入到多元線性回歸人臉圖片識別模型中得到人臉圖片的模型輸出矩陣;

s53:將步驟s51得到的輸入矩陣與步驟s52得到的模型輸出矩陣分別對指紋圖片和人臉圖片進(jìn)行匹配;

s54:設(shè)指紋圖片匹配成功率為h1,人臉圖片匹配成功率為h2,判斷身份驗證匹配度h是否大于匹配設(shè)定值h,其中h=h1×h2,h=0~1;若是,為匹配成功,否則匹配失敗。其中要滿足h1≥h0,h2≥h0。

本發(fā)明的有益效果:將自聯(lián)想記憶和多元線性回歸模型相結(jié)合,將指紋圖片和人臉圖片轉(zhuǎn)化成一系列參數(shù)進(jìn)行保存,身份信息包括指紋和人臉圖片,驗證可靠度高,并且對圖片的保存方式隱秘性強,安全系數(shù)高,有效防止人們身份信息被泄露;采用將圖片經(jīng)模型轉(zhuǎn)化成參數(shù)的形式,簡單方便,實用性好,圖片識別效果好,對人臉圖片和指紋圖片保護(hù)效果好。

附圖說明

圖1是本發(fā)明的圖片識別方法流程圖;

圖2是多元線性回歸指紋圖片識別模型位置參數(shù)求解原理圖;

圖3是多元線性回歸人臉圖片識別模型位置參數(shù)求解原理圖。

具體實施方式

下面結(jié)合附圖對本發(fā)明的具體實施方式以及工作原理作進(jìn)一步詳細(xì)說明。

從圖1可以看出,一種基于多元線性回歸聯(lián)想記憶模型的指紋和人臉耦合識別方法,包括以下步驟:

s1:采集人群的指紋圖片和人臉圖片,對采集到的指紋圖片和人臉圖片進(jìn)行分組編號;

在進(jìn)行身份信息保存時,需要同時獲取該用戶的指紋圖片和人臉圖片進(jìn)行雙重核對。

若其中一個圖片的匹配成功率低于h設(shè)定值h,將身份信息識別失敗,識別系統(tǒng)可靠性高,提高了身份信息保存可靠性。

s2:通過設(shè)置二值圖亮度閾值,將指紋圖片和人臉圖片處理為二值圖片,得到指紋圖片的聯(lián)想記憶輸入矩陣和輸出矩陣和人臉圖片的聯(lián)想記憶輸入矩陣和輸出矩陣;

所述二值圖亮度閾值k=(0,1,2,3...255);在本實施例中,設(shè)置k=100。

在步驟s1中包括m組圖片,對應(yīng)的編號為1,2,3...m,所有指紋圖片和人臉圖片均由n行m列個的像素點組成,像素點個數(shù)為n=n×m;

設(shè)指紋的二值圖矩陣為聯(lián)想記憶的輸入矩陣γ′=(x′1,x′2,…,x′i,…,x′m),i∈{1,2,…,m},表示第i幅指紋的二值圖中所有的像素點組成的輸入向量,其中,表示在第i幅指紋的二值圖中的第j個像素點的輸入值;

設(shè)指紋的二值圖矩陣為聯(lián)想記憶的輸出矩陣表示第i幅指紋的二值圖中所有的像素點組成的輸出向量,其中,表示在第i幅指紋的二值圖中的第j個像素點的輸出值;

設(shè)人臉的二值圖矩陣為聯(lián)想記憶的輸入矩陣γ″=(x″1,x″2,…,x″i,…,x″m),i∈{1,2,…,m},表示第i幅人臉的二值圖中所有的像素點組成的輸入向量,其中,表示在第i幅人臉的二值圖中的第j個像素點的輸入值;

設(shè)人臉的二值圖矩陣為聯(lián)想記憶的輸出矩陣表示第i幅人臉的二值圖中所有的像素點組成的輸出向量,其中,表示在第i幅人臉的二值圖中的第j個像素點的輸出值。

在本實施例中,二值圖片中黑色像素點(0)映射為-1,將二值圖片中白色像素點(255)映射為1。

s3:利用細(xì)胞神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),構(gòu)建兩個帶有回歸參數(shù)的多元線性回歸圖片識別模型,分別為多元線性回歸指紋圖片識別模型和多元線性回歸人臉圖片識別模型;

在本實施例中,基于細(xì)胞神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搭建多元線性回歸指紋圖片識別模型和多元線性人臉圖片識別模型,具體為:

基于細(xì)胞神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)構(gòu)建的多元線性回歸指紋圖片識別模型,具體為:

其中,i=1,2,…,n;j=1,2,…,m;k1(i,r)=max{1-i,-r};k2(i,r)=min{n-i,r};l1(j,r)=max{1-j,-r};l2(i,r)=min{m-i,r};r是表示模板半徑,為輸入?yún)?shù),是輸出,是輸入,是偏移量,是輸入模板;

輸入模板的表達(dá)式如下:

令r為1,輸入模板的表達(dá)式中

將公式改寫為:

y′=a′x′+v′

其中,輸入向量:

輸出向量

偏移量

記憶矩陣a′和偏移量v′為所述回歸參數(shù),記憶矩陣a′=(a′ij)n×n可以寫成如下形式:

其中,

基于細(xì)胞神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)構(gòu)建的多元線性回歸人臉圖片識別模型,具體為:

其中,i=1,2,…,n;j=1,2,…,m;k1(i,r)=max{1-i,-r};k2(i,r)=min{n-i,r};l1(j,r)=max{1-j,-r};l2(i,r)=min{m-i,r};r是表示模板半徑,為輸入?yún)?shù),是輸出,是輸入,是偏移量,是輸入模板;

輸入模板的表達(dá)式如下:

令r為1,則輸入模板的表達(dá)式中

公式改寫為:

y″=a″x″+v″

其中,輸入向量:

輸出向量

偏移量

記憶矩陣a″和偏移量v″為所述回歸參數(shù),記憶矩陣a″=(a″ij)n×n可以寫成如下形式:

其中,

s4:根據(jù)步驟s2得到的指紋圖片和人臉圖片的聯(lián)想記憶輸入矩陣、輸出矩陣和步驟s3得到的兩個多元線性回歸圖片識別模型,分別計算步驟s3中的所述回歸參數(shù),最終確定多元線性回歸指紋圖片識別模型、多元線性回歸人臉圖片識別模型;

步驟s4中計算步驟s3中的回歸參數(shù)的具體步驟為:

s41:令向量

令y′=((y′1)t,(y′2)t,…,(y′i)t,…,(y′m)t)t,y″=((y″1)t,(y″2)t,…,(y″i)t,…,(y″m)t)t;

其中,i∈{1,2,…,m},y′i和y″i分別表示第i幅指紋二值圖和人臉二值圖中所有的像素點組成的列向量;

令l∈{1,2,…,m}和q∈{1,2,…,n},

則由公式y(tǒng)′=a′x′+v′可得:

x′·l′=y(tǒng)'

由公式y(tǒng)″=a″x″+v″可得:

x″·l″=y(tǒng)″

因此,

其中,l′和l″為常數(shù);

s42:在自聯(lián)想記憶準(zhǔn)則中,存在:

將步驟s2中得到的指紋圖片聯(lián)想記憶輸入矩陣γ′轉(zhuǎn)化為x′,輸出矩陣轉(zhuǎn)化為y',帶入公式x′·l′=y(tǒng)',得到l′;將步驟s2中得到的人臉圖片聯(lián)想記憶輸入矩陣γ″轉(zhuǎn)化為x″,輸出矩陣轉(zhuǎn)化為y″,帶入公式x″·l″=y(tǒng)″,得到l″。根據(jù)l′得偏移v′和輸入模板根據(jù)l″得偏移v″和輸入模板

s43:將步驟s42得到的偏移v′i和輸入模板帶入公式

得到記憶矩陣a′和偏移量v′,得出多元線性回歸指紋圖片識別模型;

將步驟s42得到的偏移v″i和輸入模板帶入公式

分別,得到記憶矩陣a″和偏移量v″,得到多元線性回歸人臉圖片識別模型。

s5:基于自聯(lián)想記憶準(zhǔn)則,對指紋圖片和人臉圖片分別進(jìn)行識別。具體為:

s51:獲取指紋圖片和人臉圖片,分別得到指紋圖片和人臉圖片的輸入矩陣;

s52:將指紋圖片輸入矩陣輸入到多元線性回歸指紋圖片識別模型中得到指紋圖片的模型輸出矩陣,將人臉圖片輸入矩陣輸入到多元線性回歸人臉圖片識別模型中得到人臉圖片的模型輸出矩陣;

s53:將步驟s51得到的輸入矩陣與步驟s52得到的模型輸出矩陣分別對指紋圖片和人臉圖片進(jìn)行匹配;

s54:設(shè)指紋圖片匹配成功率為h1,人臉圖片匹配成功率為h2,判斷身份驗證匹配度h是否大于匹配設(shè)定值h,其中h=h1×h2,h=0~1;若是,為匹配成功,否則匹配失敗,其中還需要滿足h1≥h0,h2≥h0,其中h0=0.92

在本實施例中,h=0.9,h0=0.92

應(yīng)當(dāng)指出的是,上述說明并非是對本發(fā)明的限制,本發(fā)明也并不僅限于上述舉例,本技術(shù)領(lǐng)域的普通技術(shù)人員在本發(fā)明的實質(zhì)范圍內(nèi)所做出的變化、改性、添加或替換,也應(yīng)屬于本發(fā)明的保護(hù)范圍。

當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
新巴尔虎左旗| 黑龙江省| 绥芬河市| 洛阳市| 深州市| 专栏| 台东县| 天全县| 高淳县| 九龙县| 大安市| 龙陵县| 大港区| 昆山市| 长汀县| 绵阳市| 长葛市| 龙口市| 韶山市| 枣庄市| 黄陵县| 眉山市| 凤阳县| 岫岩| 成武县| 榆中县| 奉化市| 米泉市| 新晃| 屏东县| 遵化市| 朔州市| 陆川县| 宁南县| 鹿邑县| 文安县| 封丘县| 高陵县| 建瓯市| 平塘县| 陵水|