欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于非線性特征和模型合并的LDA人臉識(shí)別方法與流程

文檔序號(hào):12468558閱讀:212來(lái)源:國(guó)知局
基于非線性特征和模型合并的LDA人臉識(shí)別方法與流程
本發(fā)明屬于圖像處理
技術(shù)領(lǐng)域
,更進(jìn)一步涉及模式識(shí)別
技術(shù)領(lǐng)域
中的一種基于非線性特征和模型合并的線性判別式分析LDA(LinearDiscriminantAnalysis)人臉識(shí)別方法。本發(fā)明可用于視頻監(jiān)控環(huán)境下通過(guò)人臉識(shí)別進(jìn)行人的身份確認(rèn),同時(shí)還可用于在網(wǎng)絡(luò)入口端,通過(guò)人臉識(shí)別對(duì)人員身份進(jìn)行判斷,以及在影像拍攝中通過(guò)人臉識(shí)別對(duì)人物進(jìn)行定位。
背景技術(shù)
:人臉識(shí)別不同于虹膜識(shí)別、指紋識(shí)別等,是比較容易為人們所接受的非侵犯性識(shí)別手段,從而成為計(jì)算機(jī)視覺和模式識(shí)別
技術(shù)領(lǐng)域
需要突破的一種技術(shù)。人臉識(shí)別的主要任務(wù)是根據(jù)提取的待識(shí)別人臉的特征,將其和數(shù)據(jù)庫(kù)中的人臉圖像進(jìn)行比對(duì),確定待識(shí)別人臉的身份。目前,對(duì)任意人臉圖像進(jìn)行識(shí)別的方法通常分為兩類:第一類是基于特征提取的方法,第二類是基于分類器的方法?;谌四樚卣鞯姆椒ㄐ枰獙?duì)人臉進(jìn)行特征提取或選擇,使用LDA提取人臉特征是常用的提取人臉特征的技術(shù),該方法主要通過(guò)求解投影矩陣,使得原始數(shù)據(jù)樣本經(jīng)過(guò)投影后獲得的特征,具有不同類之間的相似性最小同時(shí)同類之間的相似性最大的特點(diǎn),然后利用分類器對(duì)提取到的特征進(jìn)行人臉識(shí)別。該方法存在的不足是,首先無(wú)法提取到人臉非線性的特征,使得提取的特征不準(zhǔn)確,算法魯棒性較差,識(shí)別率較低,其次無(wú)法處理實(shí)時(shí)的問(wèn)題,當(dāng)有新樣本加入時(shí)需要與原有樣本合并到一起計(jì)算投影方向,浪費(fèi)計(jì)算機(jī)資源,最后,大數(shù)據(jù)量的情況下,對(duì)涉及大矩陣特征分解,計(jì)算復(fù)雜并且耗時(shí),計(jì)算結(jié)果也無(wú)法重復(fù)利用,不能應(yīng)用于分布式的場(chǎng)景。Kim等人在其發(fā)表的論文“Incrementallineardiscriminantanalysisusingsufficientspanningsetsanditsapplications”(InternationalJournalofComputerVision,vol.91,no.2,pp.216-232,2011)中提出了一種增量線性判別分析ILDA(IncrementalLinearDiscriminantAnalysis)特征提取方法。該方法首先將新數(shù)據(jù)的特征空間的主成分向量和均值向量投影到原始數(shù)據(jù)的特征空間,分別計(jì)算出對(duì)應(yīng)的殘差向量,并進(jìn)行正交化和旋轉(zhuǎn)處理,獲得最終投影向量;然后利用投影矩陣對(duì)訓(xùn)練樣本和測(cè)試樣本進(jìn)行投影提取特征;最后將提取的特征送入分類器得到人臉識(shí)別結(jié)果。該方法可以較好的應(yīng)用到在線數(shù)據(jù)量較大的實(shí)際情況,但是,該方法仍然存在的不足之處,首先是該方法使用線性的特征提取方式,忽略了數(shù)據(jù)中可能存在的非線性特征,從而降低了人臉識(shí)別率,其次是計(jì)算復(fù)雜和計(jì)算時(shí)間長(zhǎng),不能用于分布式場(chǎng)景。西安電子科技大學(xué)在其申請(qǐng)的專利文獻(xiàn)“基于增量線性判別分析的多類標(biāo)場(chǎng)景分類方法”(申請(qǐng)?zhí)枺篊N201510227553.5,公開號(hào):CN104809475A)中公開了一種基于ILDA的多標(biāo)場(chǎng)景分類方法。該方法首先將多類標(biāo)分解成多個(gè)單類標(biāo);其次使用初始樣本計(jì)算初始線性判別分析的變換矩陣,使用新增樣本增量更新線性判別分析的變換矩陣,并將高維數(shù)據(jù)投影到低維空間;再?gòu)慕稻S后的樣本集中隨機(jī)選取訓(xùn)練樣本和測(cè)試樣本,使用單示例多標(biāo)記的K最近鄰分類器對(duì)降維后的特征樣本分類,并得到測(cè)試樣本輸出值;最后,預(yù)測(cè)出測(cè)試樣本的標(biāo)簽,得到分類結(jié)果。該方法可用于快速處理海量高維度并且類別較多的多類標(biāo)數(shù)據(jù)分類問(wèn)題。但是,該方法仍然存在的不足之處是,該方法中使用的是線性的特征提取方式,使得提取的特征不準(zhǔn)確,從而降低了識(shí)別率。技術(shù)實(shí)現(xiàn)要素:本發(fā)明的目的在于克服上述已有技術(shù)的不足,提出一種非線性特征和模型合并的LDA人臉識(shí)別方法。本發(fā)明的技術(shù)方案是:在大量的人臉數(shù)據(jù)到來(lái)時(shí),劃分人臉數(shù)據(jù)樣本集;提取人臉非線性特征集;劃分特征組;構(gòu)建人臉特征模型庫(kù);獲得全局人臉特征模型;求解線性判別式分析LDA的投影矩陣;投影人臉非線性特征集;采用K最近鄰分類器,對(duì)投影后的人臉特征進(jìn)行分類識(shí)別。本發(fā)明實(shí)現(xiàn)的具體步驟如下:(1)劃分人臉數(shù)據(jù)樣本集:(1a)采用向量化方法,將人臉圖像庫(kù)中所有人臉圖片轉(zhuǎn)化為與其類別標(biāo)簽對(duì)應(yīng)的圖像向量;(1b)從每類圖像向量中隨機(jī)選取一定比例的圖像向量作為訓(xùn)練樣本集,其余的圖像向量作為測(cè)試樣本集;(2)提取人臉非線性特征集:采用歐拉公式,分別從訓(xùn)練樣本集和測(cè)試樣本集中提取對(duì)應(yīng)的人臉非線性特征訓(xùn)練集和人臉非線性特征測(cè)試集;(3)劃分特征組:將人臉非線性特征訓(xùn)練集隨機(jī)分成β個(gè)特征組;(4)構(gòu)建人臉特征模型庫(kù):(4a)從所有特征組中任意選取一個(gè)特征組,按照下式,計(jì)算所選特征組的總離散度矩陣和類間離散度矩陣:其中,St表示所選特征組的總離散度矩陣,N表示所選的特征組中特征樣本總數(shù),Σ表示求和操作,m表示所選特征組中特征樣本的序號(hào),ym表示所選特征組中的第m個(gè)特征樣本,μ表示所選特征組的總均值向量,T表示轉(zhuǎn)置操作,Sb表示所選特征組的類間離散度矩陣,c表示所選特征組中特征樣本的類別總數(shù),j表示所選特征組中特征樣本的類別序號(hào),nj表示所選特征組第j類特征樣本的總數(shù),γj表示所選特征組第j類特征樣本的均值;(4b)按照下式,構(gòu)建所選特征組的模型:M={μ,N,P,Λ,Q,Δ,nj,γj}其中,M表示所選特征組的模型,P和Λ分別表示對(duì)總離散度矩陣進(jìn)行特征分解得到特征向量矩陣和特征值矩陣,Q和Δ分別表示對(duì)類間離散度矩陣進(jìn)行特征分解得到特征向量矩陣和特征值矩陣;(4c)判斷是否選完所有的特征組,若是,則執(zhí)行步驟(4d),否則,執(zhí)行步驟(4a);(4d)獲得每一個(gè)特征組對(duì)應(yīng)的人臉特征模型,用所有人臉特征模型組成人臉特征模型庫(kù);(5)獲得全局人臉特征模型:(5a)從人臉特征模型庫(kù)中任意取出兩個(gè)模型,合并所選的兩個(gè)模型,將合并后的模型再放入人臉特征模型庫(kù)中;(5b)判斷人臉特征模型庫(kù)中是否只剩一個(gè)模型,若是,則執(zhí)行步驟(5c),否則,執(zhí)行步驟(5a);(5c)將人臉特征模型庫(kù)中剩下的最后一個(gè)模型作為全局人臉模型;(6)求解線性判別式分析LDA的投影矩陣:(6a)按照下式,計(jì)算輔助矩陣:其中,Ψ表示輔助矩陣,和分別表示全局人臉特征模型中總離散度矩陣的特征向量矩陣和特征值矩陣,-1/2表示對(duì)矩陣中每個(gè)元素求-1/2次冪操作,和分別表示全局人臉特征模型中類間離散度矩陣的特征向量矩陣和特征值矩陣;(6b)對(duì)輔助矩陣進(jìn)行特征分解,得到輔助矩陣的特征向量矩陣;(6c)按照下式,計(jì)算線性判別式分析LDA的投影矩陣:其中,U表示線性判別式分析LDA的投影矩陣,W表示輔助矩陣的特征向量矩陣;(7)投影人臉非線性特征集:采用投影公式,利用線性判別式分析LDA的投影矩陣,對(duì)人臉非線性特征訓(xùn)練集和測(cè)試集分別進(jìn)行投影;(8)采用K最近鄰分類器,對(duì)投影后的人臉特征進(jìn)行分類識(shí)別。與現(xiàn)有技術(shù)相比,本發(fā)明有以下優(yōu)點(diǎn):第一,由于本發(fā)明在人臉識(shí)別中提取到了人臉非線性特征,克服了現(xiàn)有技術(shù)因沒有提取到非線性特征,特征不準(zhǔn)確,算法魯棒性較差,從而降低了分類精度的不足,使得本發(fā)明在人臉識(shí)別的過(guò)程中提高了人臉識(shí)別率。第二,由于本發(fā)明在大數(shù)據(jù)量的人臉識(shí)別中采用劃分特征組,從特征組中提取模型并合并模型的方法,克服了現(xiàn)有技術(shù)因在大數(shù)據(jù)量的情況下,對(duì)大矩陣特征分解,計(jì)算復(fù)雜并且耗時(shí)的不足,使得本發(fā)明在人臉識(shí)別的過(guò)程中具有運(yùn)行時(shí)間較短,使用計(jì)算資源較少的優(yōu)點(diǎn)。第三,由于本發(fā)明在人臉識(shí)別中采用劃分特征組,從特征組中提取模型并合并模型的方法,可以將多次的模型構(gòu)建和合并操作并行化處理,可以用模型替換原始數(shù)據(jù)保存計(jì)算結(jié)果,克服了現(xiàn)有技術(shù)因數(shù)據(jù)量大,計(jì)算結(jié)果無(wú)法重復(fù)利用,不能應(yīng)用于分布式場(chǎng)景的不足,使得本發(fā)明具有應(yīng)用范圍更廣,應(yīng)用更靈活的優(yōu)點(diǎn)。附圖說(shuō)明圖1是本發(fā)明的流程圖;圖2是CMU-PIE數(shù)據(jù)庫(kù)人臉樣本示意圖;圖3是對(duì)圖2加入不同程度黑白塊噪聲后的人臉樣本示意圖;圖4是本發(fā)明仿真結(jié)果對(duì)比的曲線圖。具體實(shí)施方式下面結(jié)合附圖對(duì)本發(fā)明做進(jìn)一步的詳細(xì)描述參照?qǐng)D1,對(duì)本發(fā)明的具體步驟做進(jìn)一步的詳細(xì)描述。步驟1,劃分人臉數(shù)據(jù)樣本集。采用向量化方法,將人臉圖像庫(kù)中所有人臉圖片轉(zhuǎn)化為與其類別標(biāo)簽對(duì)應(yīng)的圖像向量。向量化方法的步驟如下:第一步,從包含類別標(biāo)簽的人臉圖像庫(kù)中隨機(jī)選取一張圖片,將所選圖片中的每一列依次作為一個(gè)列向量;第二步,將所有列向量依次首尾相接,組成所選圖片對(duì)應(yīng)的圖像向量;第三步,判斷是否選完人臉圖像庫(kù)中所有的圖片,若是,則執(zhí)行第四步,否則,執(zhí)行第一步;第四步,完成人臉圖像庫(kù)中所有的圖片的向量化。從每類圖像向量中隨機(jī)選取一定比例的圖像向量作為訓(xùn)練樣本集,其余的圖像向量作為測(cè)試樣本集。隨機(jī)選取一定比例是指,所選取的圖像向量的數(shù)量占所有圖像向量總數(shù)為[20%,80%]中的任意一個(gè)比例。步驟2,提取人臉非線性特征集。采用歐拉公式分別從訓(xùn)練樣本集和測(cè)試樣本集中提取對(duì)應(yīng)的人臉非線性特征訓(xùn)練集和人臉非線性特征測(cè)試集。其中,Y表示包含有人臉非線性特征訓(xùn)練集和人臉非線性特征測(cè)試集的人臉非線性特征集,e(·)表示以自然常數(shù)e為底的指數(shù)操作,i表示虛數(shù)單位符號(hào),α表示常數(shù),其取值范圍為[0.1,1.9],X表示包含有訓(xùn)練樣本集和測(cè)試樣本集的人臉數(shù)據(jù)樣本集。步驟3,劃分特征組。將人臉非線性特征訓(xùn)練集隨機(jī)分成β個(gè)特征組。其中,分組個(gè)數(shù)β的取值為大于1的任意一個(gè)自然數(shù),β應(yīng)滿足通過(guò)分組將每組的特征樣本個(gè)數(shù)限定在[300,500]的范圍內(nèi)的條件。步驟4,構(gòu)建人臉特征模型庫(kù)。第一步,從所有特征組中任意選取一個(gè)特征組,按照下式,計(jì)算所選特征組的總離散度矩陣和類間離散度矩陣:其中,St表示所選特征組的總離散度矩陣,N表示所選的特征組中特征樣本總數(shù),∑表示求和操作,m表示所選特征組中特征樣本的序號(hào),ym表示所選特征組中的第m個(gè)特征樣本,μ表示所選特征組的總均值向量,T表示轉(zhuǎn)置操作,Sb表示所選特征組的類間離散度矩陣,c表示所選特征組中特征樣本的類別總數(shù),j表示所選特征組中特征樣本的類別序號(hào),nj表示所選特征組第j類特征樣本的總數(shù),γj表示所選特征組第j類特征樣本的均值。第二步,按照下式,構(gòu)建所選特征組的模型:M={μ,N,P,Λ,Q,Δ,nj,γj}其中,M表示所選特征組的模型,P和Λ分別表示對(duì)總離散度矩陣進(jìn)行特征分解得到特征向量矩陣和特征值矩陣,Q和Δ分別表示對(duì)類間離散度矩陣進(jìn)行特征分解得到特征向量矩陣和特征值矩陣;第三步,判斷是否選完所有的特征組,若是,則執(zhí)行第四步,否則,執(zhí)行第一步;第四步,獲得每一個(gè)特征組對(duì)應(yīng)的人臉特征模型,用所有人臉特征模型組成人臉特征模型庫(kù)。特征分解是按照下式,將可對(duì)角化矩陣分解為其特征值和特征向量矩陣之積的方法:A=GΦG-1其中,A表示待分解的矩陣,G表示矩陣A的特征向量矩陣,Φ表示矩陣A的特征值矩陣,-1表示矩陣求逆操作;步驟5,獲得全局人臉特征模型。第一步,從人臉特征模型庫(kù)中任意取出兩個(gè)模型,合并所選的兩個(gè)模型,將合并后的模型再放入人臉特征模型庫(kù)中;第二步,判斷人臉特征模型庫(kù)中是否只剩一個(gè)模型,若是,則執(zhí)行第三步,否則,執(zhí)行步驟第一步;第三步,將人臉特征模型庫(kù)中剩下的最后一個(gè)模型作為全局人臉模型。合并所選的兩個(gè)模型的具體步驟如下:按照下式,計(jì)算合并后的模型的總離散度矩陣:其中,表示合并后的模型的總離散度矩陣,P1表示合并中的第一個(gè)模型總離散度矩陣的特征向量矩陣,Λ1表示合并中的第一個(gè)模型總離散度矩陣的特征值矩陣,1/2表示求平方根操作,P2表示合并中的第二個(gè)模型總離散度矩陣的特征向量矩陣,Λ2表示合并中的第二個(gè)模型總離散度矩陣的特征值矩陣,N1表示合并中的第一個(gè)模型的特征樣本總數(shù),N2表示合并中的第二個(gè)模型的特征樣本總數(shù),表示合并后的模型的特征樣本總數(shù),μ1表示合并中的第一個(gè)模型中特征樣本的總均值向量,μ2表示合并中的第二個(gè)模型中特征樣本的總均值向量;按照下式,計(jì)算合并后的模型的類間離散度矩陣:其中,表示合并后的模型的類間離散度矩陣,Q1表示合并中的第一個(gè)模型類間離散度矩陣的特征向量矩陣,Δ1表示合并中的第一個(gè)模型類間離散度矩陣的特征值矩陣,Q2表示合并中的第二個(gè)模型類間離散度矩陣的特征向量矩陣,Δ2表示合并中的第二個(gè)模型類間離散度矩陣的特征值矩陣,N1表示合并中的第一個(gè)模型的特征樣本總數(shù),nk1表示合并中的第一個(gè)模型第k類特征樣本的總數(shù),nk2表示合并中的第二個(gè)模型第k類特征樣本的總數(shù),表示合并后的模型中第k類特征樣本的總數(shù),γk1表示合并中的第一個(gè)模型第k類特征樣本的均值,γk2表示合并中的第一個(gè)模型第k類特征樣本的均值;將合并后特征樣本的總均值、總離散度矩陣的特征向量矩陣、總離散度矩陣的特征值矩陣、類間離散度矩陣的特征向量矩陣、類間離散度矩陣的特征值矩陣、合并后每類特征樣本的個(gè)數(shù)、合并后每類特征樣本均值組成合并后的模型。步驟6,求解線性判別式分析LDA的投影矩陣。按照下式,計(jì)算輔助矩陣:其中,Ψ表示輔助矩陣,和分別表示全局人臉特征模型中總離散度矩陣的特征向量矩陣和特征值矩陣,-1/2表示對(duì)矩陣中每個(gè)元素求-1/2次冪操作,和分別表示全局人臉特征模型中類間離散度矩陣的特征向量矩陣和特征值矩陣。對(duì)輔助矩陣進(jìn)行特征分解,得到輔助矩陣的特征向量矩陣。按照下式,計(jì)算線性判別式分析LDA的投影矩陣:其中,U表示線性判別式分析LDA的投影矩陣,W表示輔助矩陣的特征向量矩陣。步驟7,投影人臉非線性特征集。采用投影公式,利用線性判別式分析LDA的投影矩陣,對(duì)人臉非線性特征訓(xùn)練集和測(cè)試集分別進(jìn)行投影。對(duì)人臉非線性特征訓(xùn)練集和測(cè)試集分別進(jìn)行投影的公式如下:Z=UTY其中,Z表示投影后的人臉特征。步驟8,采用K最近鄰分類器,對(duì)投影后的人臉特征進(jìn)行分類識(shí)別。K最近鄰分類器是一種分類算法,其具體實(shí)現(xiàn)步驟如下:在已知類別的數(shù)據(jù)集中找到與待分類數(shù)據(jù)點(diǎn)距離最近的K個(gè)鄰域點(diǎn),統(tǒng)計(jì)該K個(gè)鄰域點(diǎn)的類別情況,將出現(xiàn)次數(shù)最多的類別作為該數(shù)據(jù)的分類結(jié)果。本發(fā)明中使用的距離度量方式按照下式定義:其中,d表示兩個(gè)數(shù)據(jù)v1和v2的距離,v1和v2表示兩個(gè)數(shù)據(jù)點(diǎn),H表示厄米共軛操作。本發(fā)明的效果可以通過(guò)以下仿真實(shí)驗(yàn)進(jìn)一步說(shuō)明。1.仿真條件:本發(fā)明的仿真實(shí)驗(yàn)采用軟件MATLABR2015a作為仿真工具,計(jì)算機(jī)配置為IntelCorei7/3.6GHz/16G,64位Windows7操作系統(tǒng)。本發(fā)明的仿真實(shí)驗(yàn)使用CMU-PIE人臉數(shù)據(jù)庫(kù)作為實(shí)驗(yàn)數(shù)據(jù),該數(shù)據(jù)庫(kù)是由卡耐基梅隆大學(xué)創(chuàng)建,包含68位志愿者在13種不同姿態(tài)、4種不同表情和43種不同光照的條件下拍攝的超過(guò)41368張的人臉圖像組成。實(shí)驗(yàn)中用C05姿態(tài)(接近正面姿態(tài))子集,C05中包括68個(gè)人,每人有49張圖像,裁剪成64*64的大小,本發(fā)明的圖2是CMU-PIE數(shù)據(jù)庫(kù)人臉樣本示意圖,為驗(yàn)證算法的魯棒性,在每人的圖像中隨機(jī)選取10張圖像加上5%-15%的黑白塊噪聲,圖3是對(duì)圖2加入不同程度黑白塊噪聲后的人臉樣本示意圖。2.仿真實(shí)驗(yàn)內(nèi)容:本發(fā)明的仿真實(shí)驗(yàn)在CMU-PIE人臉數(shù)據(jù)庫(kù)上進(jìn)行,將本發(fā)明的方法分別與現(xiàn)有技術(shù)的線性判別式分析LDA和增量線性判別式分析ILDA兩種特征提取方法在分類識(shí)別上做比較。每次實(shí)驗(yàn)分別從每類圖像中隨機(jī)選擇21張圖像作為訓(xùn)練樣本,剩下的所有圖像作為測(cè)試樣本。實(shí)驗(yàn)過(guò)程中利用每種方法計(jì)算出的投影矩陣對(duì)測(cè)試樣本進(jìn)行投影,利用K最近鄰分類器對(duì)投影后的測(cè)試樣本進(jìn)行分類,得出分類識(shí)別率,其中識(shí)別率高則表示提取的特征更好,魯棒性更好;同時(shí),記錄每種方法計(jì)算出投影矩陣所用的時(shí)間,其中時(shí)間短則表示該方法運(yùn)行快,計(jì)算效率高,節(jié)省計(jì)算資源。實(shí)驗(yàn)中本發(fā)明方法的分組方式采用平均分4組,參數(shù)α為1.1。仿真實(shí)驗(yàn)一共重復(fù)15次,分別取識(shí)別率和運(yùn)行時(shí)間的平均值。本發(fā)明的仿真結(jié)果見表1,實(shí)驗(yàn)中三種方法的平均識(shí)別率隨投影矩陣的列數(shù)變化的曲線圖見圖4。3.實(shí)驗(yàn)結(jié)果和分析表1:采用三種方法在CMU-PIE人臉數(shù)據(jù)庫(kù)上的平均識(shí)別率和平均運(yùn)行時(shí)間表方法類型LDAILDA本發(fā)明方法最高平均識(shí)別率(%)78.5978.9188.18平均運(yùn)行時(shí)間(秒)14.0167.8566.756表1的最高平均識(shí)別率表明,本發(fā)明方法的最高平均識(shí)別率高于現(xiàn)有技術(shù)線性判別式分析LDA和增量線性判別式分析ILDA的最高識(shí)別率,其原因正是由于本發(fā)明方法采用歐拉公式,提取到了非線性特征,特征提取更準(zhǔn)確,使得本發(fā)明方法的識(shí)別率更高,本發(fā)明方法魯棒更強(qiáng)。表1的平均運(yùn)行時(shí)間表明,本發(fā)明求解投影矩陣所用的時(shí)間更短,其原因正是由于本發(fā)明方法,使用分組提取特征模型并合并獲得全局模型的方法,避免大矩陣分解,使得本發(fā)明更加節(jié)省計(jì)算資源,計(jì)算效率更高。圖4是線性判別式分析LDA、增量線性判別式分析ILDA和本發(fā)明方法在CMU-PIE數(shù)據(jù)庫(kù)中進(jìn)行人臉識(shí)別的平均識(shí)別率隨投影矩陣的列數(shù)變化的曲線圖。圖4中,橫坐標(biāo)表示投影矩陣的列數(shù),縱坐標(biāo)表示人臉識(shí)別的平均識(shí)別率(%)。由圖4可見,本發(fā)明方法在不同的投影矩陣列數(shù)下都可以獲得較高的識(shí)別率,說(shuō)明本發(fā)明方法提取的人臉特征更準(zhǔn)確,魯棒性更強(qiáng)。綜上所述,本發(fā)明在人臉識(shí)別中提取到了人臉非線性特征,使得本發(fā)明在人臉識(shí)別的過(guò)程中提高了人臉識(shí)別率。由于本發(fā)明在大數(shù)據(jù)量的人臉識(shí)別中采用劃分特征組,從特征組中提取模型并合并模型的方法,使得本發(fā)明在人臉識(shí)別的過(guò)程中具有運(yùn)行時(shí)間較短,使用計(jì)算資源較少的優(yōu)點(diǎn)。本發(fā)明方法可以將多次的模型構(gòu)建和合并操作并行化處理,可以用模型替換原始數(shù)據(jù)保存計(jì)算結(jié)果,使得本發(fā)明具有應(yīng)用范圍更廣,應(yīng)用更靈活的優(yōu)點(diǎn)。當(dāng)前第1頁(yè)1 2 3 
當(dāng)前第1頁(yè)1 2 3 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
莲花县| 沿河| 繁峙县| 枣庄市| 宜黄县| 贺州市| 滁州市| 威信县| 黑龙江省| 柞水县| 新宾| 蛟河市| 祁门县| 宁蒗| 万年县| 额济纳旗| 临漳县| 海丰县| 乌拉特后旗| 班戈县| 德阳市| 安徽省| 奎屯市| 邵阳县| 秦皇岛市| 万山特区| 滨海县| 雷波县| 桦甸市| 宁强县| 板桥市| 额敏县| 平南县| 谢通门县| 安宁市| 隆尧县| 黎城县| 桦川县| 婺源县| 萝北县| 遂昌县|