技術(shù)總結(jié)
本發(fā)明提出了一種基于Kinect的視角不變性步態(tài)識(shí)別方法。利用Kinect可以實(shí)時(shí)準(zhǔn)確估計(jì)人體關(guān)節(jié)空間位置信息的優(yōu)勢(shì),將其作為步態(tài)數(shù)據(jù)采集設(shè)備,采集行走過(guò)程中每幀的關(guān)節(jié)空間坐標(biāo)信息。選取了8段關(guān)節(jié)間的距離作為靜態(tài)特征,定義并對(duì)比了上下肢體關(guān)節(jié)擺動(dòng)的角度,選擇出識(shí)別效果最好的一組角度變化作為動(dòng)態(tài)特征。將兩種特征分別用歐式距離與DTW算法與模板進(jìn)行匹配,并使其在匹配層進(jìn)行特征融合后利用最近鄰分類器完成分類識(shí)別。本方法算法簡(jiǎn)單,具有較強(qiáng)的實(shí)時(shí)性,且具有視角不變的特性。
技術(shù)研發(fā)人員:孫建德;王宇飛;李靜
受保護(hù)的技術(shù)使用者:山東師范大學(xué)
文檔號(hào)碼:201610635061
技術(shù)研發(fā)日:2016.08.04
技術(shù)公布日:2017.01.04