欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種識(shí)別用戶身份的方法、裝置和物業(yè)服務(wù)機(jī)器人與流程

文檔序號(hào):12468383閱讀:260來(lái)源:國(guó)知局
一種識(shí)別用戶身份的方法、裝置和物業(yè)服務(wù)機(jī)器人與流程

本發(fā)明涉及機(jī)器人制造技術(shù)領(lǐng)域,尤其涉及一種基于深度學(xué)習(xí)的機(jī)器人識(shí)別用戶身份的方法、裝置和物業(yè)服務(wù)機(jī)器人。



背景技術(shù):

隨著科學(xué)技術(shù)的高速發(fā)展,機(jī)器人制造技術(shù)也得以發(fā)展迅速,機(jī)器人的應(yīng)用已逐步進(jìn)入家庭服務(wù)行業(yè)。

物業(yè)服務(wù)機(jī)器人是一種不受環(huán)境、溫度的影響,能夠動(dòng)態(tài)地實(shí)現(xiàn)對(duì)用戶身份識(shí)別的機(jī)器人,該類(lèi)機(jī)器人需要在用戶身份識(shí)別方面有卓越的辨識(shí)能力。

基于目前的機(jī)器視覺(jué)處理技術(shù),機(jī)器人對(duì)于用戶身份的識(shí)別仍然是技術(shù)難點(diǎn),特別是在非特定角度下去實(shí)現(xiàn)用戶身份的識(shí)別更是幾乎無(wú)法實(shí)現(xiàn)。目前機(jī)器人在識(shí)別用戶身份時(shí),則是需要要求用戶固定或靜止于某個(gè)高度和/或角度才能進(jìn)行識(shí)別,顯然這在實(shí)際應(yīng)用過(guò)程中降低了用戶的體驗(yàn)度。

因此,現(xiàn)有技術(shù)急需一種不需要用戶固定或靜止于某個(gè)高度和/或角度的機(jī)器人識(shí)別用戶身份的方法,以提高用戶的體驗(yàn)度。



技術(shù)實(shí)現(xiàn)要素:

有鑒于此,本發(fā)明提供一種識(shí)別用戶身份的方法、裝置和物業(yè)服務(wù)機(jī)器人,不需要用戶固定或靜止于某個(gè)高度和/或角度即可實(shí)現(xiàn)用戶身份的識(shí)別,提高了用戶的體驗(yàn)度。技術(shù)方案如下:

基于本發(fā)明的一方面,本發(fā)明提供一種識(shí)別用戶身份的方法,應(yīng)用于機(jī)器人,所述機(jī)器人包括第一攝像頭和第二攝像頭,所述第一攝像頭和第二攝像頭同步工作,分別用于實(shí)時(shí)獲取視頻圖像信息,所述方法包括:

對(duì)所述第一攝像頭獲取的第一視頻圖像信息進(jìn)行深度處理,獲得深度圖和彩色圖;

對(duì)所述彩色圖和深度圖進(jìn)行處理,確定所述第一視頻圖像信息中的至少一名用戶;

采用人臉定位方法計(jì)算所述第一視頻圖像信息中各個(gè)用戶的人臉位置;

基于所述第一視頻圖像信息中各個(gè)用戶的人臉位置,確定所述第二攝像頭獲取的第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域,所述第一視頻圖像信息和所述第二視頻圖像信息分別為所述第一攝像頭和所述第二攝像頭在同一時(shí)刻分別獲取的視頻圖像信息;

采用人臉特征提取方法對(duì)所述第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域進(jìn)行特征提取,分別獲得每個(gè)人臉區(qū)域?qū)?yīng)的人臉特征信息;

將獲得的人臉特征信息與存儲(chǔ)的預(yù)設(shè)人臉特征信息進(jìn)行比對(duì),所述預(yù)設(shè)人臉特征信息與預(yù)設(shè)用戶身份信息一一對(duì)應(yīng);

當(dāng)比對(duì)一致時(shí),將所述預(yù)設(shè)人臉特征信息對(duì)應(yīng)的預(yù)設(shè)用戶身份信息確定為所述用戶的身份。

優(yōu)選地,所述第一攝像頭為雙目攝像頭,所述第二攝像頭為高清攝像頭。

優(yōu)選地,所述對(duì)所述彩色圖和深度圖進(jìn)行處理,確定所述第一視頻圖像信息中的至少一名用戶包括:

對(duì)所述彩色圖進(jìn)行深度卷積神經(jīng)網(wǎng)絡(luò)Deep CNN的深度學(xué)習(xí),獲得所述第一視頻圖像信息的初步人體檢測(cè)結(jié)果;

基于所述初步人體檢測(cè)結(jié)果,結(jié)合所述深度圖的圖像信息,確定所述第一視頻圖像信息的最終人體檢測(cè)結(jié)果;

根據(jù)所述最終人體檢測(cè)結(jié)果確定所述第一視頻圖像信息中的至少一名用戶。

優(yōu)選地,所述采用人臉定位方法計(jì)算所述第一視頻圖像信息中各個(gè)用戶的人臉位置包括:

采用基于邊框的人臉定位方法計(jì)算所述第一視頻圖像信息中各個(gè)用戶的人臉位置。

優(yōu)選地,所述采用基于邊框的人臉定位方法計(jì)算所述第一視頻圖像信息中各個(gè)用戶的人臉位置之后,所述方法還包括:

再次獲取所述深度圖,并依據(jù)所述深度圖中人臉位置處的深度信息分布情況,排除錯(cuò)誤的人臉位置。

優(yōu)選地,所述采用人臉特征提取方法對(duì)所述第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域進(jìn)行特征提取,分別獲得每個(gè)人臉區(qū)域?qū)?yīng)的人臉特征信息包括:

對(duì)所述第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域進(jìn)行人臉Deep CNN的深度學(xué)習(xí),獲得每個(gè)人臉區(qū)域?qū)?yīng)的人臉Deep CNN特征。

優(yōu)選地,所述將獲得的人臉特征信息與存儲(chǔ)的預(yù)設(shè)人臉特征信息進(jìn)行比對(duì)包括:

采用最臨近KNN最近距離算法,將獲得的人臉特征信息與存儲(chǔ)的預(yù)設(shè)人臉特征信息進(jìn)行比對(duì)。

基于本發(fā)明的另一方面,本發(fā)明還提供一種識(shí)別用戶身份的裝置,包括:

第一攝像頭,用于實(shí)時(shí)獲取第一視頻圖像信息;

第二攝像頭,用于實(shí)時(shí)獲取第二視頻圖像信息,所述第一攝像頭和所述第二攝像頭同步工作,所述第一視頻圖像信息和所述第二視頻圖像信息分別為所述第一攝像頭和所述第二攝像頭在同一時(shí)刻分別獲取的視頻圖像信息;

深度處理模塊,同時(shí)分別與所述第一攝像頭和所述第二攝像頭連接,用于對(duì)所述第一攝像頭獲取的第一視頻圖像信息進(jìn)行深度處理,獲得深度圖和彩色圖,以及用于獲取所述第二攝像頭獲取到的第二視頻圖像信息;

圖片處理模塊,用于對(duì)所述彩色圖和深度圖進(jìn)行處理,確定所述第一視頻圖像信息中的至少一名用戶;

人臉定位模塊,用于采用人臉定位方法計(jì)算所述第一視頻圖像信息中各個(gè)用戶的人臉位置;

人臉區(qū)域確定模塊,用于基于所述第一視頻圖像信息中各個(gè)用戶的人臉位置,確定所述第二攝像頭獲取的第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域;

人臉特征信息提取模塊,用于采用人臉特征提取方法對(duì)所述第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域進(jìn)行特征提取,分別獲得每個(gè)人臉區(qū)域?qū)?yīng)的人臉特征信息;

比對(duì)模塊,用于將獲得的人臉特征信息與存儲(chǔ)的預(yù)設(shè)人臉特征信息進(jìn)行比對(duì),所述預(yù)設(shè)人臉特征信息與預(yù)設(shè)用戶身份信息一一對(duì)應(yīng);

用戶身份確定模塊,用于當(dāng)所述比對(duì)模塊對(duì)比所述獲得的人臉特征信息與存儲(chǔ)的預(yù)設(shè)人臉特征信息一致時(shí),將所述預(yù)設(shè)人臉特征信息對(duì)應(yīng)的預(yù)設(shè)用戶身份信息確定為所述用戶的身份。

優(yōu)選地,所述第一攝像頭為雙目攝像頭,所述第二攝像頭為高清攝像頭。

優(yōu)選地,所述圖片處理模塊包括:

第一處理子模塊,用于對(duì)所述彩色圖進(jìn)行深度卷積神經(jīng)網(wǎng)絡(luò)Deep CNN的深度學(xué)習(xí),獲得所述第一視頻圖像信息的初步人體檢測(cè)結(jié)果;

第二處理子模塊,用于基于所述初步人體檢測(cè)結(jié)果,結(jié)合所述深度圖的圖像信息,確定所述第一視頻圖像信息的最終人體檢測(cè)結(jié)果;

用戶確定子模塊,用于根據(jù)所述最終人體檢測(cè)結(jié)果確定所述第一視頻圖像信息中的至少一名用戶。

優(yōu)選地,所述人臉定位模塊具體用于,采用基于邊框的人臉定位方法計(jì)算所述第一視頻圖像信息中各個(gè)用戶的人臉位置。

優(yōu)選地,還包括:

錯(cuò)誤排除模塊,用于再次獲取所述深度圖,并依據(jù)所述深度圖中人臉位置處的深度信息分布情況,排除錯(cuò)誤的人臉位置。

優(yōu)選地,所述人臉特征信息提取模塊包括人臉Deep CNN深度學(xué)習(xí)網(wǎng)絡(luò);

所述人臉Deep CNN深度學(xué)習(xí)網(wǎng)絡(luò)用于,對(duì)所述第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域進(jìn)行人臉Deep CNN的深度學(xué)習(xí),獲得每個(gè)人臉區(qū)域?qū)?yīng)的人臉Deep CNN特征。

優(yōu)選地,所述比對(duì)模塊具體用于,采用最臨近KNN最近距離算法,將獲得的人臉特征信息與存儲(chǔ)的預(yù)設(shè)人臉特征信息進(jìn)行比對(duì)。

基于本發(fā)明的再一方面,本發(fā)明還提供一種物業(yè)服務(wù)機(jī)器人,包括前文任一項(xiàng)所述的識(shí)別用戶身份的裝置。

本發(fā)明包括第一攝像頭和第二攝像頭,且第一攝像頭和第二攝像頭同步工作,分別用于實(shí)時(shí)獲取視頻圖像信息。本發(fā)明首先對(duì)第一攝像頭獲取到的第一視頻圖像信息進(jìn)行深度處理,獲得深度圖和彩色圖;進(jìn)而對(duì)彩色圖和深度圖進(jìn)行處理,確定出第一視頻圖像信息中的至少一名用戶;進(jìn)一步的,采用人臉定位方法計(jì)算所述第一視頻圖像信息中各個(gè)用戶的人臉位置。在確定出第一視頻圖像信息中各個(gè)用戶的人臉位置后,確定第二攝像頭獲取的第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域,并采用人臉特征提取方法對(duì)所述第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域進(jìn)行特征提取,分別獲得每個(gè)人臉區(qū)域?qū)?yīng)的人臉特征信息;最后將獲得的人臉特征信息與存儲(chǔ)的預(yù)設(shè)人臉特征信息進(jìn)行比對(duì),當(dāng)比對(duì)一致時(shí),將所述預(yù)設(shè)人臉特征信息對(duì)應(yīng)的預(yù)設(shè)用戶身份信息確定為所述用戶的身份。因此,本發(fā)明利用第一攝像頭和第二攝像頭可以實(shí)時(shí)捕捉到處于移動(dòng)狀態(tài)中的用戶的視頻圖像信息,并通過(guò)對(duì)視頻圖像信息的處理和分析識(shí)別出用戶的身份,本發(fā)明無(wú)需用戶固定或靜止于某個(gè)高度和/或角度,關(guān)于用戶身份的識(shí)別過(guò)程可以是在用戶處于移動(dòng)狀態(tài)中自動(dòng)完成的,提高了用戶的體驗(yàn)度。

附圖說(shuō)明

為了更清楚地說(shuō)明本發(fā)明實(shí)施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對(duì)實(shí)施例或現(xiàn)有技術(shù)描述中所需要使用的附圖作簡(jiǎn)單地介紹,顯而易見(jiàn)地,下面描述中的附圖僅僅是本發(fā)明的實(shí)施例,對(duì)于本領(lǐng)域普通技術(shù)人員來(lái)講,在不付出創(chuàng)造性勞動(dòng)的前提下,還可以根據(jù)提供的附圖獲得其他的附圖。

圖1為本發(fā)明提供的一種識(shí)別用戶身份的方法的流程圖;

圖2為本發(fā)明提供的一種識(shí)別用戶身份的裝置的結(jié)構(gòu)示意圖。

具體實(shí)施方式

下面將結(jié)合本發(fā)明實(shí)施例中的附圖,對(duì)本發(fā)明實(shí)施例中的技術(shù)方案進(jìn)行清楚、完整地描述,顯然,所描述的實(shí)施例僅僅是本發(fā)明一部分實(shí)施例,而不是全部的實(shí)施例?;诒景l(fā)明中的實(shí)施例,本領(lǐng)域普通技術(shù)人員在沒(méi)有做出創(chuàng)造性勞動(dòng)前提下所獲得的所有其他實(shí)施例,都屬于本發(fā)明保護(hù)的范圍。

本發(fā)明提供的識(shí)別用戶身份的方法應(yīng)用于機(jī)器人。特別的在本發(fā)明中,機(jī)器人為物業(yè)服務(wù)機(jī)器人,該物業(yè)服務(wù)機(jī)器人設(shè)置有第一攝像頭和第二攝像頭。該第一攝像頭和第二攝像頭實(shí)時(shí)同步工作,分別實(shí)時(shí)獲取其各自捕捉到的視頻圖像信息。具體在本發(fā)明實(shí)施例中,第一攝像頭可以為雙目攝像頭,該雙目攝像頭可以采用1080P的高清攝像頭,其包括的兩個(gè)攝像頭間距15厘米。第二攝像頭可以為高清攝像頭,在本發(fā)明實(shí)際應(yīng)用過(guò)程中,優(yōu)選的雙目攝像頭和高清攝像頭同時(shí)同步捕捉同一方向、位置的視頻圖像信息。

具體的,本發(fā)明提供的一種識(shí)別用戶身份的方法如圖1所示,包括:

步驟101,對(duì)所述第一攝像頭獲取的第一視頻圖像信息進(jìn)行深度處理,獲得深度圖和彩色圖。

本發(fā)明首先對(duì)雙目攝像頭獲取到的第一視頻圖像信息進(jìn)行深度處理,獲得深度圖和彩色圖。

需要說(shuō)明的是,對(duì)于機(jī)器人來(lái)說(shuō),經(jīng)過(guò)步驟101之后,其當(dāng)前一共包括三幅圖,分別為對(duì)深度圖、彩色圖,以及通過(guò)第二攝像頭獲取的第二視頻圖像信息。

步驟102,對(duì)所述彩色圖和深度圖進(jìn)行處理,確定所述第一視頻圖像信息中的至少一名用戶。

本發(fā)明步驟102可以采用如下方式實(shí)現(xiàn):

步驟1021,對(duì)所述彩色圖進(jìn)行Deep CNN(Deep Convolutional Neural Networks,深度卷積神經(jīng)網(wǎng)絡(luò))的深度學(xué)習(xí),獲得所述第一視頻圖像信息的初步人體檢測(cè)結(jié)果。

在本發(fā)明實(shí)施例中,Deep CNN采用faster-RCNN結(jié)構(gòu),該faster-RCNN結(jié)構(gòu)由卷積層網(wǎng)絡(luò),區(qū)域提取網(wǎng)絡(luò)和區(qū)域分類(lèi)網(wǎng)絡(luò)構(gòu)成。將獲得的第一視頻圖像信息輸入至Deep CNN中進(jìn)行深度學(xué)習(xí)后,輸出該第一視頻圖像信息中的初步人體檢測(cè)結(jié)果。例如該第一視頻圖像信息中包括三名用戶,則初步人體檢測(cè)結(jié)果包括該三名用戶的人體檢測(cè)結(jié)果。而對(duì)于發(fā)生重疊的用戶來(lái)說(shuō),則還是只會(huì)輸出一個(gè)人體檢測(cè)結(jié)果。

步驟1022,基于所述初步人體檢測(cè)結(jié)果,結(jié)合所述深度圖的圖像信息,確定所述第一視頻圖像信息的最終人體檢測(cè)結(jié)果。

由于通過(guò)Deep CNN的深度學(xué)習(xí)后,對(duì)于發(fā)生重疊的用戶只會(huì)輸出一名用戶對(duì)應(yīng)的一個(gè)人體檢測(cè)結(jié)果,無(wú)法實(shí)現(xiàn)對(duì)重疊用戶的分開(kāi)識(shí)別,因此本發(fā)明進(jìn)一步通過(guò)獲取深度圖,結(jié)合深度圖的圖像信息,對(duì)發(fā)生重疊的用戶加以區(qū)分,從而分離出單個(gè)的用戶個(gè)體,實(shí)現(xiàn)了識(shí)別重疊用戶的功能,保證了用戶身份識(shí)別的準(zhǔn)確度。

步驟1023,根據(jù)所述最終人體檢測(cè)結(jié)果確定所述第一視頻圖像信息中的至少一名用戶。

例如假設(shè),當(dāng)前彩色圖中一共包括5名用戶,分別為用戶A、用戶B、用戶C、用戶D和用戶E,其中用戶C、用戶D和用戶E發(fā)生重疊,那么本發(fā)明對(duì)該彩色圖進(jìn)行Deep CNN的深度學(xué)習(xí)后,獲得的初步人體檢測(cè)結(jié)果包括用戶A的人體檢測(cè)結(jié)果、用戶B的人體檢測(cè)結(jié)果和用戶C’的人體檢測(cè)結(jié)果,這里用戶C’的人體檢測(cè)結(jié)果表示的是發(fā)生重疊的用戶C、用戶D和用戶E共同對(duì)應(yīng)的人體檢測(cè)結(jié)果。進(jìn)一步,本發(fā)明獲取深度圖,結(jié)合深度圖的圖像信息可以獲知當(dāng)前用戶C’存在重疊問(wèn)題,因此對(duì)用戶C’進(jìn)行分離處理,即將用戶C、用戶D和用戶E分離開(kāi),從而分別得到用戶C、用戶D和用戶E的人體檢測(cè)結(jié)果。最終,本發(fā)明實(shí)現(xiàn)了對(duì)當(dāng)前彩色圖中一共包括的用戶A、用戶B、用戶C、用戶D、用戶E這5名用戶的人體檢測(cè)結(jié)果的確定,即確定出該第一視頻圖像信息中的5名用戶。

步驟103,采用人臉定位方法計(jì)算所述第一視頻圖像信息中各個(gè)用戶的人臉位置。

具體的,本發(fā)明實(shí)施例采用基于邊框的人臉定位方法計(jì)算所述第一視頻圖像信息中各個(gè)用戶的人臉位置。

本發(fā)明中,在步驟102確定出第一視頻圖像信息中5名用戶的人體檢測(cè)結(jié)果后,基于邊框的人臉定位方法會(huì)根據(jù)人體的基本比例,計(jì)算出每個(gè)用戶的人臉的大概位置,然后通過(guò)Haar特征及AdaBoost分類(lèi)器來(lái)找到人臉的具體位置,從而實(shí)現(xiàn)用戶人臉位置的確定。

此外在本發(fā)明實(shí)施例中,為了保證用戶身份識(shí)別的準(zhǔn)確度,本發(fā)明可以再次獲取深度圖,并依據(jù)所述深度圖中人臉位置處的深度信息分布情況,排除錯(cuò)誤的人臉位置。

步驟104,基于所述第一視頻圖像信息中各個(gè)用戶的人臉位置,確定所述第二攝像頭獲取的第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域。其中,所述第一視頻圖像信息和所述第二視頻圖像信息分別為所述第一攝像頭和所述第二攝像頭在同一時(shí)刻分別獲取的視頻圖像信息。

本發(fā)明中的雙目攝像頭和高清攝像頭實(shí)時(shí)同步工作,在同一時(shí)刻能夠獲取到同一方向、位置的視頻圖像信息,因此將雙目攝像頭獲取到的第一視頻圖像信息與高清攝像頭獲取到的第二視頻圖像信息進(jìn)行比對(duì)校準(zhǔn),由此可以基于確定的第一視頻圖像信息中各個(gè)用戶的人臉位置,確定出第二視頻圖像信息中各個(gè)用戶的人臉位置,進(jìn)而獲取該人臉位置處對(duì)應(yīng)的用戶的人臉區(qū)域。

步驟105,采用人臉特征提取方法對(duì)所述第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域進(jìn)行特征提取,分別獲得每個(gè)人臉區(qū)域?qū)?yīng)的人臉特征信息。

本發(fā)明在確定出各個(gè)用戶的人臉區(qū)域后,依次對(duì)每個(gè)人臉區(qū)域采用人臉特征提取方法進(jìn)行特征提取,具體的,本發(fā)明可以對(duì)第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域進(jìn)行人臉Deep CNN的深度學(xué)習(xí),獲得每個(gè)人臉區(qū)域?qū)?yīng)的人臉Deep CNN特征。

在本發(fā)明實(shí)施例中,獲得第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域后,通過(guò)人臉特征信息(如人臉特征點(diǎn))的提取能夠?qū)崿F(xiàn)人臉姿態(tài)校準(zhǔn)。本發(fā)明中的人臉Deep CNN深度學(xué)習(xí)網(wǎng)絡(luò)具有37層,包括16個(gè)卷積層,人臉的檢測(cè)結(jié)果經(jīng)過(guò)校準(zhǔn)之后歸一化到224×224,輸入到人臉Deep CNN深度學(xué)習(xí)網(wǎng)絡(luò)后得到人臉Deep CNN特征。

步驟106,將獲得的人臉特征信息與存儲(chǔ)的預(yù)設(shè)人臉特征信息進(jìn)行比對(duì),所述預(yù)設(shè)人臉特征信息與預(yù)設(shè)用戶身份信息一一對(duì)應(yīng)。

其中,本發(fā)明可以采用KNN(k-Nearest Neighbor,最臨近)最近距離算法,將獲得的人臉特征信息與存儲(chǔ)的預(yù)設(shè)人臉特征信息進(jìn)行比對(duì)。

本發(fā)明包括人臉Deep CNN特征數(shù)據(jù)庫(kù),該人臉Deep CNN特征數(shù)據(jù)庫(kù)是用于對(duì)研發(fā)人員采集的大量圖片信息,利用人臉Deep CNN深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行深度學(xué)習(xí)后,將得到的所有人臉Deep CNN特征進(jìn)行存儲(chǔ)。不同的用戶對(duì)應(yīng)不同的人臉Deep CNN特征,因此,本發(fā)明只要比對(duì)出人臉Deep CNN特征,即可確定出用戶的身份。

步驟107,當(dāng)比對(duì)一致時(shí),將所述預(yù)設(shè)人臉特征信息對(duì)應(yīng)的預(yù)設(shè)用戶身份信息確定為所述用戶的身份。

在本發(fā)明實(shí)施例中,將獲得的人臉特征信息與人臉Deep CNN特征數(shù)據(jù)庫(kù)中存儲(chǔ)的預(yù)設(shè)人臉特征信息進(jìn)行比對(duì)。如果對(duì)比一致,則說(shuō)明當(dāng)前人臉特征信息對(duì)應(yīng)的用戶即為預(yù)設(shè)人臉特征信息對(duì)應(yīng)的用戶,由此便可直接確定用戶的身份。

因此應(yīng)用本發(fā)明的上述技術(shù)方案,本發(fā)明包括第一攝像頭和第二攝像頭,且第一攝像頭和第二攝像頭同步工作,分別用于實(shí)時(shí)獲取視頻圖像信息。本發(fā)明首先對(duì)第一攝像頭獲取到的第一視頻圖像信息進(jìn)行深度處理,獲得深度圖和彩色圖;進(jìn)而對(duì)彩色圖和深度圖進(jìn)行處理,確定出第一視頻圖像信息中的至少一名用戶;進(jìn)一步的,采用人臉定位方法計(jì)算所述第一視頻圖像信息中各個(gè)用戶的人臉位置。在確定出第一視頻圖像信息中各個(gè)用戶的人臉位置后,確定第二攝像頭獲取的第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域,并采用人臉特征提取方法對(duì)所述第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域進(jìn)行特征提取,分別獲得每個(gè)人臉區(qū)域?qū)?yīng)的人臉特征信息;最后將獲得的人臉特征信息與存儲(chǔ)的預(yù)設(shè)人臉特征信息進(jìn)行比對(duì),當(dāng)比對(duì)一致時(shí),將所述預(yù)設(shè)人臉特征信息對(duì)應(yīng)的預(yù)設(shè)用戶身份信息確定為所述用戶的身份。因此,本發(fā)明利用第一攝像頭和第二攝像頭可以實(shí)時(shí)捕捉到處于移動(dòng)狀態(tài)中的用戶的視頻圖像信息,并通過(guò)對(duì)視頻圖像信息的處理和分析識(shí)別出用戶的身份,本發(fā)明無(wú)需用戶固定或靜止于某個(gè)高度和/或角度,關(guān)于用戶身份的識(shí)別過(guò)程可以是在用戶處于移動(dòng)狀態(tài)中自動(dòng)完成的,提高了用戶的體驗(yàn)度。

此外在本發(fā)明上述實(shí)施例中,本發(fā)明使用雙目技術(shù),能采集到更為豐富的深度信息,使機(jī)器人可在不同的運(yùn)用場(chǎng)景中讓企業(yè)根據(jù)自身的需求來(lái)調(diào)整方案,提高機(jī)器人的實(shí)用型和靈活性。且本發(fā)明對(duì)于用戶身份識(shí)別的準(zhǔn)確度較傳統(tǒng)的人臉識(shí)別技術(shù)大幅度提高,這也是保證VIP識(shí)別和迎賓等功能得以有效實(shí)現(xiàn)的關(guān)鍵。

基于前文本發(fā)明提供的一種機(jī)器人識(shí)別用戶身份的方法,本發(fā)明還提供了一種機(jī)器人識(shí)別用戶身份的裝置,如圖2所示,包括:

第一攝像頭100,用于實(shí)時(shí)獲取第一視頻圖像信息;

第二攝像頭200,用于實(shí)時(shí)獲取第二視頻圖像信息,所述第一攝像頭100和所述第二攝像頭200同步工作,所述第一視頻圖像信息和所述第二視頻圖像信息分別為所述第一攝像頭100和所述第二攝像頭200在同一時(shí)刻分別獲取的視頻圖像信息;

深度處理模塊300,同時(shí)分別與所述第一攝像頭100和所述第二攝像頭200連接,用于對(duì)所述第一攝像頭100獲取的第一視頻圖像信息進(jìn)行深度處理,獲得深度圖和彩色圖,以及用于獲取所述第二攝像頭200獲取到的第二視頻圖像信息;

圖片處理模塊400,用于對(duì)所述彩色圖和深度圖進(jìn)行處理,確定所述第一視頻圖像信息中的至少一名用戶;

人臉定位模塊500,用于采用人臉定位方法計(jì)算所述第一視頻圖像信息中各個(gè)用戶的人臉位置;

人臉區(qū)域確定模塊600,用于基于所述第一視頻圖像信息中各個(gè)用戶的人臉位置,確定所述第二攝像頭200獲取的第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域;

人臉特征信息提取模塊700,用于采用人臉特征提取方法對(duì)所述第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域進(jìn)行特征提取,分別獲得每個(gè)人臉區(qū)域?qū)?yīng)的人臉特征信息;

比對(duì)模塊800,用于將獲得的人臉特征信息與存儲(chǔ)的預(yù)設(shè)人臉特征信息進(jìn)行比對(duì),所述預(yù)設(shè)人臉特征信息與預(yù)設(shè)用戶身份信息一一對(duì)應(yīng);

用戶身份確定模塊900,用于當(dāng)所述比對(duì)模塊800對(duì)比所述獲得的人臉特征信息與存儲(chǔ)的預(yù)設(shè)人臉特征信息一致時(shí),將所述預(yù)設(shè)人臉特征信息對(duì)應(yīng)的預(yù)設(shè)用戶身份信息確定為所述用戶的身份。

其中,本發(fā)明中的第一攝像頭100具體為雙目攝像頭,第二攝像頭200具體為高清攝像頭。

所述圖片處理模塊400包括:

第一處理子模塊401,用于對(duì)所述彩色圖進(jìn)行Deep CNN的深度學(xué)習(xí),獲得所述第一視頻圖像信息的初步人體檢測(cè)結(jié)果;

第二處理子模塊402,用于基于所述初步人體檢測(cè)結(jié)果,結(jié)合所述深度圖的圖像信息,確定所述第一視頻圖像信息的最終人體檢測(cè)結(jié)果;

用戶確定子模塊403,用于根據(jù)所述最終人體檢測(cè)結(jié)果確定所述第一視頻圖像信息中的至少一名用戶。

所述人臉定位模塊500具體用于,采用基于邊框的人臉定位方法計(jì)算所述第一視頻圖像信息中各個(gè)用戶的人臉位置。

優(yōu)選的,本發(fā)明還包括:錯(cuò)誤排除模塊1000,用于再次獲取所述深度圖,并依據(jù)所述深度圖中人臉位置處的深度信息分布情況,排除錯(cuò)誤的人臉位置。

人臉特征信息提取模塊700可以具體為人臉Deep CNN深度學(xué)習(xí)網(wǎng)絡(luò);

所述人臉Deep CNN深度學(xué)習(xí)網(wǎng)絡(luò)用于,對(duì)所述第二視頻圖像信息中各個(gè)用戶的人臉區(qū)域進(jìn)行人臉Deep CNN的深度學(xué)習(xí),獲得每個(gè)人臉區(qū)域?qū)?yīng)的人臉Deep CNN特征。

所述比對(duì)模塊800具體用于,采用KNN最近距離算法,將獲得的人臉特征信息與存儲(chǔ)的預(yù)設(shè)人臉特征信息進(jìn)行比對(duì)。

最后,本發(fā)明還提供一種物業(yè)服務(wù)機(jī)器人,包括前文所述的機(jī)器人識(shí)別用戶身份的裝置。

需要說(shuō)明的是,本說(shuō)明書(shū)中的各個(gè)實(shí)施例均采用遞進(jìn)的方式描述,每個(gè)實(shí)施例重點(diǎn)說(shuō)明的都是與其他實(shí)施例的不同之處,各個(gè)實(shí)施例之間相同相似的部分互相參見(jiàn)即可。對(duì)于裝置類(lèi)實(shí)施例而言,由于其與方法實(shí)施例基本相似,所以描述的比較簡(jiǎn)單,相關(guān)之處參見(jiàn)方法實(shí)施例的部分說(shuō)明即可。

最后,還需要說(shuō)明的是,在本文中,諸如第一和第二等之類(lèi)的關(guān)系術(shù)語(yǔ)僅僅用來(lái)將一個(gè)實(shí)體或者操作與另一個(gè)實(shí)體或操作區(qū)分開(kāi)來(lái),而不一定要求或者暗示這些實(shí)體或操作之間存在任何這種實(shí)際的關(guān)系或者順序。而且,術(shù)語(yǔ)“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過(guò)程、方法、物品或者設(shè)備不僅包括那些要素,而且還包括沒(méi)有明確列出的其他要素,或者是還包括為這種過(guò)程、方法、物品或者設(shè)備所固有的要素。在沒(méi)有更多限制的情況下,由語(yǔ)句“包括一個(gè)……”限定的要素,并不排除在包括所述要素的過(guò)程、方法、物品或者設(shè)備中還存在另外的相同要素。

以上對(duì)本發(fā)明所提供的一種識(shí)別用戶身份的方法、裝置和物業(yè)服務(wù)機(jī)器人進(jìn)行了詳細(xì)介紹,本文中應(yīng)用了具體個(gè)例對(duì)本發(fā)明的原理及實(shí)施方式進(jìn)行了闡述,以上實(shí)施例的說(shuō)明只是用于幫助理解本發(fā)明的方法及其核心思想;同時(shí),對(duì)于本領(lǐng)域的一般技術(shù)人員,依據(jù)本發(fā)明的思想,在具體實(shí)施方式及應(yīng)用范圍上均會(huì)有改變之處,綜上所述,本說(shuō)明書(shū)內(nèi)容不應(yīng)理解為對(duì)本發(fā)明的限制。

當(dāng)前第1頁(yè)1 2 3 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
屏边| 临漳县| 新泰市| 三明市| 柘荣县| 泰和县| 岐山县| 南汇区| 施甸县| 靖西县| 黄浦区| 抚远县| 仁怀市| 津市市| 麦盖提县| 东乡| 抚宁县| 沧源| 保德县| 玉溪市| 晴隆县| 和静县| 西乌| 新疆| 灵山县| 河北省| 柳州市| 安泽县| 博爱县| 青龙| 清丰县| 铜鼓县| 枝江市| 全州县| 永年县| 霸州市| 灵璧县| 体育| 长治市| 甘德县| 龙江县|