贅 述。
[0074] 需要說明的,本發(fā)明計(jì)算任意兩個(gè)人臉區(qū)域之間的距離時(shí),可以用人臉區(qū)域的中 點(diǎn)表示人臉區(qū)域,此時(shí)計(jì)算任意兩個(gè)人臉區(qū)域之間的距離可以轉(zhuǎn)換為計(jì)算任意兩個(gè)人臉區(qū) 域?qū)?yīng)的中點(diǎn)之間的距離,其計(jì)算公式可以采用二維平面中兩點(diǎn)之間的距離公式得到。例 如計(jì)算兩個(gè)人臉區(qū)域之間的距離,首先計(jì)算獲得上述兩個(gè)人臉區(qū)域的中點(diǎn)PdPP 2,則兩點(diǎn)Pi 和P2的距離公式為:
[0075]
[0076] 其中PKx)為P^x坐標(biāo),其中PKy)為P^y坐標(biāo),其中P2(x)為P2的X坐標(biāo),其中P 2 (y)為P2的y坐標(biāo)。
[0077] 本發(fā)明提供的目標(biāo)跟蹤方法和裝置,通過采集當(dāng)前視頻圖像的深度圖像和彩色圖 像;根據(jù)所述深度圖像獲取所述深度圖像中的至少兩個(gè)目標(biāo)區(qū)域,并對每個(gè)目標(biāo)區(qū)域?qū)?yīng) 的彩色圖像進(jìn)行人臉檢測,獲得每個(gè)目標(biāo)區(qū)域?qū)?yīng)的人臉區(qū)域;當(dāng)?shù)谝荒繕?biāo)區(qū)域?qū)?yīng)的第 一人臉區(qū)域和第二目標(biāo)區(qū)域?qū)?yīng)的第二人臉區(qū)域之間的距離小于預(yù)設(shè)閾值時(shí),采用核化相 關(guān)濾波器分別對所述第一人臉區(qū)域和所述第二人臉區(qū)域進(jìn)行跟蹤,由于核化相關(guān)濾波器具 有較強(qiáng)的單目標(biāo)跟蹤能力,并且人臉區(qū)域的目標(biāo)特征信息豐富,實(shí)現(xiàn)了對多目標(biāo)的準(zhǔn)確跟 蹤,解決了多個(gè)目標(biāo)交互時(shí)出現(xiàn)的遮擋問題和目標(biāo)陰影干擾問題。
[0078] 進(jìn)一步地,上述實(shí)施例中,在采用核化相關(guān)濾波器分別對所述第一人臉區(qū)域和所 述第二人臉區(qū)域進(jìn)行跟蹤之前,根據(jù)所述彩色圖像獲取所述核化相關(guān)濾波器,也就是說,在 使用核化相關(guān)濾波器之前,需要對核化相關(guān)濾波器進(jìn)行初始化。
[0079] 具體地,首先獲得第一人臉區(qū)域?qū)?yīng)的第一彩色圖像,用該第一次彩色圖像初始 化上述第一核化相關(guān)濾波器,獲得第二人臉區(qū)域?qū)?yīng)的第二彩色圖像,用該第二次彩色圖 像初始化上述第二核化相關(guān)濾波器,此時(shí)該第一核化相關(guān)濾波器中包括了人臉檢測算法獲 得第一人臉區(qū)域信息,第二核化相關(guān)濾波器中包括了人臉檢測算法獲得第二人臉區(qū)域信 息。接著,采用包括了第一人臉區(qū)域信息的第一核化相關(guān)濾波器對第一人臉區(qū)域進(jìn)行跟蹤, 采用包括了第二人臉區(qū)域信息的第二核化相關(guān)濾波器對第二人臉區(qū)域進(jìn)行跟蹤,實(shí)現(xiàn)了多 個(gè)核化相關(guān)濾波器對多個(gè)目標(biāo)進(jìn)行的跟蹤,由于上述核化相關(guān)濾波器分別包括了相應(yīng)的具 有目標(biāo)特征性的人臉區(qū)域?qū)?yīng)的人臉區(qū)域信息,使得目標(biāo)跟蹤更加準(zhǔn)確,當(dāng)目標(biāo)發(fā)生遮擋 時(shí),該核化相關(guān)濾波器也可以實(shí)現(xiàn)對目標(biāo)的準(zhǔn)確跟蹤。
[0080] 本發(fā)明提供的目標(biāo)跟蹤方法,通過采用人臉區(qū)域?qū)?yīng)的彩色圖像對核化相關(guān)濾波 器進(jìn)行初始化獲得,使得核化相關(guān)濾波器包括了具有目標(biāo)特征性的人臉區(qū)域?qū)?yīng)的人臉區(qū) 域信息,提高了核化相關(guān)濾波器獲取目標(biāo)特征的能力,進(jìn)而提高了核化相關(guān)濾波器對目標(biāo) 跟蹤的準(zhǔn)確性。
[0081] 進(jìn)一步地,如圖1所示,本發(fā)明提供的目標(biāo)跟蹤方法還包括,
[0082] 步驟105、當(dāng)所述第一人臉區(qū)域和所述第二人臉區(qū)域之間的距離不小于所述預(yù)設(shè) 閾值時(shí),將所述第一人臉區(qū)域和所述第二人臉區(qū)域作為跟蹤結(jié)果。
[0083] 具體地,當(dāng)判斷第一人臉區(qū)域與第二人臉區(qū)域之間的距離不小于所述預(yù)設(shè)閾值 時(shí),說明此時(shí)第一人臉區(qū)域與第二人臉區(qū)域之間沒有發(fā)生遮擋,不需要使用核化相關(guān)濾波 器對人臉區(qū)域進(jìn)行跟蹤,此時(shí)該第一人臉區(qū)域與第二人臉區(qū)域?yàn)楦櫧Y(jié)果,無需進(jìn)行其他 的目標(biāo)跟蹤計(jì)算,其計(jì)算結(jié)果簡單,降低了目標(biāo)跟蹤計(jì)算的復(fù)雜性,提高了目標(biāo)跟蹤的效 率。
[0084] 本發(fā)明提供的目標(biāo)跟蹤方法,通過判斷判斷第一人臉區(qū)域與第二人臉區(qū)域之間的 距離,當(dāng)?shù)谝蝗四槄^(qū)域與第二人臉區(qū)域之間的距離不小于所述預(yù)設(shè)閾值時(shí),直接以人臉區(qū) 域作為跟蹤結(jié)果,大大降低了目標(biāo)跟蹤的計(jì)算量,提高了目標(biāo)跟蹤的效率。
[0085] 圖4為本發(fā)明提供的目標(biāo)跟蹤方法實(shí)施例二的流程示意圖,本實(shí)施例涉及的是如 果實(shí)現(xiàn)在無人監(jiān)控的情況下,用戶可以通過視頻監(jiān)控系統(tǒng)發(fā)送的報(bào)警信息來實(shí)現(xiàn)對特定標(biāo) 識區(qū)域的具體監(jiān)控過程。在上述實(shí)施例的基礎(chǔ)上,如圖4所示,本發(fā)明提供的目標(biāo)跟蹤方法 還包括;
[0086]步驟201、采集所述當(dāng)前視頻圖像的標(biāo)識區(qū)域。
[0087]具體地,在當(dāng)前視頻圖像上設(shè)定一標(biāo)識區(qū)域,該標(biāo)識區(qū)域可以是在當(dāng)前視頻圖像 上用鼠標(biāo)繪制的一個(gè)平面區(qū)域,也可以是通過輸入坐標(biāo)獲得的區(qū)域,該標(biāo)識區(qū)域可以為一 個(gè)多邊形,視頻監(jiān)控系統(tǒng)可以采集到該多邊形頂點(diǎn)的坐標(biāo)。
[0088] 可選的,該步驟201可以與上述步驟101同時(shí)進(jìn)行,還可以是在步驟101之前或者之 后進(jìn)行。
[0089] 步驟202、判斷所述第一人臉區(qū)域和/或所述第二人臉區(qū)域是否進(jìn)入所述標(biāo)識區(qū) 域。
[0090] 步驟203、若是,則向終端發(fā)送報(bào)警信息。
[0091] 具體地,本實(shí)施例首先用多邊形人臉區(qū)域的中點(diǎn)表示人臉區(qū)域,即用第一中點(diǎn)表 示第一人臉區(qū)域,第二中點(diǎn)表示第二人臉區(qū)域,接著判斷第一中點(diǎn)與標(biāo)識區(qū)域的關(guān)系,當(dāng)?shù)?一中點(diǎn)的坐標(biāo)落在了標(biāo)識區(qū)域的坐標(biāo)范圍內(nèi)時(shí),說明第一人臉區(qū)域表示的第一目標(biāo)進(jìn)入了 標(biāo)識區(qū)域,則視頻監(jiān)控系統(tǒng)向終端發(fā)送報(bào)警信息;和/或,判斷第二中點(diǎn)與標(biāo)識區(qū)域的關(guān)系, 當(dāng)?shù)诙悬c(diǎn)的坐標(biāo)落在了標(biāo)識區(qū)域的坐標(biāo)范圍內(nèi)時(shí),說明第二人臉區(qū)域表示的第二目標(biāo)進(jìn) 入了標(biāo)識區(qū)域,則視頻監(jiān)控系統(tǒng)向終端發(fā)送報(bào)警信息。本發(fā)明通過視頻監(jiān)控系統(tǒng)向終端發(fā) 送報(bào)警信息,當(dāng)監(jiān)控視頻在無人監(jiān)控的情況下,用戶也可以通過終端接收到的報(bào)警信息獲 得進(jìn)入標(biāo)識區(qū)域的目標(biāo)信息,實(shí)現(xiàn)了標(biāo)識區(qū)域的無人監(jiān)控報(bào)警,進(jìn)而提高了視頻監(jiān)控的可 靠性,其中終端接收到的報(bào)警信息可以是目標(biāo)的特征信息比如身高、圖片等信息,還可以是 目標(biāo)進(jìn)入和離開標(biāo)識區(qū)域的時(shí)間,或者目標(biāo)在標(biāo)識區(qū)域內(nèi)的行走路徑等信息,該報(bào)警信息 可以根據(jù)實(shí)際需要進(jìn)行設(shè)定,在此不做限制。
[0092] 需要說明的是,本發(fā)明提供的目標(biāo)跟蹤方法可以集成到視頻監(jiān)控系統(tǒng),該視頻監(jiān) 控系統(tǒng)與終端設(shè)備綁定,可以與終端進(jìn)行信息交互,該終端設(shè)備可以是手機(jī),電腦等,例如 將視頻監(jiān)控系統(tǒng)與手機(jī)中的微信進(jìn)行綁定,當(dāng)視頻監(jiān)控系統(tǒng)檢測到有目標(biāo)進(jìn)入標(biāo)識區(qū)域 后,向手機(jī)中的微信發(fā)送報(bào)警信息,同時(shí)用戶可以通過微信實(shí)時(shí)遠(yuǎn)程觀測到當(dāng)前的視頻圖 像。
[0093] 本發(fā)明提供的目標(biāo)跟蹤方法,通過將視頻監(jiān)控系統(tǒng)與終端綁定,判斷當(dāng)人臉區(qū)域 表示的目標(biāo)進(jìn)入標(biāo)識區(qū)域時(shí),視頻監(jiān)控系統(tǒng)向終端發(fā)送報(bào)警信息,實(shí)現(xiàn)了標(biāo)識區(qū)域的無人 監(jiān)控報(bào)警,提高了視頻監(jiān)控的可靠性。
[0094] 圖5為本發(fā)明提供的目標(biāo)跟蹤方法實(shí)時(shí)例三的流程示意圖。本實(shí)施例涉及的是如 何避免視頻監(jiān)控系統(tǒng)對離開視頻監(jiān)控范圍外的目標(biāo)進(jìn)行跟蹤,造成跟蹤資源的浪費(fèi),跟蹤 處理速度慢的具體過程。在上述實(shí)施例的基礎(chǔ)上,如圖5所示,本發(fā)明提供的目標(biāo)跟蹤方法 還包括:
[0095] 步驟301、確定所述第一人臉區(qū)域在下一幀的第一預(yù)測位置、和/或所述第二人臉 區(qū)域在下一幀的第二預(yù)測位置。
[0096] 具體地,本發(fā)明采用目標(biāo)狀態(tài)估計(jì)算法,用于預(yù)測當(dāng)前視頻圖像中的目標(biāo)在下一 圖像數(shù)據(jù)幀的位置,即用目標(biāo)狀態(tài)估計(jì)算法確定上述第一人臉區(qū)域在下一幀的第一預(yù)測位 置和/或上述第二人臉區(qū)域在下一幀的第二預(yù)測位置。這里的"和/或",指的是采用目標(biāo)狀 態(tài)估計(jì)算法確定上述第一人臉區(qū)域在下一幀的第一預(yù)測位置,或者,采用目標(biāo)狀態(tài)估計(jì)算 法確定上述第二人臉區(qū)域在下一幀的第二預(yù)測位置,或者,采用目標(biāo)狀態(tài)估計(jì)算法確定上 述第一人臉區(qū)域在下一幀的第一預(yù)測位置和上述第二人臉區(qū)域在下一幀的第二預(yù)測位置。
[0097] 步驟302、對應(yīng)的,判斷所述第一預(yù)測位置和/或所述第二預(yù)測位置是否位于視頻 可視范圍。
[0098] 步驟303、若否,則停止跟蹤。
[0099] 具體地,將根據(jù)步驟301預(yù)測出第一預(yù)測位置與視頻可視范圍進(jìn)行比較,當(dāng)判斷第 一預(yù)測位置在視頻可視范圍內(nèi)時(shí),則需要對該第一預(yù)測位置對應(yīng)的第一人臉區(qū)域繼續(xù)進(jìn)行 跟蹤,當(dāng)判斷第一預(yù)測位置不在視頻可視范圍內(nèi)時(shí),停止對該第一預(yù)測位置對應(yīng)的第一人 臉區(qū)域的跟蹤;同理將根據(jù)步驟301預(yù)測出第二預(yù)測位置與視頻可視范圍進(jìn)行比較,當(dāng)判斷 第二預(yù)測位置在視頻可視范圍內(nèi)時(shí),則需要對該第二預(yù)測位置對應(yīng)的第二人臉區(qū)域繼續(xù)進(jìn) 行跟蹤,當(dāng)判斷第二預(yù)測位置不在視頻可視范圍內(nèi)時(shí),停止對該第二預(yù)測位置對應(yīng)的第二 人臉區(qū)域的跟蹤,這樣使得視頻監(jiān)控系統(tǒng)只對視頻可視范圍內(nèi)的目標(biāo)進(jìn)行跟蹤,防止了視 頻監(jiān)控系統(tǒng)對視頻可視范圍外的無效目標(biāo)進(jìn)行跟蹤,造成跟蹤資源浪費(fèi)的問題,提高了對 有效目標(biāo)的跟蹤速度。
[0100] 其中,本發(fā)明目標(biāo)狀態(tài)估計(jì)算法可以通過卡爾曼濾波器實(shí)現(xiàn),也可以用其他的狀 態(tài)估計(jì)算法實(shí)現(xiàn),對此本發(fā)明不做限制。
[0101] 本發(fā)明提供的目標(biāo)跟蹤方法,通過目標(biāo)狀態(tài)估計(jì)算法確定人臉區(qū)域的下一幀位 置,當(dāng)判斷人臉區(qū)域下一幀的位置不在視頻可視范圍內(nèi)