欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

用于判斷人群聚集的方法與流程

文檔序號:40426427發(fā)布日期:2024-12-24 14:59閱讀:14來源:國知局
用于判斷人群聚集的方法與流程

本發(fā)明涉及計算機圖像處理領(lǐng)域,具體涉及一種用于判斷人群聚集的方法。


背景技術(shù):

1、通過設(shè)置在車站、廣場、公園等公共場所的攝像頭捕捉監(jiān)控區(qū)域的實時畫面,然后利用深度學(xué)習(xí)算法獲取畫面中指定區(qū)域的人員數(shù)量,以便提前判斷出是否有大規(guī)模人群聚集的情況發(fā)生,有助于阻止踩踏事件、恐怖襲擊等危害公共安全的事情發(fā)生。

2、但是,在實際應(yīng)用中發(fā)現(xiàn),目前用于判斷人群聚集的方法存在以下問題:

3、①只通過對每個人在二維圖像中的間隔距離進行分析,然后根據(jù)間隔距離的不同對人員進行聚類,以確定人群的實際分布情況?,F(xiàn)有技術(shù)均忽略了“由于每個人在二維圖像中的間隔距離與三維空間里的真實距離存在差異”這個問題,導(dǎo)致現(xiàn)有技術(shù)在景別為遠(yuǎn)景,或者全景時,無法準(zhǔn)確判斷人群是否存在聚集情況(即判斷結(jié)果與實際情況不符);

4、②需要依賴其他工具(例如衛(wèi)星),把其他信息(例如由衛(wèi)星提供的gps信息)與監(jiān)控攝像頭拍攝的二維圖像相結(jié)合,才能判斷目標(biāo)場景的人群聚集情況。例如,公開號為cn117351431a的《一種人群聚集點位的識別方法、裝置、設(shè)備及存儲介質(zhì)》就是利用額外引入的gps信息作為判斷依據(jù)來確定聚集中心,然后基于聚集中心進行鄰近聚類處理以獲取人群聚類區(qū)域,與普通的人群聚集方法比較,成本相對較高,一旦無法獲取準(zhǔn)確的gps信息,聚類結(jié)果勢必會受到巨大影響;

5、③需要通過檢測算法預(yù)測兩對坐標(biāo)值以確定目標(biāo)人員的外接框,并基于檢測框的大小和相機的內(nèi)參矩陣計算人員間隔距離,才能將人群劃分為不同的集合。例如,公開號為cn117522979a的《一種人群聚集檢測方法、裝置、存儲介質(zhì)及病毒消殺設(shè)備》。這種方法實施的前提是首先能夠有效獲取人員檢測框。而這種人群聚集檢測算法在實時畫面的景別為中景、近景時才能有效獲取人員檢測框,若目標(biāo)人員在二維圖像中的占比過小,就會難以獲取到人員檢測框。所以,若景別為遠(yuǎn)景,或者全景時,這種人群聚集檢測算法就無法利用人員檢測框進行人群聚集的判斷。

6、如何解決現(xiàn)有技術(shù)中“由于每個人在二維圖像中的距離與三維空間里的真實距離存在差異,導(dǎo)致無法準(zhǔn)確判斷遠(yuǎn)景中人群聚集情況”的問題,盡量降低成本的同時,不依賴除監(jiān)控畫面以外的其他信息,就可以直接在目標(biāo)場景的景別為全景時準(zhǔn)確判斷人群聚集情況,一直是本領(lǐng)域技術(shù)人員亟待解決的問題。


技術(shù)實現(xiàn)思路

1、本發(fā)明的目的是針對現(xiàn)有技術(shù)對應(yīng)的不足,提供一種用于判斷人群聚集的方法,通過引入角度參數(shù)來有效解決了“畫面距離與真實距離存在差異”的問題,能夠精準(zhǔn)分辨遠(yuǎn)景場景下的小目標(biāo)人群聚集情況。

2、本發(fā)明的目的是采用下述方案實現(xiàn)的:一種用于判斷人群聚集的方法,包括以下步驟:

3、1)通過標(biāo)定試驗確定目標(biāo)場景的距離參數(shù)、角度參數(shù)的標(biāo)定值;

4、2)獲取目標(biāo)場景中所有人員的頭部中心點坐標(biāo),形成該目標(biāo)場景對應(yīng)的人員數(shù)據(jù)集;

5、3)根據(jù)步驟1)所述的標(biāo)定值,以及各人員在目標(biāo)場景中的頭部中心點坐標(biāo),對人員數(shù)據(jù)集中的所有人員進行分類,將人員數(shù)據(jù)集劃分成多個人員類別集合;

6、4)統(tǒng)計各人員類別集合中的人員數(shù)量,通過與預(yù)設(shè)的人數(shù)閾值進行比較,判斷各人員類別集合是否存在人群聚集。

7、優(yōu)選地,步驟1)中,所述目標(biāo)場景對應(yīng)的距離參數(shù)、角度參數(shù)標(biāo)定值的獲取方式如下:

8、1-1)使目標(biāo)場景對應(yīng)的角度參數(shù)預(yù)設(shè)值為0,距離參數(shù)預(yù)設(shè)值為10pixel;

9、1-2)獲取目標(biāo)場景中所有人員的頭部中心點坐標(biāo),形成該目標(biāo)場景對應(yīng)的人員數(shù)據(jù)集;

10、1-3)根據(jù)當(dāng)前的距離參數(shù)、角度參數(shù),以及各人員在目標(biāo)場景中的頭部中心點坐標(biāo),對人員數(shù)據(jù)集中的所有人員進行分類,將人員數(shù)據(jù)集劃分成多個人員類別集合;

11、1-4)判斷采用當(dāng)前的距離參數(shù)預(yù)設(shè)值、角度參數(shù)預(yù)設(shè)值對人員數(shù)據(jù)集中的所有人員進行分類的效果,并按照距離修改步長重新調(diào)整距離參數(shù),重復(fù)步驟1-3),直到人為判斷在目標(biāo)場景下此時的分類效果達到最優(yōu),記錄分類效果最優(yōu)時的距離參數(shù)取值作為距離參數(shù)標(biāo)定值;

12、1-5)采用距離參數(shù)標(biāo)定值作為距離參數(shù)預(yù)設(shè)值,按照角度修改步長調(diào)整角度參數(shù)的預(yù)設(shè)值,重復(fù)步驟1-3),直到人為判斷在目標(biāo)場景下此時的分類效果達到最優(yōu),記錄分類效果最優(yōu)時的角度參數(shù)取值作為角度參數(shù)標(biāo)定值。

13、優(yōu)選地,所述目標(biāo)場景中所有的人員頭部中心點坐標(biāo)均由深度卷積神經(jīng)網(wǎng)絡(luò)模型實時獲取。

14、優(yōu)選地,所述深度卷積神經(jīng)網(wǎng)絡(luò)模型包括p2pnet、fidtm。

15、優(yōu)選地,對人員數(shù)據(jù)集中的所有人員進行分類,將人員數(shù)據(jù)集劃分成多個人員類別集合的具體方式如下:

16、3-1)按照各人員在目標(biāo)場景中頭部中心點縱坐標(biāo)從小到大的順序,對人員數(shù)據(jù)集中的人員進行重新排序,確定人員分類處理順序;

17、3-2)按照步驟3-1)確定的人員分類處理順序,以人員數(shù)據(jù)集中頭部中心點縱坐標(biāo)最小的人員為中心節(jié)點,將人員數(shù)據(jù)集中其余人員作為該中心節(jié)點的鄰居節(jié)點,并分別計算各個鄰居節(jié)點與該中心節(jié)點之間的歐氏距離;

18、3-3)判斷各個鄰居節(jié)點與該中心節(jié)點之間的歐氏距離,以及該中心節(jié)點對應(yīng)的輻射距離的大小關(guān)系,并根據(jù)該大小關(guān)系對各個鄰居節(jié)點進行分類:

19、若某一鄰居節(jié)點與該中心節(jié)點之間的歐氏距離<該中心節(jié)點對應(yīng)的輻射距離,則判定該鄰居節(jié)點與中心節(jié)點屬于同一人員類別集合,并將該鄰居節(jié)點從人員數(shù)據(jù)集中剔除;

20、若某一鄰居節(jié)點與該中心節(jié)點之間的歐氏距離≥該中心節(jié)點對應(yīng)的輻射距離,則判定該鄰居節(jié)點與中心節(jié)點不屬于同一人員類別集合,并將該鄰居節(jié)點繼續(xù)保留在人員數(shù)據(jù)集中,參與下一次分類處理;

21、3-4)重復(fù)步驟3-1)至步驟3-3),直到人員數(shù)據(jù)集中的人員均被劃分到各個對應(yīng)的人員類別集合中。

22、優(yōu)選地,所述中心節(jié)點輻射距離的計算公式如下:

23、rk=d+yk×θ

24、式中,rk為人員數(shù)據(jù)集中第k個中心節(jié)點對應(yīng)的輻射距離,d為距離參數(shù),yk是人員數(shù)據(jù)集中第k個人員作為中心節(jié)點時該人員頭部中心點的縱坐標(biāo),θ為角度參數(shù)。

25、優(yōu)選地,步驟3-3)中,各個鄰居節(jié)點與該中心節(jié)點之間的歐氏距離均按照以下公式計算:

26、

27、式中,dk,i為人員數(shù)據(jù)集中第k個人員作為中心節(jié)點時第i個鄰居節(jié)點與該中心節(jié)點之間的歐氏距離,xk為人員數(shù)據(jù)集中第k個人員作為中心節(jié)點時該人員頭部中心點的橫坐標(biāo),yk為人員數(shù)據(jù)集中第k個人員作為中心節(jié)點時該人員頭部中心點的縱坐標(biāo),xi為人員數(shù)據(jù)集中第k個人員作為中心節(jié)點時第i個鄰居節(jié)點的橫坐標(biāo),yi為人員數(shù)據(jù)集中第k個人員作為中心節(jié)點時第i個鄰居節(jié)點的縱坐標(biāo)。

28、本發(fā)明的優(yōu)點在于以下三點:

29、(1)本發(fā)明與現(xiàn)有技術(shù)不同,不需要獲取人員檢測框,直接利用目標(biāo)人員的頭部中心點坐標(biāo),對各種目標(biāo)場景的人員聚集情況進行判斷。所以,無論景別為遠(yuǎn)景、中景、近景,還是全景,即使人員目標(biāo)在畫面中的占比非常小,本發(fā)明都可以準(zhǔn)確獲取到目標(biāo)場景對應(yīng)的二維圖像上每個目標(biāo)人員的頭部中心點坐標(biāo),這是本發(fā)明能夠在各種目標(biāo)場景中準(zhǔn)確判斷人群聚集情況的前提。

30、(2)本發(fā)明通過引入角度參數(shù),與距離參數(shù)結(jié)合,有效解決了“由于每個人在二維圖像中的距離與三維空間里的真實距離存在差異,導(dǎo)致無法準(zhǔn)確判斷遠(yuǎn)景中人群聚集情況”的問題,既能夠準(zhǔn)確判斷近景的人群聚集情況,也能夠準(zhǔn)確判斷中景的人群聚集情況,還能夠準(zhǔn)確判斷遠(yuǎn)景的人群聚集情況。即使在目標(biāo)場景的景別為全景時,本發(fā)明也能夠準(zhǔn)確判斷人群聚集情況。

31、(3)本發(fā)明不依賴其他工具(例如衛(wèi)星),不需要其他信息(例如由衛(wèi)星提供的gps信息),只需要監(jiān)控攝像頭拍攝的二維圖像,利用本發(fā)明即可準(zhǔn)確判斷目標(biāo)場景的人群聚集情況。所以,本發(fā)明成本較低,而且不受制于其他外部信息(除目標(biāo)場景的二維圖像以外的信息)。

32、名詞解釋

33、距離參數(shù):用于判斷2個人員是否屬于同一個分類集合的距離閾值,可以理解為兩個人員頭部中心點之間的歐氏距離,例如,對于點a(x1,y1)與點b(x2,y2),兩者的歐氏距離為:

34、

35、在不考慮角度問題的前提下,當(dāng)點a與點b的距離小于距離參數(shù)時,認(rèn)為點a和點b所代表的兩個人員屬于同一個集合。

36、角度參數(shù):用于對人員頭部中心點之間的距離進行加權(quán)處理的參數(shù)。由于攝像頭存在角度傾斜,會出現(xiàn)“近大遠(yuǎn)小”的情況。例如,假設(shè)點a和點b在真實空間中都距離攝像頭較近,而點c和點d在真實空間中都距離攝像頭較遠(yuǎn),且點a和點b在圖像上的距離與點c和點d在圖像上的距離相等,那么在真實空間中,點a和點b的距離要小于點c和點d的距離。假設(shè)不考慮攝像頭角度傾斜帶來的距離偏差,僅僅基于“距離參數(shù)”來劃分人員的分類集合,則最終的分類結(jié)果會出現(xiàn)較嚴(yán)重的誤差。所以本發(fā)明設(shè)置一個角度參數(shù)參與輻射距離的計算,通過與人員頭部中心點的縱坐標(biāo)進行相乘來調(diào)節(jié)攝像頭角度傾斜造成的偏差,使最終的分類結(jié)果更為精準(zhǔn)。

37、p2pnet:是指rethinking?counting?and?localization?in?crowds:apurelypoint-based?framework,即一種深度卷積神經(jīng)網(wǎng)絡(luò)模型,主要用于人群計數(shù)和定位任務(wù)。p2pnet摒棄了傳統(tǒng)方法中對目標(biāo)進行復(fù)雜的邊界框標(biāo)注或區(qū)域劃分,而是將人群中的每個個體視為一個點,通過對這些點的特征學(xué)習(xí)和分析來實現(xiàn)計數(shù)和定位。這種基于點的表示方式大大簡化了問題的復(fù)雜度,同時能夠更直接地捕捉到人群中個體的位置信息。

38、fidtm:是指focal?inverse?distance?transform?maps?for?crowdlocalization?and?counting?in?dense?crowd,即深度卷積神經(jīng)網(wǎng)絡(luò)模型,該模型主要聚焦于解決密集人群場景下的人群定位和計數(shù)問題。其核心在于利用焦點逆距離變換圖(focal?inverse?distance?transform?maps)來更精確地表示人群中個體的位置關(guān)系以及到其他相關(guān)點的距離信息,以此提升對密集人群中個體的定位準(zhǔn)確性,并進而實現(xiàn)更精準(zhǔn)的人群計數(shù)。通過這種獨特的方式,fidtm能夠更好地處理人群密集、遮擋嚴(yán)重等復(fù)雜情況下的定位和計數(shù)任務(wù),克服了傳統(tǒng)方法在這些方面的局限性。

39、頭部中心點坐標(biāo):在目標(biāo)場景下通過攝像頭拍攝的實時監(jiān)控畫面形成的圖片上建立二維坐標(biāo)系,每個人員的頭部在這個二維坐標(biāo)系中的坐標(biāo)值叫做頭部中心點坐標(biāo)。如圖2所示,點a在圖片中的坐標(biāo)為(x1,y1)的含義是:以圖片左上角頂點為原點,以水平向右為x軸正方向,以垂直向下為y軸正方向構(gòu)建平面直角坐標(biāo)系,點a相對于原點在x軸的距離為x1個像素點,在y軸的距離為y1個像素點。

40、pixel:即像素,圖像顯示的基本單位。

41、近景:指二維圖像中距離監(jiān)控攝像頭較近的場景。

42、遠(yuǎn)景:指二維圖像中距離監(jiān)控攝像頭較遠(yuǎn)的場景。

43、中景:指二維圖像中與監(jiān)控攝像頭的距離介于近景和遠(yuǎn)景之間的場景。

44、全景:指一個二維圖像中既包括近景、又包括中景和遠(yuǎn)景。

當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
嘉义县| 忻城县| 长阳| 上蔡县| 河间市| 宁安市| 峨眉山市| 南丰县| 调兵山市| 林甸县| 临武县| 嘉义市| 定陶县| 远安县| 乌苏市| 安龙县| 蓬溪县| 巴青县| 紫阳县| 夏津县| 长岭县| 万盛区| 津南区| 乐山市| 庄浪县| 达拉特旗| 河池市| 兴海县| 房产| 随州市| 茶陵县| 柳林县| 瑞安市| 苍南县| 平昌县| 通河县| 惠安县| 全南县| 新和县| 东方市| 宁明县|