欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于超像素的復(fù)雜場景下的目標跟蹤方法與流程

文檔序號:12836890閱讀:來源:國知局

技術(shù)特征:
1.一種基于超像素的復(fù)雜場景下的目標跟蹤方法,包括以下步驟:步驟1:初始化參數(shù),取視頻流中的前m幀圖像作為訓(xùn)練集,m取3-6;步驟1.1:選擇目標所在區(qū)域,對該區(qū)域進行超像素分割:步驟1.1.1:在目標區(qū)域中隨機選擇k個點作為超像素的中心點,也叫超像素的聚類中心CK:CK=[lk,ak,bk,xk,yk]T在每個大小規(guī)則的方框S中取樣像素,lk、ak、bk是CIELAB顏色空間中的參數(shù),此顏色空間最為接近人類的視覺,它的lk分量即亮度,xk、yk表示點的坐標,S取其中N為超像素的個數(shù),k的值由用戶根據(jù)跟蹤的效果自行選擇,為300-500之間;步驟1.1.2:將CK移動到3×3的相鄰像素中梯度值最低的位置;步驟1.1.3:對圖像中的每一個像素設(shè)置標記label(i)為-1,與相近的聚類中心的歐式距離d(i)為無窮大,對于圍繞在每一個聚類中心CK的2S×2S區(qū)域內(nèi)的像素i,重復(fù)1.1.4-1.1.5步驟:步驟1.1.4:計算像素i與聚類中心CK的歐式距離D;步驟1.1.5:若D<d(i)置d(i)為D,label(i)為k;表示每一個像素對自身周圍的聚類中心求歐式距離,取歐式距離最小的那個聚類中心為自己的類別;步驟1.1.6:重復(fù)1.1.2,選擇新的聚類中心并計算殘留誤差E,殘留誤差表示為同一個超像素的聚類中心,經(jīng)過兩次迭代后的歐氏距離,E小于一定的閾值,即提取完全部超像素;步驟1.2:提取超像素特征作為訓(xùn)練集:步驟1.2.1:每一個超像素表示為:sp(t,r)表示在t幀時第r個超像素,用ftr表示;步驟1.2.2:取m張圖片構(gòu)成訓(xùn)練集,m取3-5;用一個特征向量F={ftr|t=1,...,m,r=1,...,Nt},來表示一個這個訓(xùn)練集所有的超像素;在特征空間中,設(shè)每個超像素的聚類中心為fc(i),半徑為rc(i),則有{ftr|ftr∈C(k)}。步驟1.2.3:假設(shè)訓(xùn)練集中的每一個聚類中心對應(yīng)一個圖像區(qū)域S(i),設(shè)S+(i)為第i個超像素在目標區(qū)域內(nèi)的大小,S-(i)為第i個超像素在目標區(qū)域外的大小,此大小即為像素的數(shù)量;若S+(i)/S-(i)的值越大,則說明該超像素屬于目標的可能性就越大;計算通過以下公式即可得到一個超像素的聚類中心處于背景或目標的可能性大?。?![CDATA[Cic=S+(i)-S-(i)S+(i)+S-(i),∀i=1,...,n]]>由聚類中心fc(i)、半徑rc(i)和每一個超像素的像素成員{ftr|ftr∈C(k)}構(gòu)成基于超像素的外觀模型,即目標的表示方法;步驟2:由貝葉斯理論可得知,由于兩幀圖像之間相互獨立,設(shè)Xt為t時刻的狀態(tài),Y1:t為從第一幀到最后一幀的狀態(tài),有p(Xt|Y1:t)=αp(Yt|Xt)∫p(Xt|Xt-1)p(Xt-t|Y1:t-1)dXt-1令其中表示t時刻目標的位置,表示t時刻目標的尺度,根據(jù)貝葉斯跟蹤公式可知,關(guān)鍵是要得到觀察模型和動作模型,從m+1幀開始直到最后一幀做如下步驟:步驟2.1:找到上一幀的目標區(qū)域,重復(fù)上述步驟,采用超像素進行分割,提取超像素特征;步驟2.2:計算超像素的置信圖;步驟2.3:通過上一幀得到的置信圖,取N個區(qū)域作為目標的候選區(qū)域;步驟2.4:基于貝葉斯理論,可以得到當前幀目標所在區(qū)域的概率;步驟2.5:更新訓(xùn)練集和外觀模型:步驟2.5.1:每播放U幀圖像以后,將訓(xùn)練集中最老的一幀圖像丟棄,將新的一幀加入到訓(xùn)練集中,U為10;步驟2.5.2:為了抵御小幅度遮擋、丟失或模糊現(xiàn)象,采用如下計算公式:其中,μc是訓(xùn)練集中的目標區(qū)域內(nèi)所有超像素置信值的平均值,公式中的分子表示當前推測出的目標區(qū)域與平均置信值之間的差別,分母表示了一個標準化的區(qū)域,值為[-1,1];若推測出的最大置信值遠比訓(xùn)練集中保存的置信值平均值小,則出現(xiàn)了嚴重的遮擋和丟失現(xiàn)象,為了防止這種情況的發(fā)生,上一幀圖像得到的Xt-1,同時保留訓(xùn)練集中的圖像不動,直到再次尋找到目標。步驟2.5.3:解決模糊幀跟蹤丟失現(xiàn)象:由于目標區(qū)域是被分割成了多個超像素塊,由步驟2.1可知,通過訓(xùn)練集即觀察模型即可將背景和目標區(qū)分開來,當模糊幀出現(xiàn)時,通過置信圖來獲取目標的位置,即可穩(wěn)定的對對象進行跟蹤;步驟2.6:重復(fù)步驟2.1至2.5,直到處理完所有視頻序列。2.根據(jù)權(quán)利要求1所述的一種基于超像素的復(fù)雜場景下的目標跟蹤方法,其特征在于:所述步驟2.2:計算超像素的置信圖的方法為:置信圖是由每個超像素的置信值構(gòu)成,超像素的置信值表示每個超像素屬于目標的可能性大小,置信值越大,超像素屬于目標的可能性就越大;步驟2.2.1:每一個超像素的置信值可以由兩個因素確定:1)超像素的聚類中心屬于背景還是目標;2)當前超像素與訓(xùn)練集的特征空間中超像素的聚類中心的距離,若當前超像素是訓(xùn)練集的特征空間中的超像素,那么就認為它與訓(xùn)練集中超像素相同,換句話說,若訓(xùn)練集中的超像素屬于背景,則當前的超像素也屬于背景。若當前超像素不是訓(xùn)練集的特征空間的超像素,那么引入一個權(quán)重系數(shù),表示若該超像素的聚類中心離特征空間中的聚類中心越遠,則與特征空間中的超像素的歸屬越不同的可能性越大,超像素的置信值計算如下:其中,w(r,i)表示權(quán)重系數(shù),-λd是一個常數(shù),取2,為t幀時的第r個超像素的置信值。3.根據(jù)權(quán)利要求1所述的一種基于超像素的復(fù)雜場景下的目標跟蹤方法,其特征在于:所述步驟2.3通過上一幀得到的置信圖,取N個區(qū)域作為目標的候選區(qū)域的方法為:步驟2.3.1:在目標區(qū)域中截取4個同樣大小的窗口找到窗口內(nèi)所有置信值之和最高與最低的各2個超像素樣本;步驟2.3.2:假設(shè)動作模型服從高斯分布,計算動作模型:p(Xt|Xt-1)=N(Xt;Xt-1,ψ)其中,ψ是一個對角線協(xié)方差矩陣,其中的元素為目標的位置和尺度的標準差;步驟2.3.3:為了適應(yīng)圖像的尺度變化,為每一個超像素的置信值加入一個權(quán)重系數(shù):其中,S(Xt)表示Xt區(qū)域中,跟蹤目標的區(qū)域大??;步驟2.3.4:將所有最終的進行歸一化處理。4.根據(jù)權(quán)利要求1所述的一種基于超像素的復(fù)雜場景下的目標跟蹤方法,其特征在于:所述步驟2.4基于貝葉斯理論,得到當前幀目標所在區(qū)域的概率的方法為:步驟2.4.1:計算觀察模型:其中,表示每一個樣本的標準化置信值;步驟2.4.2:有了動作模型和觀察模型以后,計算目標最可能存在的區(qū)域:3
當前第2頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
南康市| 中卫市| 九江市| 阿图什市| 车险| 雅安市| 肥乡县| 丰顺县| 永善县| 宁明县| 莒南县| 游戏| 九台市| 台北县| 永年县| 于田县| 定襄县| 沾益县| 苍南县| 郧西县| 金山区| 东乌| 常州市| 章丘市| 玉山县| 乌兰浩特市| 星座| 龙陵县| 丰城市| 蛟河市| 巫溪县| 浏阳市| 张家口市| 正蓝旗| 德保县| 微博| 麻江县| 师宗县| 衡山县| 云霄县| 十堰市|