一種自適應(yīng)復(fù)雜場景的運動目標檢測方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及視頻智能監(jiān)控技術(shù),尤其涉及一種自適應(yīng)復(fù)雜場景的運動目標檢測方 法,屬于圖像處理技術(shù)領(lǐng)域。
【背景技術(shù)】
[0002] 運動目標檢測技術(shù)是視頻智能監(jiān)控技術(shù)領(lǐng)域的關(guān)鍵技術(shù)之一,是目標身份識別、 跟蹤、行為分析等后續(xù)研究的基礎(chǔ)。常用運動目標檢測技術(shù)有光流法、幀間差分法、背景差 分法。其中,光流法是一種估計序列圖像的像素點在連續(xù)幀間的運動情況,由于該方法只關(guān) 心圖像的像素點,并沒有把像素點與運動目標關(guān)聯(lián)起來,對輪廓不規(guī)則目標很難做到準確 定位,且運算復(fù)雜。幀間差分法對場景變化的適用性較好,尤其是光照變化的場景,但對環(huán) 境噪聲較為敏銳,所提取目標區(qū)域是目標在前后兩幀中位置的"或"區(qū)域,比實際目標區(qū)域 大,若跟蹤場景中沒有顯著運動趨勢,則兩幀之間目標重疊部分將檢測不出,或檢測出來的 目標區(qū)域存在較大空洞,無法完整地提取運動目標。背景差分法的關(guān)鍵在于背景建模與閾 值的選取,其基本原理是利用當(dāng)前幀減去背景圖像,并結(jié)合閾值以獲得運動目標區(qū)域。利用 傳統(tǒng)高斯背景建模、平均背景建模、中值背景建模等,易受到天氣變化、光照突變、背景擾動 及攝像頭與目標相對運動等因素的影響,加之固定閾值不具適應(yīng)性,例如,閾值選擇過低, 不足以抑制圖像中噪聲;選擇過高,則忽略了圖像中有用的變化;對于較大的、顏色一致的 運動目標,有可能在目標內(nèi)部產(chǎn)生空洞,無法完整地提取運動目標的問題。雖然背景差分法 在背景靜止且理想場景的情況下,其目標檢測效果較佳,但由于實際場景復(fù)雜,天氣變化、 全局光照突變、背景擾動及攝像頭與目標相對運動等因素,易導(dǎo)致運動目標檢測不準確。
【發(fā)明內(nèi)容】
[0003] 針對現(xiàn)有技術(shù)存在的上述不足,本發(fā)明的目的是提供一種自適應(yīng)復(fù)雜場景的運動 目標檢測方法。本方法在全局光照劇烈變化、背景干擾、相對運動等不同復(fù)雜場景下具有較 好的運動目標自適應(yīng)檢測準確性和魯棒性。本方法能夠在復(fù)雜場景下提高目標檢測的性 能,為后面環(huán)節(jié)操作提供更加穩(wěn)健的基礎(chǔ)。
[0004] 為實現(xiàn)本發(fā)明目的,采用了以下技術(shù)方案:
[0005] -種自適應(yīng)復(fù)雜場景的運動目標檢測方法,步驟如下,
[0006] 1)獲取視頻圖像,對視頻圖像進行光照補償,以克服全局光照突變帶來的影響;
[0007] 2)利用混合高斯背景建模方法得到每幀視頻圖像對應(yīng)的背景圖像;
[0008] 3)根據(jù)提取的背景圖像,利用背景差分法原理,獲取每幀的絕對差分圖像,并進行 中值濾波處理,以消弱噪聲影響;
[0009] 4)采用最大熵分割原理獲取濾波后的每個絕對差分圖像的灰度概率模型對應(yīng)的 最優(yōu)分割閾值;
[0010] 5)利用各自對應(yīng)的最優(yōu)分割閾值對濾波后的每個絕對差分圖像進行二值化處理 以獲得前景圖像;
[0011] 6)在步驟5)獲得前景圖像的基礎(chǔ)上,采用不同結(jié)構(gòu)體的模塊進行形態(tài)學(xué)處理,以 消去小噪聲帶來的影響,彌補部分運動目標區(qū)域的空洞;首先用3*3核的"十字形結(jié)構(gòu)"模 板進行一次腐蝕操作,以去除一些小噪聲,然后用5*3核進行兩次膨脹操作,再進行一次腐 蝕操作;
[0012] 7)利用連通域標定算法對第6)步形態(tài)學(xué)處理后的前景圖像進行區(qū)域標定,利用 矩形框鎖定已標定的運動目標。
[0013] 其中,步驟1)的光照補償按如下方法進行,
[0014] 假設(shè)I (t)表示輸入視頻圖像幀,δ表示兩幀間允許發(fā)生的最大全局光照變化;首 先計算視頻每一幀序列圖像的平均像素值DO,然后利用如下規(guī)則進行光照補償:
[0017] 式中,SgnO表示符號函數(shù),如表示補償后的圖像。
[0018] 其中,步驟4)最優(yōu)分割閾值獲取方法為,
[0019] 設(shè)一幅大小為Μ*Ν的圖像I (X,y),I (X,y)表示圖像坐標點(X,y)的像素灰度值, 且灰度值取值范圍為〇-(L-I),步驟3)濾波后的絕對差分圖像為DF (X,y),Ii1表示絕對差分 圖像的灰度值為i的像素個數(shù),則像素個數(shù)總量為:
?1表示像素灰度值i的概率, 那么:
[0020] Pi= n i/N, i = 0, I, 2, 3......, L-I ;
[0021] 然后采用候選分割閾值T將圖像中的像素值按灰度等級分成CO和Cl兩類,CO表 示目標對象,Cl表示背景對象,即CO = {0, 1,…,t},Cl = {t+1,t+2,…,L-1},則CO和Cl 所對應(yīng)像素灰度值概率分布分別為:
[0024] 式中,
L是灰度級的數(shù)目;那么,CO和Cl的熵值分別由下式表示;
[0027] 在所得圖像CO熵和Cl熵的基礎(chǔ)上,則后驗熵之和H表示如下:
[0028] H = H〇+H1;
[0029] 那么,比較得到熵判別函數(shù)的最大值所對應(yīng)灰度等級,即表示基于最大熵算法的 最優(yōu)分割閾值THR,如下式所示,
[0030] 7'/伙=;n.g rnnx(//);
[0031] 利用獲得的最優(yōu)分割閾值THR對對濾波后的絕對差分圖像DF(x,y)進行二值化處 理,獲得視頻中的前景圖像FI (X,y),如下式所示,
[0033] 其中,步驟2)利用混合高斯背景建模方法提取背景圖像的具體方法為,
[0034] 利用K個單高斯概率模型構(gòu)建某一像素點X的高斯混合模型,見公式(3)所示;
[0036] 其中,p (Xt)是t時刻出現(xiàn)像素值\的概率,w lit表示t時刻第i個高斯模型的權(quán) 值,并且權(quán)值和為1,K表示高斯模型總數(shù),取3 5個,n (Xt,μ 11,Σ i t)表示t時刻第i個 高斯模型,為均值,Σ 為協(xié)方差矩陣,n表示維數(shù),見公式(4);
[0038] 混合高斯背景模型匹配與更新過程如下:
[0039] 模型匹配是將視頻圖像當(dāng)前幀像素值X和已有的K個高斯模型進行匹配對比,若 第i個高斯模型滿足公式(5),則表示當(dāng)前幀像素值與之匹配,否則不匹配;
[0040] I Xt- μ t 丄 I < 2. 5 ·。t I (5)
[0041] 若匹配不成功,則采用視頻當(dāng)前幀的均值,并設(shè)定一個較大的方差值,建立新高斯 分布模型;
[0042] 根據(jù)匹配結(jié)果按照公式(6)進行模型的更新;
[0044] 其中,α表示視頻當(dāng)前幀嵌入到背景模型的速率,稱為學(xué)習(xí)速率,若模型匹配,則 Mlit= 1,否則為0,其μ和σ 2保持不變;
[0045] 由于Xi t較小和權(quán)值大的高斯概率分布模型更有可能用于近似表示背景像素分 布模型,為此,對視頻每幀圖像中的像素值按照w/ 〇值的大小遞減的順序?qū)個高斯概率 分布模型排序,將前B個高斯概率分布作為背景,構(gòu)成背景圖像ΒΙ,見公式(7);
[0047] 其中,T為背景模型設(shè)定的閾值,T取值范圍[0· 7, 0· 8]。
[0048] 與現(xiàn)有方法相比,本發(fā)明具有如下有益效果:
[0049] 1)視頻背景圖像不需要預(yù)設(shè)。
[0050] 2)采用光照補償和混合高斯模型建立背景模型,能夠有效克服光照突變、攝像頭 相對運動成像、背景擾動的影響,從而獲得更加穩(wěn)健的背景圖像。
[0051] 3)本發(fā)明引入最大熵分割閾值,每個絕對差分圖像分別進行計算而獲得(即每個 絕對差分圖像可能不同,而現(xiàn)有為固定閾值,即所有絕對差分圖像閾值相同),在實際應(yīng)用 所涉及的不同復(fù)雜場景視頻圖像,其固定閾值不具適應(yīng)性的問題能很好的得到解決。
[0052] 4)在光照突變、背景干擾、相對運動等不同復(fù)雜場景下具有較好的準確性和魯棒 性。
【附圖說明】
[0053] 圖1-本發(fā)明自適應(yīng)復(fù)雜場景的運動目標檢測方法總體框架圖。
[0054] 圖2-本發(fā)明混合高斯背景建模的流程圖。
[0055] 圖3-本發(fā)明步驟2原理圖。
【具體實施方式】
[0056] 本發(fā)明總體思路為:第一,考慮到光照變化的程度,引入光照補償法改善光照變化 對后續(xù)目標檢測的影響;第二,考慮到背景差分法的關(guān)鍵是背景建模和閾值選擇,利用混合 高斯背景建模提取背景圖像以克服動態(tài)背景對后續(xù)目標檢測的影響,在此基礎(chǔ)上,利用背 景差分法原理獲得絕對差分圖像,并引入中值濾波首先對絕對差分圖像進行濾波處理,以 消弱噪聲的影響,加之原始背景差分法中閾值固定的缺陷,引入最大熵分割法提取閾值以 便自適應(yīng)不同復(fù)雜場景視頻圖像;第三,考慮到獲取的前景圖像存在小噪聲以及同一區(qū)域 存在不連通的因素,采用不同結(jié)構(gòu)體的模塊對前景圖像進行形態(tài)學(xué)處理,以消去小噪聲帶 來的影響,彌補部分運動目標區(qū)域的空洞。最后,利用連通域標定算法標記出前景對象,并 根據(jù)連通域大小鎖定運動目標。
[0057] 本發(fā)明的具體技術(shù)方案如下,其原理見圖1 :
[0058] 步驟1:獲取檢測視頻,采用光照補償和混合高斯模型建立背景模型,以獲得更加 穩(wěn)健的背景圖像。獲得背景圖像的具體過程:
[0059] (1)獲取視頻序列圖像,首先對視頻圖像進行光照補償,以克服全局光照突變帶來 的干擾。
[0060] 假設(shè)I⑴表示輸入視頻圖像幀,δ表示兩幀間允許發(fā)生的最大全局光照變化。首 先計算視頻每一幀序列圖像的平均像素值F·,然后利用如下規(guī)則進行光照補償:
[0063] 式中,sgn()表不符號函數(shù),7(/)表不補償后的圖像。
[0064] (2)在此基礎(chǔ)上,利用混合高斯背景建模方法提取背景圖像,能夠適用于攝像頭相 對運動成像、背景擾動、天氣變化等動態(tài)場景,其混合高斯背景建模的流程如圖2所示。
[0065] 混合高斯背景模型是一種擴展型單高斯模型,可以近似表示任何形狀的概率分 布。在該模型中,視頻圖像序列中像素點值的變化被當(dāng)成隨機過程且滿足高斯分布,利用K 個單高斯概率模型構(gòu)建某一像素點X的高斯混合模型,見公式(3)所示。
[0067] 其中,ρ (Xt)是t時刻出現(xiàn)像素值\的概率,w lit表示t時刻第i個高斯模型的權(quán) 值,并且權(quán)值和為I,K表示高斯模型總數(shù),一般取3-5個,n (Xt,μ h t,Σ 11)表示t時刻第 i個高斯模型,ylit為均值,Σ lit為協(xié)方差矩陣,n表示維數(shù),見公式(4)。
[0069] 混合高斯背景模型主要考慮匹配與更新問題,其匹配與更新過程如下:
[0070] 模型匹配是將視頻圖像當(dāng)前幀像素值X和已有的K個高斯模型進行匹配對比,若 第i個高斯模型滿足公式(5),則表示當(dāng)前幀像素值與之匹配,否則不匹配。
[0071] Xt-ylitl| <2.