欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于邏輯回歸的視覺跟蹤方法

文檔序號:10687617閱讀:472來源:國知局
基于邏輯回歸的視覺跟蹤方法
【專利摘要】本發(fā)明公開一種基于邏輯回歸的視覺跟蹤方法,主要解決現(xiàn)有技術(shù)容易積累跟蹤誤差,遮擋條件下性能降低的問題。其實現(xiàn)方案是:1.通過對樣本取Haar?like特征構(gòu)建一系列服從高斯分布的弱分類器;2.采用邏輯回歸模型從一系列弱分類器中選出部分性能較好的弱分類器,并對弱分類器進(jìn)行加權(quán)求和構(gòu)建一個強分類器;3.通過強分類器預(yù)測目標(biāo)位置;4.通過異常判斷決定是否更新弱分類器高斯分布參數(shù),從而適應(yīng)跟蹤過程中目標(biāo)和場景的變化。本發(fā)明與現(xiàn)有Adaboost算法相比,能夠快速準(zhǔn)確地獲取弱分類器的全局最優(yōu)子集,從而正確更新分類器參數(shù)、避免跟蹤偏移,提高了跟蹤性能,可用于機器人導(dǎo)航、人機交互、虛擬現(xiàn)實。
【專利說明】
基于邏輯回歸的視覺跟蹤方法
技術(shù)領(lǐng)域
[0001] 本發(fā)明屬于視頻處理技術(shù)領(lǐng)域,特別涉及一種視覺跟蹤方法,可應(yīng)用于機器人導(dǎo) 航、人機交互、虛擬現(xiàn)實。
【背景技術(shù)】
[0002] 視覺跟蹤是計算機視覺研究領(lǐng)域中的關(guān)鍵問題,根據(jù)對外觀模型的不同處理方法 可分為生成模型和判別模型兩大類。生成模型的跟蹤方法通常是學(xué)習(xí)一個代表目標(biāo)的模 型,利用外觀模型匹配尋找到相似度最高的候選目標(biāo)為跟蹤結(jié)果。判別模型跟蹤算法將跟 蹤問題看成一個二分類問題,通過正負(fù)樣本訓(xùn)練分類器,找到目標(biāo)和背景的決策邊界。
[0003] Grabner等人提出了一種用于目標(biāo)跟蹤的在線Boosting算法,該算法主要包括強 分類器的生成和目標(biāo)定位兩個部分,其中用于分類的強分類器由多個特征選擇器組成,然 后在跟蹤過程中利用被跟蹤目標(biāo)的位置獲得訓(xùn)練需要的正負(fù)樣本進(jìn)行特征選擇器的生成, 每次生成中均挑選特征池里具有最小訓(xùn)練錯誤率的特征作為特征選擇器。該方法能夠很好 地解決自適應(yīng)目標(biāo)及背景的變化問題,其缺陷是由于該方法是一種自學(xué)習(xí)的過程,將上一 幀的跟蹤窗口當(dāng)作新的正樣本,所以當(dāng)目標(biāo)發(fā)生遮擋時,被遮擋的正樣本易導(dǎo)致特征池中 的誤差累積而產(chǎn)生"漂移"。Babenko等人引入多示例模型,對含有多個樣本的正包和負(fù)包進(jìn) 行訓(xùn)練,在線選擇最有判別性的特征集合,將目標(biāo)和背景分離,使得該算法對跟蹤誤差具有 一定的容錯性。但其在獲取正包時仍會受到無益或有害示例的干擾,不能很好地提取目標(biāo) 的鑒別性特征。

【發(fā)明內(nèi)容】

[0004] 本發(fā)明針對上述現(xiàn)有技術(shù)的不足,提出一種基于邏輯回歸的視覺跟蹤方法,以實 現(xiàn)自適應(yīng)目標(biāo)和場景變化,提高復(fù)雜環(huán)境下的魯棒性和準(zhǔn)確性。
[0005] 實現(xiàn)本發(fā)明目的的技術(shù)方案是:采用邏輯回歸模型選取Haar-Iike特征弱分類器 并構(gòu)建出一個強分類器,引入異常判斷決定是否更新分類器參數(shù),具體實現(xiàn)步驟包括如下:
[0006] (1)在待測試視頻的初始幀即第一幀中手工選擇被跟蹤目標(biāo),構(gòu)造 N個服從高斯分 布的Haar-I ike特征弱分類器,隨機初始化Haar-I ike特征弱分類器權(quán)重W,每個Haar-I ike 特征弱分類器在目標(biāo)框中隨機生成2至6個大小不等的矩形及每個矩形所對應(yīng)的權(quán)重值,作 為Haar-I ike特征計算模板;
[0007] (2)在目標(biāo)位置附近區(qū)域選取正樣本,在遠(yuǎn)離目標(biāo)位置的區(qū)域選取負(fù)樣本,正負(fù)樣 本數(shù)量相等且與目標(biāo)框大小相同;
[0008] (3)依據(jù)步驟(1)中得到的Haar-Iike特征計算模板得到每個正負(fù)樣本的Haar-I ike特征向量X;
[0009] (4)更新Haar-Iike特征弱分類的器高斯分布參數(shù)μ+,μ_,〇+,〇_,其中μ+為正樣本 Haar-I ike特征均值,μ-為負(fù)樣本Haar-I ike特征均值,σ+為正樣本Haar-I ike特征值標(biāo)準(zhǔn)差, 0 一為負(fù)樣本Haar-I ike特征值標(biāo)準(zhǔn)差;
[0010] (5)利用步驟(2)中選取的樣本對更新后的Haar-Iike特征弱分類器進(jìn)行測試,計 算Haar-I ike特征弱分類器對正樣本的分類準(zhǔn)確率CCRP;
[0011] (6)根據(jù)正樣本分類準(zhǔn)確率CCRP進(jìn)行異常判別:
[0012]如果正樣本分類準(zhǔn)確率CCRP小于異常判別閾值Θ,認(rèn)為出現(xiàn)異常,則恢復(fù)上一幀 的Haar-I ike特征弱分類器高斯分布參數(shù)μ+,,〇+,0-,且保持原有權(quán)重W;
[0013]反之,認(rèn)為無異常,則利用邏輯回歸模型優(yōu)化Haar-Iike特征弱分類器權(quán)重W;
[0014] (7)對Haar-Iike特征弱分類器依據(jù)權(quán)重降序排列,取前K個Haar-Iike特征弱分類 器及其對應(yīng)權(quán)重,線性組合為強分類其中Xs為前K個Haar-Iike特征弱分類器 組成的向量;
[0015] (8)讀取下一幀,以原目標(biāo)位置及其8鄰域作為測試窗口,從中獲取Pf個候選樣本, 候選樣本與目標(biāo)框大小相同;
[00?6] (9)依據(jù)步驟(1)中得到的Haar-I ike特征計算模板計算每個候選樣本對應(yīng)步驟 (7)中K個Haar-Iike特征弱分類器的Haar-Iike特征,組成每個候選樣本的Haar-Iike特征 向量Xc";
[0017] (10)以每個候選樣本的Haar-Iike特征向量X。作為強分類器W(Xs)的輸入,計 算得到每一個候選樣本能成為目標(biāo)的概率P;
[0018] (11)選取概率p最大的候選樣本作為目標(biāo);
[0019] (12)返回步驟(2)執(zhí)行下一幀。
[0020] 本發(fā)明與現(xiàn)有技術(shù)相比有以下優(yōu)點:
[0021] 第一,本發(fā)明采用了邏輯回歸模型組織Haar-Iike特征弱分類器,選取部分Haar- Iike特征弱分類器并構(gòu)建出一個強分類器,能夠排除有害示例的干擾,提高了跟蹤的準(zhǔn)確 性。
[0022]第二,本發(fā)明使用有限內(nèi)存擬牛頓法優(yōu)化弱分類器權(quán)重,增強了強分類器的鑒別 性,提尚了運算效率。
[0023]第三,本發(fā)明引入異常判斷決定是否更新分類器參數(shù),從而實現(xiàn)自適應(yīng)目標(biāo)和場 景變化,增強了跟蹤的魯棒性。
【附圖說明】
[0024]圖1為本發(fā)明的實現(xiàn)流程圖;
[0025] 圖2為對第一幀視頻圖像用人工標(biāo)記出的待跟蹤目標(biāo)示意圖;
[0026] 圖3為用本發(fā)明對圖2標(biāo)記的待跟蹤目標(biāo)進(jìn)行跟蹤的結(jié)果圖。
[0027]具體實施措施
[0028] 下面結(jié)合附圖對發(fā)明的實施例和效果做進(jìn)一步描述,以下實例用于說明本發(fā)明, 但不限制本發(fā)明的范圍。
[0029] 參照圖1,對本發(fā)明的實現(xiàn)步驟如下:
[0030] 步驟1,初始化Haar-I ike特征弱分類器及其權(quán)重,獲得Haar-I ike特征計算模板。
[0031]在待測試視頻的初始幀即第一幀中手工繪制矩形框標(biāo)記目標(biāo),構(gòu)造 N個服從高斯 分布的Haar-I ike特征弱分類器,本實例中取N = 250,隨機初始化Haar-I ike特征弱分類器 權(quán)重胃,胃=^^£(〇,1)4 = 1,2^",1'1},'\^表示第;[個!^1-1丨1^特征弱分類器權(quán)重;
[0032]每個Haar-Iike特征弱分類器在目標(biāo)框中隨機生成2至6個大小不等的矩形及每個 矩形所對應(yīng)的權(quán)重值,作為Haar-I i ke特征計算模板。
[0033]步驟2,根據(jù)目標(biāo)位置選取正負(fù)樣本。
[0034]將目標(biāo)框四邊向外擴充3個像素作為正樣本區(qū)域,從中抽取49個與目標(biāo)框大小相 同的正樣本,同時在目標(biāo)框的8鄰域中均勻抽取相同數(shù)量負(fù)樣本
[0035] 步驟3,計算每個正負(fù)樣本的Haar-Iike特征向量X。
[0036] 依據(jù)步驟(1)中得到的Haar-I ike特征計算模板計算每個樣本的Haar-I ike特征向 量X= (Xi,X2,…,Xi,…,XN)τ,其中每一維Haar-Iike特征Xi是弱分類器hi在所選矩形區(qū)域 Haar-I ike特征的加權(quán)和,i = l, 2,…,N,N表示Haar-I ike特征弱分類器個數(shù),本實例中取N =250,上標(biāo)T表示取向量轉(zhuǎn)置;
[0037] 步驟4,更新Haar-I ike特征弱分類器高斯分布參數(shù)μ+,μ-,〇+,〇-。
[0038]所述Haar-Iike特征弱分類器的高斯分布參數(shù)為μ+,μ'〇+,0-,其中μ+為正樣本的 Haar-I ike特征均值,〇+為正樣本的Haar-I ike特征值標(biāo)準(zhǔn)差,μ-為負(fù)樣本的Haar-I ike特征 均值,K為負(fù)樣本的Haar-I ike特征值標(biāo)準(zhǔn)差。
[0039] 為適應(yīng)跟蹤過程中目標(biāo)和場景的變化,需要對Haar-Iike特征弱分類器高斯分布 參數(shù)μ+,μ' σ+,^進(jìn)行更新,更新公式如下:
[0040] 對于第t幀圖像 [0041 ] U1 = λμL +(1-λ)μ'f ,
[0042] μ, =/?/Λ +(1-/1)//,,
[0043] σ] = /.σ': +(1-/.)0-,1 ,
[0044] σ', = λσ? + (1 - κ) σ,,
[0045] 其中,下標(biāo)t和t-Ι代表兩個相鄰幀的圖像,λ是一個自適應(yīng)參數(shù)常數(shù)用來控制更新 的速率,對于第一幀λ= 1,在本實例中對于其他幀取λ = 〇. 95;
[0046] A+為第t幀時正樣本的Haar-Iike特征均值,:麵+為在第t幀圖像中所提取正樣本的 Haar-I ike特征均值,//,I1為第t-Ι幀時正樣本的Haar-I ike特征均值;
[0047] 托為第t幀時負(fù)樣本的Haar-Iike特征均值,/4為在第t幀圖像中所提取負(fù)樣本的 Haar-1 i ke特征均值,I為第t-1幀時負(fù)樣本的Haar-1 i ke特征均值;
[0048] <為第t幀時正樣本的Haar-Iike特征值標(biāo)準(zhǔn)差,W為在第t幀圖像中所提取正樣 本的特征值標(biāo)準(zhǔn)差,為第t-Ι幀時正樣本的Haar-Iike特征值標(biāo)準(zhǔn)差;
[0049] 為第t幀時負(fù)樣本的Haar-Iike特征值標(biāo)準(zhǔn)差,__σΓ為在第t幀圖像中所提取負(fù)樣 本的Haar-Iike特征值標(biāo)準(zhǔn)差,. c^i為第t-Ι幀時負(fù)樣本的Haar-Iike特征值標(biāo)準(zhǔn)差。
[0050] 步驟5,計算Haar-I ike特征弱分類器對正樣本的分類準(zhǔn)確率CCRP。
[0051] 利用步驟(2)中選取的樣本對更新后的Haar-Iike特征弱分類器進(jìn)行測試,計算 Haar-I ike特征弱分類器對正樣本的分類準(zhǔn)確率CCRP:
[0052]
[0053]
[0054] 其中,N為Haar-I ike特征弱分類器個數(shù),本實例中取N= 250,PC為Haar-I ike特征 弱分類器對正樣本分類正確的個數(shù),M+為正樣本個數(shù),本實例中取M+ = 49,hi(xij)為Haar-Iike特征弱分類器hi對第j個樣本的第i維Haar-I ike特征的分類結(jié)果,Xij為第j個樣本的第 i 維 Haar-Iike 特征值,i = l,2,…,N,j = l,2,…,M+,Pr(xij I y = l)為第j 個樣本的第i 維 Haar-Iike特征屬于正樣本的概率,服從高斯分布Ν(μ+,σ+2) ;Pr(Xij |y = 0)為第j個樣本的第 i維Haar-Iike特征屬于負(fù)樣本的概率,服從高斯分布Nf2),μ+、μ'σ+、0-為Haar-Iike特 征弱分類器高斯分布參數(shù)。
[0055] 步驟6,根據(jù)正樣本分類準(zhǔn)確率CCRP進(jìn)行Haar-I ike特征弱分類器分類異常判別:
[0056] 如果正樣本分類準(zhǔn)確率CCRP小于異常判別閾值Θ,認(rèn)為Haar-Iike特征弱分類器 分類結(jié)果出現(xiàn)異常,則恢復(fù)上一幀的Haar-I ike特征弱分類器高斯分布參數(shù)μ+,μ'〇+,0-,且 保持原有權(quán)重W;
[0057]反之,認(rèn)為Haar-Iike特征弱分類器分類結(jié)果無異常,則利用邏輯回歸模型優(yōu)化 Haar-Iike特征弱分類器權(quán)重W,權(quán)重W使用有限內(nèi)存擬牛頓法對下式進(jìn)行求解得到:
[0058]
[0059] 其中,本實例中取Θ =〇.35,H=(hi,h2,···,hn,···,hN)T,hn表示第η維特征所對應(yīng)的 Haar-Iike特征弱分類器,W = (wi,W2,…,wn,…,WN)T,wn為hn的權(quán)重值,η = 1,2,…,Ν,Ν為 Haar-Iike特征弱分類器個數(shù),上標(biāo)T表示取向量轉(zhuǎn)置,OO是折中系數(shù),本實例中取C = 3,yi e { ±1}是第個樣本的真實標(biāo)簽,0為正負(fù)樣本總數(shù)。
[0060] 步驟7,依據(jù)權(quán)重W選取Haar-Iike特征弱分類器整合為強分類器。
[0061] 對Haar-Iike弱特征分類器依據(jù)權(quán)重降序排列,取前K個Haar-Iike特征弱分類器 及其對應(yīng)權(quán)重,線性組合為強分類
[0062]
[0063] 其中Xs = (XI,X2,…,Xi,…,χκ)τ是權(quán)值最高的前K個Haar-Iike特征弱分類器對應(yīng) 的Haar-I ike特征組成的特征向量,上標(biāo)T表示取向量轉(zhuǎn)置,K是組成強分類器hstl:°ng(X s;^ Haar-I ike特征弱分類器個數(shù),本實例中取K= 100,Xi是權(quán)值最高的前K個Haar-I ike特征弱 分類器對應(yīng)的Haar-I ike特征,hi (Xi)是權(quán)值最高的前K個Haar-I ike特征弱分類器,Wi為hi (Xi)對應(yīng)的權(quán)重值,i = l,2,…,K。
[0064]步驟8,讀取下一幀,獲取候選樣本。
[0065] 讀取下一幀,以原目標(biāo)位置及其8鄰域作為測試窗口,從中隨機抽取#個候選樣 本,本實例中取Ne為目標(biāo)框像素個數(shù)的30 % ;
[0066] 步驟9,計算每一個候選樣本的Haar-I ike特征向量Xc。
[0067] 依據(jù)步驟1中得到的Haar-Iike特征計算模板計算每個候選樣本對應(yīng)步驟(7)中K 個Haar-I ike特征弱分類器的Haar-I ike特征,組成每個候選樣本的Haar-I ike特征向量Xc;
[0068]步驟10,計算每一個候選樣本能成為目標(biāo)的概率p。
[0069] 以每個候選樣本的Haar-Iike特征向量Xe作為強分類器hstMng(Xs)的輸入,計算得 到每一個候選樣本能成為目標(biāo)的概率p,計算公式如下:
[0070] p = hstrong(Xc)
[0071] 其中乂£==(11^2,一41,"_41()1'是每個候選樣本對應(yīng)步驟(7)中權(quán)值最高的前1(個 Haar-I ike特征弱分類器的Haar-I ike特征組成的特征向量,上標(biāo)T表示取向量轉(zhuǎn)置,K是組 成強分類器hstong(Xs)的Haar-Iike特征弱分類器個數(shù),X 1是每個候選樣本對應(yīng)步驟(7)中權(quán) 值最高的前K個Haar-I ike特征弱分類器對應(yīng)的Haar-I ike特征,i = l, 2,…,K。
[0072] 步驟11,選取概率p最大的候選樣本作為目標(biāo)。
[0073] 步驟12:返回步驟2執(zhí)行下一幀。
[0074]本發(fā)明能自適應(yīng)目標(biāo)和背景的變化,大幅提高了在自然場景下的目標(biāo)跟蹤效果和 跟蹤準(zhǔn)確率。
[0075]以上描述僅是本發(fā)明的一個具體實例,顯然對于本領(lǐng)域的專業(yè)人員來說,在了解 了本
【發(fā)明內(nèi)容】
和原理后,都可能在不背離本發(fā)明原理、結(jié)構(gòu)的情況下,進(jìn)行形式和細(xì)節(jié)上的 各種修正和改變,但是這些基于本發(fā)明思想的修正和改變?nèi)栽诒景l(fā)明的權(quán)利要求保護范圍 之內(nèi)。
【主權(quán)項】
1. 基于邏輯回歸的視覺跟蹤方法,包括: (1) 在待測試視頻的初始幀即第一幀中手工選擇被跟蹤目標(biāo),構(gòu)造 N個服從高斯分布的 Haar-1 ike特征弱分類器,隨機初始化Haar-l ike特征弱分類器權(quán)重W,每個Haar-l ike特征 弱分類器在目標(biāo)框中隨機生成2至6個大小不等的矩形及每個矩形所對應(yīng)的權(quán)重值,作為 Haar-l ike特征計算模板; (2) 在目標(biāo)位置附近區(qū)域選取正樣本,在遠(yuǎn)離目標(biāo)位置的區(qū)域選取負(fù)樣本,正負(fù)樣本數(shù) 量相等且與目標(biāo)框大小相同; (3) 依據(jù)步驟(1)中得到的Haar-l ike特征計算模板得到每個正負(fù)樣本的Haar-l ike特 征向量X; (4) 更新Haar-like特征弱分類的器高斯分布參數(shù)^#'〇+,〇'其中^為正樣本他&廣 1 ike特征均值,μ-為負(fù)樣本Haar-l ike特征均值,σ+為正樣本Haar-l ike特征值標(biāo)準(zhǔn)差,〇-為 負(fù)樣本Haar-l ike特征值標(biāo)準(zhǔn)差; (5) 利用步驟(2)中選取的樣本對更新后的Haar-like特征弱分類器進(jìn)行測試,計算 Haar-l ike特征弱分類器對正樣本的分類準(zhǔn)確率CCRP; (6) 根據(jù)正樣本分類準(zhǔn)確率CCRP進(jìn)行異常判別: 如果正樣本分類準(zhǔn)確率CCRP小于異常判別閾值Θ,認(rèn)為出現(xiàn)異常,則恢復(fù)上一幀的 Haar-l ike特征弱分類器高斯分布參數(shù)μ+,,σ+,0-,且保持原有權(quán)重W; 反之,認(rèn)為無異常,則利用邏輯回歸模型優(yōu)化Haar-l ike特征弱分類器權(quán)重W; (7) 對Haar-like特征弱分類器依據(jù)權(quán)重降序排列,取前K個Haar-like特征弱分類器及 其對應(yīng)權(quán)重,線性組合為強分類器11^°,^),其中X s為前K個Haar-like特征弱分類器組成 的向量; (8) 讀取下一幀,以原目標(biāo)位置及其8鄰域作為測試窗口,從中獲取Pf個候選樣本,候選 樣本與目標(biāo)框大小相同; (9) 依據(jù)步驟(1)中得到的Haar-l ike特征計算模板計算每個候選樣本對應(yīng)步驟(7)中K 個Haar-l ike特征弱分類器的Haar-l ike特征,組成每個候選樣本的Haar-l ike特征向量Xc; (10) 以每個候選樣本的Haar-like特征向量Γ作為強分類器hstong(Xs_輸入,計算得 到每一個候選樣本能成為目標(biāo)的概率P; (11) 選取概率P最大的候選樣本作為目標(biāo); (12) 返回步驟(2)執(zhí)行下一幀。2. 根據(jù)權(quán)利要求1所述的基于邏輯回歸的視覺跟蹤方法,其中步驟(1)中隨機初始化 版31-111^特征弱分類器權(quán)重¥,表示為¥=^^£(〇,1)4 = 1,2,~,1'1},'\^表示第;[個 Haar-l ike特征弱分類器權(quán)重,N表示Haar-l ike特征弱分類器個數(shù)。3. 根據(jù)權(quán)利要求1所述的基于邏輯回歸的視覺跟蹤方法,其中步驟(4)中更新Haar-1 ike特征弱分類器高斯分布參數(shù)μ+,,〇+,0-,采用如下公式進(jìn)行: 對于第t幀圖像= Ασ? + (1 - A) σ,, 其中,下標(biāo)t和t-Ι代表兩個相鄰幀的圖像,λ是一個自適應(yīng)參數(shù)常數(shù)用來控制更新的速 率,對于第一幀λ= 1,//,+為第t幀時正樣本的Haar-1 ike特征均值,私+為在第t幀圖像中所提 取正樣本的Haar-like特征均值,/(1為第t-Ι幀時正樣本的Haar-like特征均值;為第t幀 時負(fù)樣本的Haar-like特征均值,為在第t幀圖像中所提取負(fù)樣本的Haar-like特征均值, Μ,.--1為第t-Ι幀時負(fù)樣本的Haar-like特征均值;σ/為第t幀時正樣本的Haar-like特征值標(biāo) 準(zhǔn)差,為在第t幀圖像中所提取正樣本的特征值標(biāo)準(zhǔn)差,為第t-Ι幀時正樣本的Haar-like特征值標(biāo)準(zhǔn)差; <為第t幀時負(fù)樣本的Haar-like特征值標(biāo)準(zhǔn)差,為在第t幀圖像中 所提取負(fù)樣本的Haar-1 i ke特征值標(biāo)準(zhǔn)差,.為第t-1幀時負(fù)樣本的Haar-1 i ke特征值標(biāo)準(zhǔn) 差。4. 根據(jù)權(quán)利要求1所述的基于邏輯回歸的視覺跟蹤方法,其中步驟(5)中的Haar-like 特征弱分類器對正樣本分類準(zhǔn)確率CCRP,采用如下公式計算:其中,N為Haar-like特征弱分類器個數(shù),M+為正樣本個數(shù),P。為Haar-like特征弱分類器 對正樣本分類正確的個數(shù),hi(xij)為Haar-like特征弱分類器hi對第j個樣本的第i維Haar-like特征的分類結(jié)果, xij為第j個樣本的第i維Haar-like特征值,i = l,2,…,N,j = l,2,···,M+,Pr(xij |y=l)為第j 個樣本的第i維Haar-like特征屬于正樣本的概率,服從高斯分布Ν(μ+,σ+2) ;Pr(Xij |y = 0)為 第j個樣本的第i維Haar-like特征屬于負(fù)樣本的概率,服從高斯分布Ν(μ'0-2),μ +、μ'σ+、0- 是Haar-like特征弱分類器高斯分布參數(shù)。5. 根據(jù)權(quán)利要求1所述的基于邏輯回歸的視覺跟蹤方法,其中步驟(6)中利用邏輯回歸 模型優(yōu)化弱分類器權(quán)重W,是利用有限內(nèi)存擬牛頓法對下式進(jìn)行求解得到:其中,H= (hi,h2,…,hn,…,hN)T,hn表示第η維特征所對應(yīng)的Haar-like特征弱分類器,W =(wi,W2,…,wn,…,WN)T,wn為hn的權(quán)重值,n=l,2,…,N,N為Haar-like特征弱分類器個數(shù), 上標(biāo)T表示取向量轉(zhuǎn)置,C>0是折中系數(shù), yie{±l}是第個樣本的真實標(biāo)簽,0為正負(fù)樣本 總數(shù)。6. 根據(jù)權(quán)利要求1所述的基于邏輯回歸的視覺跟蹤方法,其中步驟(7)中線性組合為強 分類器hstong(X s),通過下式進(jìn)行:其中Xs= (XI,X2,…,xi,…,χκ)τ是權(quán)值最高的前K個Haar-like特征弱分類器對應(yīng)的 Haar-like特征組成的特征向量,上標(biāo)T表示取向量轉(zhuǎn)置,K是組成強分類器hstl:°ng(X s)的 他31-1丨1^特征弱分類器個數(shù),11是權(quán)值最高的前1(個他31-1丨1^特征弱分類器對應(yīng)的他31·-like特征,hi(xi)是權(quán)值最高的前K個Haar-like特征弱分類器,Wi為hi(xi)對應(yīng)的權(quán)重值,i = 1,2,···,Κ〇7.根據(jù)權(quán)利要求1所述的基于邏輯回歸的視覺跟蹤方法,其中步驟(10)中的每一個候 選樣本能成為目標(biāo)的概率Ρ,采用如下公式計算: p = hstrong(Xc) 其中X"" = (XI,X2,…,Xi,…,χκ)τ是每個候選樣本對應(yīng)步驟(7)中權(quán)值最高的前K個Haar-1 ike特征弱分類器的Haar-1 ike特征組成的特征向量,上標(biāo)T表示取向量轉(zhuǎn)置,K是組成強分 類器hstong(Xs)的Haar-like特征弱分類器個數(shù),Xl是每個候選樣本對應(yīng)步驟(7)中權(quán)值最高 的前K個Haar-1 ike特征弱分類器對應(yīng)的Haar-1 ike特征,i = l, 2,…,K。
【文檔編號】G06K9/62GK106056146SQ201610364295
【公開日】2016年10月26日
【申請日】2016年5月27日
【發(fā)明人】田小林, 焦李成, 趙素杰, 張小華, 王桂婷, 朱虎明
【申請人】西安電子科技大學(xué)
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
临泽县| 嘉鱼县| 洛宁县| 永安市| 新干县| 大名县| 沈阳市| 沁源县| 江都市| 呼伦贝尔市| 武川县| 舟山市| 广平县| 如皋市| 时尚| 永安市| 绥德县| 略阳县| 钟山县| 夏河县| 五寨县| 类乌齐县| 教育| 望城县| 黑水县| 西贡区| 达日县| 和硕县| 清苑县| 阿拉善右旗| 湟源县| 麻江县| 贡嘎县| 同仁县| 浦北县| 靖边县| 吕梁市| 蓬溪县| 华阴市| 汕头市| 佛学|