像中的直線對象或者點作為匹配的特征量。對于直線的提取主要使用的方法有Hough變換、 隨機Hough變換(random Hough transform)等;而提取點的常用方法有邊緣檢測、角點檢測 等。本發(fā)明優(yōu)選Harris角點檢測算法,具體采用如下方法:
[0040] S311:對于前景圖像I中的每一個像素,計算其X和y方向?qū)?shù)Ix和Iy,并且計算I xy -IxIyo
[0041 ] 3312:應用窗口函數(shù)六,即,1^=六1\,1^=六1丫,1^=六10,
[0042] S313:計算i/ =+ \ )2 (k是常數(shù))以測量兩個方向的變化。
[0043] S314:設(shè)置H的閾值并查找局部極大值以獲得角特征點。
[0044]利用Harris角點檢測算法分別對前一幅圖像和本幅圖像進行角點檢測形成角點 集合分力丨j 記為五少(?-〗)2}…,(xG-I)i,少(M)i.),…,( x(卜1)A.,y(i, 盡=Κ? )> Js · · ·,(\,>^ ),…,(\,)},在獲得E (t-1)和E t這兩個特征集合之后,就需 要將對應特征點進行匹配。本發(fā)明優(yōu)選正規(guī)化后的關(guān)聯(lián)系數(shù),這是一種高效的統(tǒng)計方法。通 過在點周圍的小窗口上最大化關(guān)聯(lián)系數(shù),實現(xiàn)實際特征匹配。關(guān)聯(lián)系數(shù)由下式給出:
[0046] 其中,Vt1(^c)表示前一幅圖像中被跟蹤目標的個體灰度值;
[0047] 表示前一幅圖像中被跟蹤目標的平均灰度值;
[0048] vt(r,c)表示當前幀圖像中被跟蹤目標的個體灰度值;
[0049] R表示當前幀圖像中被跟蹤目標的平均灰度值
[0050] R、C表示模板矩陣的行數(shù)和列數(shù)。
[0051] 當上述協(xié)方差最大時,說明兩點匹配。本發(fā)明僅針對特征點實現(xiàn)塊匹配算法。因 此,計算開銷可以明顯降低。通過角點集合和'的關(guān)聯(lián)計算,將兩集合雖中相匹配的點 保留下來,其它的點去除,分別計為匹配的點集:
[0054] 為了獲得準確的跟蹤結(jié)果,可以動態(tài)更新目標模型,模型更新使用最近跟蹤結(jié)果 和較舊目標模型兩者以影響物體跟蹤的當前目標模型。更新過程用公式表示為:
[0055] q[ = (I - ? )qt~x + αρ'0 (3)
[0056] <表示目標〇的模型當前時刻的模型表示目標〇的模型前一時刻的模型,K表 示目標〇在時刻t的候選模型;α對最近跟蹤結(jié)果的貢獻進行加權(quán)(通常<0.1)。
[0057] 在無人機跟蹤的目標中,會出現(xiàn)形狀和性質(zhì)相似的多個區(qū)域,如運行在道路中的 汽車,行人等,而實際應用中,無人機的任務可能只要求跟蹤一個目標,而被跟蹤的目標與 其它區(qū)域的形態(tài)相同,因此,常常會引起誤跟蹤,為解決該問題,本發(fā)明還包括計算每個跟 蹤軌跡的最佳分值,每個目標的軌跡在圖像坐標系中可以用2D點序列[Vo ,V1,…,Vn]表示, 該目標軌跡的分值可以通過下式計算:
[0059] 式中隊是如圖5所示的一個軌跡點與其相鄰的兩個軌跡點的連線的夾角,S(T)大 于或者等于〇,并小于或者等于US(T)越高,跟蹤目標的軌跡越光滑,越是感興趣的被跟蹤 的目標。利用本發(fā)明提供的方法可以從多個相似的目標區(qū)域中篩選出被跟蹤的目標,而排 除其它目標。
[0060] 步驟S04中,根據(jù)空間共線方程,計算出目標的平均速度和方向具體包括:
[0061] S04-1從存儲器中取出無人機。時刻獲取的圖像數(shù)據(jù)并在顯示器中顯示,同時取 出拍攝圖像時的無人機位置,該位置為地面坐標,根據(jù)無人機的位置經(jīng)坐標變換可計算出 tm時刻圖像的投影中心的地面坐標
[0062] S04-2:將圖像由像素坐標系變換到圖像平面坐標系;
[0063] S04-3:根據(jù)無人機載攝像機獲取的圖像建立共線定位數(shù)學模型為:
[0065]式中是被拍攝目標的地面坐標,氣、乜是圖像的平面坐標。
[0066] f為攝像機焦距,各坐標的關(guān)系如圖6所示。
[0067] ai = cos Φ · cos κ
[0068] a2 = cos ω · sin κ+sin ω · sin Φ · cos κ
[0069] a3 = sin ω · sin κ-cos ω · sin Φ · sin κ;
[0070] bi = -cos Φ · sin κ;
[0071] b2 = cos ω · cos κ-sin ω · sin Φ · sin κ
[0072] b3 = sin ω · sin κ+cos ω · sin Φ · sin κ
[0073] ci = sin Φ ;
[0074] C2 = -sin ω · cos Φ ;
[0075] C3 = cos ω · cos Φ
[0076] 其中,,ω,κ為攝影軸的姿態(tài)角,分別為攝像設(shè)備軸繞空間坐標系的y軸的旋角, 繞空間坐標系的X軸的旋角,繞空間坐標系的z軸的旋角。
[0077]將(5)式進行變換得:
[0079] S 0 4 - 4 :從圖像中選取三個控制像點,其平面坐標分別為 (?),(\,八),(\,乂3),并從DEM模型中取出這三個控制像點對應的物點的地面坐標 將值代入⑷式,共得六方程組,共有六個未知數(shù) 及,};,、,Ρ,ω,κ方程組精確求得XvVZc 1ω、κ的值,而后代入(6)式得到定位圖 像中包含目標每一個像點的地面坐標。
[0080]根據(jù)下式計算目標的速度和運行方向:
[0083] 本發(fā)明提供的無人機目標跟蹤方法可以作成一種系統(tǒng),所述系統(tǒng)包括不同軟件模 塊。軟件模塊可以包括實現(xiàn)上述方法的任何或全部組件。在實施例中,軟件模塊包括視頻流 服務模塊、坐標變換模塊、濾波模塊、圖像提取模塊、特征點匹配模塊、跟蹤模塊、DEM數(shù)據(jù)庫 服務站模塊、用戶接口模塊以及可視化控制臺模塊,這些模塊例如可以在一個或多個硬件 處理器上運行。然后可以使用所述系統(tǒng)的不同軟件模塊執(zhí)行所述方法步驟。
[0084] 此外,本發(fā)明提供的方法可以通過計算機可用程序代碼的計算機程序來實現(xiàn),計 算機可用程序代碼被存儲在數(shù)據(jù)處理系統(tǒng)內(nèi)的計算機可讀存儲介質(zhì)中,并且計算機可用程 序代碼通過網(wǎng)絡(luò)從遠程數(shù)據(jù)處理系統(tǒng)下載。此外,在本發(fā)明的實施例中,計算機程序可以包 括被存儲在服務站數(shù)據(jù)處理系統(tǒng)內(nèi)的計算機可讀存儲介質(zhì)中的計算機可用程序代碼,計算 機可用程序代碼通過網(wǎng)絡(luò)下載到遠程數(shù)據(jù)處理系統(tǒng),以便在遠程系統(tǒng)的計算機可讀存儲介 質(zhì)中使用。
[0085] 所屬技術(shù)領(lǐng)域的技術(shù)人員知道,本發(fā)明的各個方面可以實現(xiàn)為系統(tǒng)或者方法。因 此,本發(fā)明的各個方面可以具體實現(xiàn)為以下形式,即:完全的硬件實施方式、完全的軟件實 施方式(包括固件、駐留軟件、微代碼等),或軟件和硬件方面結(jié)合的實施方式,這里可以統(tǒng) 稱為"模塊"或"系統(tǒng)"。
[0086]本發(fā)明的實施例可以以裝置的形式實現(xiàn),所述裝置包括存儲器和至少一個處理 器,所述至少一個處理器耦合到所述存儲器并可操作以執(zhí)行示例性方法步驟。
[0087]以上結(jié)合附圖描述了本發(fā)明的基本原理、主要特征和本發(fā)明的優(yōu)點。本行業(yè)的技 術(shù)人員應該了解,本發(fā)明不受上述實施例的限制,上述實施例和說明書中描述的只是說明 本發(fā)明的原理,在不脫離本發(fā)明精神和范圍的前提下本發(fā)明還會有各種變化和改進,這些 變化和改進都落入要求保護的本發(fā)明范圍內(nèi)。本發(fā)明要求保護范圍由所附的權(quán)利要求書及 其等同物界定。
【主權(quán)項】
1. 一種無人機目標跟蹤系統(tǒng),其特征在于,包括: SOI:利用無人機載攝像機連續(xù)拍攝至少二幅地面圖像,并在每幅圖像中標注無人機的 地面坐標、航向角及獲取地面圖像時的時刻; S02:將每幅地面圖像進行坐標以使它們處于同一圖像坐標系中; S03:對二幅地面圖像進行濾波,而后從濾波后的地面圖像中取出包括目標圖像的前景 圖像,從前景圖像中提取特征點,提取前一幅前景圖像中的每一區(qū)域特征點并與被跟蹤目 標的模板的特征點進行匹配,利用匹配成功的區(qū)域更新被跟蹤目標的模板,利用更新后的 被跟蹤目標的模板的特征點與當前幅前景圖像中的每一區(qū)域的特征點進行匹配; S04:根據(jù)匹配成功的兩幅前景圖像中的區(qū)域的特征點的位置關(guān)系確定被跟蹤目標的 速度和運行方向; S05:根據(jù)被跟蹤目標的速度和運行方向調(diào)整無人機的航速和航向,從而跟蹤目標。2. 根據(jù)權(quán)利要求1所述的無人機目標跟蹤方法,其特征在于,利用仿射變換將每幅圖像 變換到同一圖像坐標系中。
【專利摘要】一種無人機目標跟蹤方法,包括:連續(xù)拍攝二幅地面圖像,在每幅圖像中標注無人機的地面坐標、航向角及獲取地面圖像時的時刻;將每幅地面圖像處于同一坐標系中;對二幅地面圖像進行濾波,從濾波后的圖像中取出包括目標圖像的前景圖像,從前景圖像中提取特征點,提取前一幅前景圖像中的每一區(qū)域特征點并與被跟蹤目標的模板的特征點進行匹配,利用匹配成功的區(qū)域更新被跟蹤目標的模板,利用更新后的模板特征點與當前幅前景圖像中的每一區(qū)域的特征點進行匹配;根據(jù)匹配成功的兩幅前景圖像中的區(qū)域的特征點的位置關(guān)系確定被跟蹤目標的速度和方向;根據(jù)被跟蹤目標的速度和方向調(diào)整無人機的航速和航向。本發(fā)明提供的方法計算速度快,跟蹤目標的速度快。
【IPC分類】G05D1/12, G05D1/10
【公開號】CN105549614
【申請?zhí)枴緾N201510940763
【發(fā)明人】伍可炳, 李剛, 董震
【申請人】北京獵鷹無人機科技有限公司
【公開日】2016年5月4日
【申請日】2015年12月17日