欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于計算機視覺的飛行器航向跟蹤方法

文檔序號:5839492閱讀:165來源:國知局

專利名稱::一種基于計算機視覺的飛行器航向跟蹤方法
技術(shù)領域
:本發(fā)明屬于飛行器導航
技術(shù)領域
,具體涉及一種基于計算機視覺的飛行器航向跟蹤技術(shù)。
背景技術(shù)
:目前視覺導航技術(shù)還處于研究階段,在機器人、無人機等智能交通工具上視覺導航應用非常廣泛。視覺導航首先要解決飛行器的姿態(tài)提取問題,對于飛行器的姿態(tài)穩(wěn)定,國內(nèi)外研究較多的是利用地平線算法得到橫滾角以及與俯仰角相關的俯仰百分比及其變化信息,以此作為對飛行器的飛行姿態(tài)估計,而公開發(fā)表的基于前視視頻獲得的圖像序列進行航向跟蹤的文獻還比較少。美國弗羅里達大學的JasonW.Grzywna,AshishJain等人使用地平線算法獲得微小型飛行器(MicroAirVehicle,MAV)的俯仰百分比和橫滾角信息,同時研究了一種地面物體追蹤的方法,這一方法用于著陸過程的導引獲得了滿意的準確度和實時性。伹是并沒有對航向的跟蹤方法進行研究。南京航空航天大學航空宇航學院的季健、昂海松提出了一種通過對航空序列圖像的分析來估計無人飛行器在空中的飛行軌跡的方法。在這其中,他提出一種基于像素對比度的區(qū)域特征比較因子的理論,給出了自動獲取動態(tài)圖像中適合用作姿態(tài)估計的特征區(qū)域的選取和更新策略,但是他們并沒有進一步研究飛行器的航向跟蹤方法。北京航空航天大學自動化學院的耿丹提出一種航向估計方法采用聯(lián)合圓形檢測區(qū)域抑制匹配中的圖像旋轉(zhuǎn)。在已經(jīng)提取出地平線的基礎上,在首幀圖像中設定航向點,通過在地平線附近圈定圓形區(qū)域而實現(xiàn)圖像序列的幀間匹配。匹配過程中充分考慮特征的選擇、航向移出視場、航向的重新捕獲以及航向移出視場后的防止發(fā)散等問題,并分別給出解決方案。但是該方法的匹配精度不是很高,而且運算時間較長。
發(fā)明內(nèi)容本發(fā)明的目的是提供一種基于計算機視覺的飛行器航向跟蹤方法,針對現(xiàn)有航向跟蹤方法,提供一種有效的改進方案,以提高其跟蹤精度及速度,提高該航向跟蹤方法的實用性。改進的主要內(nèi)容有l(wèi).圖像特征的改進已有的航向跟蹤方法是在原始圖像的灰度圖像上進行模板匹配。本發(fā)明在灰度圖像上引入梯度運算。采用灰度梯度圖像作為模板匹配的圖像源,梯度的引入相當于引入了圖像的邊緣信息,豐富了模板的信息量,可以使匹配效果得到有效的改善。設一幅圖像寬w、高h(以像素為單位),為該圖像中的一個像素點的像素值,/、/分別表示該像素點的橫、縱像素坐標,&、《分別為x和y方向上的梯度分量,S為最終圖像梯度值,圖像梯度公式如下:&=/(/-W+1)+2/(,,乂+1)+/(/++1)-/(i-l,卜1)-2/(,》'-1)-/(i+U-1)<&=+W-1)+2/(/+U)+/('■+U'+1)-/('--1)-2/(''-W)-/(/-+1)得到灰度梯度之后,再按照已有航向跟蹤方法中的步驟進行特征匹配,最后實現(xiàn)航向跟蹤。對于某航拍的視頻,含37幀圖像,圖像大小352X240(像素),分別采用原航向跟蹤方法和圖像特征改進后的方法進行航向跟蹤,跟蹤的精度比較如下表l。表中,"幀"表示圖像是第幾幀,"原"表示已有的航向跟蹤方法,"梯"表示引入圖像梯度后的改進的航向跟蹤方法,表中數(shù)據(jù)分別由兩種跟蹤方法得到的航向坐標減去實際的航向坐標得出(均以像素為單位)。由表格明顯看出,改進后的航向跟蹤方法有效提高了航向的跟蹤精度。表l:圖<table>tableseeoriginaldocumentpage6</column></row><table>2.匹配模板配置方式的改進已有的航向跟蹤方法,采用T形排列的5個圓形模板進行模板匹配,當增加圓形模板數(shù)量或者增大圓形模板半徑,均可以有效提高模板匹配的精度,但是計算量會大大增加。本發(fā)明為了不增加計算量,在保證模板個數(shù)及半徑不變的情況下,調(diào)整4莫板的排列形狀為半矩形排列,目的是使其包含更多的圖像信息。已有的航向識別方法采用7個度量作為圓形區(qū)域的特征向量E,依次是最大灰度值、最小灰度值、灰度均值、灰度標準差、灰度偏度、均值灰度差和平均灰度強度。這樣的特征向量無法適應半矩形排列的模板。本發(fā)明采用單特征向量驗證的方法,合理選擇特征向量及其權(quán)值,最后選用最大灰度值G/"aj"A/"^r和灰度標準差a構(gòu)成特征向量^(Graj^"ax,a);權(quán)值都取l。改進后的航向跟蹤效果比較如表2。對于某航拍的視頻,含37幀圖像,圖像大小352X240(像素),分別采用原航向跟蹤方法和模板配置方式改進后的方法進行航向跟蹤,跟蹤的精度比較如下表2。表中,"幀"表示圖像是第幾幀,"原"表示已有的航向跟蹤方法,"配"表示對模板配置方式改進后的航向跟蹤方法,表中數(shù)據(jù)分別由兩種跟蹤方法得到的航向坐標減去實際的航向坐標得出(均以像素為單位)。由表2明顯看出,改進后的航向跟蹤方法有效提高了航向的跟蹤精度。表2:模板配置方式改進fc下的航向跟蹤精度H<table>tableseeoriginaldocumentpage7</column></row><table>3.運算效率的改進當航向移出視場之后,已有的航向跟蹤方法提出二次匹配的方法來處理這種異常情況。設正常情況下的匹配為一次匹配,航向移出視場之后的匹配為二次匹配,一次匹配和二次匹配分別采用的是不同的匹配模板。當已經(jīng)移出視場的航向點重新回到視場范圍內(nèi),此時仍應當采用一次匹配的模板,因此也稱之為一次匹配。已有的航向跟蹤方法,采用的是順序的模板匹配方案,即每次匹配時,均先同一次匹配的模板進行匹配,匹配不成功再和二次匹配模板進行匹配。實際上,航向移出視場的過程中,一次匹配是不必要的。本發(fā)明提出,將二次匹配看作一次新的匹配過程,一次、二次匹配不分先后,而是由前一幀圖像的匹配結(jié)果來決定本幀采用一次匹配還是二次匹配,這樣去掉了航向移出視場過程中不必要的一次匹配時間,有效提高了航向跟蹤速度。選擇是進行一次匹配還是二次匹配的依據(jù)是,上一幀的匹配結(jié)果當上一幀二次匹配不成功,本次匹配首先進行一次匹配;當上一幀一次匹配不成功,本幀首先進行二次匹配。對于某航拍的視頻,含37幀圖像,圖像大小352X240(像素),分別釆用三種方法進行航向跟蹤,測試跟蹤效率原航向跟蹤方法、模板配置方式改進后的方法、模板配置方式改進后進行運算效率改進的方法,航向跟蹤的速度比較如下表3。表中數(shù)據(jù)為37幀圖像完成航向跟蹤的總時間。從表中可以看出,改用半矩形排列的圓形模板進行匹配之后,由于選用的特征向量減少了,運算時間相應的減少,伹是沒有得到明顯的速度改善;當對二次匹配進行提速之后,視頻處理速度得到明顯提升。表3運算效率比較<table>complextableseeoriginaldocumentpage8</column></row><table>本發(fā)明的優(yōu)點在于與已有的航向跟蹤方法相比,本發(fā)明對于(1)圖像特征的改進,引入圖像梯度,豐富匹配圖像的信息量,有效提高了匹配精度;(2)模板配置方式的改進,通過修改模板的排列方式,擴大了模板信息量的提取,同時合理選取特征向量及其權(quán)值,有效提高了航向跟蹤精度;(3)異常情況下的二次匹配效率的改進,縮短了跟蹤方法的時間。圖1是本發(fā)明航向跟蹤方法的流程圖;圖2是某航拍視頻中的一幀圖像;圖3是圖2的灰度圖像;圖4是圖2的灰度梯度圖像;圖5是本發(fā)明引入的+莫板匹配的半矩形模板排列方式;圖6是已有航向跟蹤方法順序模板匹配的流程圖;圖7是本發(fā)明改進的航向跟蹤方法模板匹配的流程圖。具體實施例方式下面將結(jié)合附圖和實施例對本發(fā)明作進一步的詳細說明。本發(fā)明是對已有航向跟蹤方法的改進方案,從不同角度的改進以達到提髙跟蹤精度、縮短跟蹤時間的目的。改進后的航向跟蹤方法流程圖如圖1,具體的實施方法如下1.提取第n幀圖像的灰度像素值如圖2為一航拍視頻中的第n幀圖像,提取其灰度見圖3。2.圖像特征的改進提取灰度圖像的梯度信息,由公式<formula>formulaseeoriginaldocumentpage8</formula>其中,/(z》)為該圖像中的橫坐標為i、縱坐標為j的像素點的像素值,&、《分別為x和y方向上的梯度分量,S為最終圖像梯度值,該圖像寬w、高h(以像素為單位)。得到的灰度梯度圖見圖4。圖4中明顯可以看出,灰度梯度圖像含有比灰度圖像更豐富的像素信息。3.提取圖像地平線。4.判定進行一次匹配還是二次匹配。選擇的依據(jù)是上一幀(即n-l幀)的匹配結(jié)果當上一幀二次匹配不成功,本次匹配首先進行一次匹配;當上一幀一次匹配不成功,本幀首先進行二次匹配。5.進行一次匹配1)判定是否是第一幀圖像。2)如果是第一幀圖像(1)以圖像中心作為模板中心,按照半矩形的排列方式,分布5個圓形模板,如圖5,模板半徑為IO像素,相鄰模板圓心距離為2倍半徑,計算5個圓形模板的圓心坐標。(2)計算模板的特征向量值幀間匹配時,需要計算模板區(qū)域和待匹配區(qū)域的相似性。本發(fā)明選取如下2個度量作為圓形區(qū)域的特征向量E,分別是最大灰度值Gra7AfaAr和灰度標準差o,構(gòu)成特征向量^=(Graj^M站,a)71。分量計算公式如下①最大灰度值(GrayMax)最大灰度值GrayMax是目標區(qū)域最亮的像素灰度值。GrayMax=max{/(A:,/);(A:,/)e式中,/(W)是圖像第A行Z列像素的灰度,iV,"(U)包含圓形區(qū)域內(nèi)的所有像素,i,J表示像素的行、列坐標。②灰度標準差(c)灰度標準差cr反映目標區(qū)域像素灰度的離散程度。<formula>formulaseeoriginaldocumentpage9</formula>其中,//代表目標區(qū)域像素灰度的平均值,>"=iS/(W),式中,"'是1("/)內(nèi)的像素數(shù)目。按照以上公式,可計算每個圓形區(qū)的特征向量A(z-1,2,3,4,5),i表示5個圓形模板,每幀圖像的特征向量由5個圓形區(qū)域的特征向量合成,即五上述兩個度量對匹配的重要性是不同的,所以必須根據(jù)各自的作用進行加權(quán)。本發(fā)明中,權(quán)值主要根據(jù)經(jīng)驗確定,二者權(quán)值都取l。(3)以第一幀作為一次匹配模板幀,存儲模板幀的特征向量值五M。3)如果不是第一幀圖像,判定是不是前8幀圖像。(1)如果是前8幀圖像①沿著地平線,以圖像中間2/4為搜索區(qū)域,按照已有航向跟蹤方法的由粗到細的搜索方式,分布5個半矩形排列的圓形模板,作為待匹配區(qū)域,模板半徑為IO像素,相鄰模板圓心距離為2倍半徑,計算5個圓形模板的圓心坐標,并計算待匹配區(qū)域的特征向量值£=②計算待匹配區(qū)域和模板特征向量的歐式距離,計算公式如下其中,A代表第"幀待匹配區(qū)域的特征向量,五m代表模板的特征向量,%代表模板特征向量的分量值,本發(fā)明中代表最大灰度值和灰度標準差,x"代表待匹配區(qū)域特征向量的分量值。歐式距離越小,目標和模板越相似。③在搜索區(qū)域中,計算并存儲本幀歐式距離的最小值OuMin。在前8幀中,計算并存儲各幀OuMin的最大值,記為oujoizhi,作為之后匹配成功與否的標準。(2)如果不是前8幀圖像沿著地平線將其劃分為三等分,從左至右稱作l區(qū)、2區(qū)和3區(qū);以2區(qū)、1區(qū)、3區(qū)的順序,分別在每個區(qū)域內(nèi)按照由粗到細的搜索方式,計算待匹配區(qū)域與一次匹配申莫板的特征向量間的歐式距離,求出最小的歐式距離,該距離對應的待匹配區(qū)域則為成功匹配的區(qū)域。(3)判定成功匹配區(qū)域?qū)暮较蚴欠駷檎婧较?,判定標準為若該區(qū)域與模板間的歐式距離小于之前存儲的oujruzhi,則為真航向,此時轉(zhuǎn)入下一幀處理,即轉(zhuǎn)步驟7;若不是,判定是否進行過二次匹配,若沒有進行過二次匹配,則進行二次匹配,即轉(zhuǎn)步驟6;若進行過二次匹配,則輸出匹配失敗,轉(zhuǎn)步驟7。6.進行二次匹配(二次匹配的過程和一次匹配相同)1)判定是否是二次匹配的第一幀圖像。2)如果是第一幀圖像選取圖像中心作為二次匹配的模板。計算并存儲二次匹配模板的特征向量Em"3)如果不是第一幀圖像,判定是不是前8幀圖像。(lj如果是前8幀圖像沿著地平線,以圖像中間2/4為搜索區(qū)域,按照已有航向跟蹤方法的由粗到細的搜索方式,計算待匹配區(qū)域的特征向量以及待匹配區(qū)域和模板特征向量的歐式距離。在搜索區(qū)域中,計算并存儲每幀歐式距離的最小值OuMin*。在前8幀中,計算并存儲各幀OuMit^的最大值記為oujoizhi、作為之后匹配成功與否的標準。(2)如果不是前8幀圖像沿著地平線將其劃分為三等分,從左至右稱作1區(qū)、2區(qū)和3區(qū);以2區(qū)、l區(qū)、3區(qū)的順序,分別在每個區(qū)域內(nèi)按照由粗到細的搜索方式,計算待匹配區(qū)域與二次匹配模板的特征向量間的歐式距離,求出最小的歐式距離,該距離對應的待匹配區(qū)域則為成功匹配的區(qū)域。(3)判定成功匹配區(qū)域?qū)暮较蚴欠駷檎婧较?,判定標準為若該區(qū)域與二次匹配模板間的歐式距離小于之前存儲的oujoizhi、則為真航向,轉(zhuǎn)入下一幀處理,即轉(zhuǎn)步驟7;若不是,判定是否進行過一次匹配,若沒有進行過一次匹配,則進行一次匹配,即轉(zhuǎn)步驟5;若進行過一次匹配,則輸出匹配失敗,轉(zhuǎn)步驟7。7.轉(zhuǎn)入下一幀(即n+l幀)的處理。權(quán)利要求1、一種基于計算機視覺的飛行器航向跟蹤方法,其特征在于,具體的實施方法如下步驟一、提取第n幀圖像的灰度像素值;步驟二、圖像特征的改進提取灰度圖像的梯度信息,由公式<mathsid="math0001"num="0001"><math><![CDATA[<mfencedopen='{'close=''><mtable><mtr><mtd><msub><mi>S</mi><mi>x</mi></msub><mo>=</mo><mi>f</mi><mrow><mo>(</mo><mi>i</mi><mo>-</mo><mn>1</mn><mo>,</mo><mi>j</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow><mo>+</mo><mn>2</mn><mi>f</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow><mo>+</mo><mi>f</mi><mrow><mo>(</mo><mi>i</mi><mo>+</mo><mn>1</mn><mo>,</mo><mi>j</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow><mo>-</mo><mi>f</mi><mrow><mo>(</mo><mi>i</mi><mo>-</mo><mn>1</mn><mo>,</mo><mi>j</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow><mo>-</mo><mn>2</mn><mi>f</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow><mo>-</mo><mi>f</mi><mrow><mo>(</mo><mi>i</mi><mo>+</mo><mn>1</mn><mo>,</mo><mi>j</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow></mtd></mtr><mtr><mtd><msub><mi>S</mi><mi>y</mi></msub><mo>=</mo><mi>f</mi><mrow><mo>(</mo><mi>i</mi><mo>+</mo><mn>1</mn><mo>,</mo><mi>j</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow><mo>+</mo><mn>2</mn><mi>f</mi><mrow><mo>(</mo><mi>i</mi><mo>+</mo><mn>1</mn><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>+</mo><mi>f</mi><mrow><mo>(</mo><mi>i</mi><mo>+</mo><mn>1</mn><mo>,</mo><mi>j</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow><mo>-</mo><mi>f</mi><mrow><mo>(</mo><mi>i</mi><mo>-</mo><mn>1</mn><mo>,</mo><mi>j</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow><mo>-</mo><mn>2</mn><mi>f</mi><mrow><mo>(</mo><mi>i</mi><mo>-</mo><mn>1</mn><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>-</mo><mi>f</mi><mrow><mo>(</mo><mi>i</mi><mo>-</mo><mn>1</mn><mo>,</mo><mi>j</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow></mtd></mtr><mtr><mtd><mfencedopen=''close=''><mtable><mtr><mtd><mi>S</mi><mo>=</mo><msqrt><msup><msub><mi>S</mi><mi>x</mi></msub><mn>2</mn></msup><mo>+</mo><msup><msub><mi>S</mi><mi>y</mi></msub><mn>2</mn></msup></msqrt></mtd><mtd><mrow><mo>(</mo><mi>i</mi><mo>=</mo><mn>1</mn><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mi>h</mi><mo>-</mo><mn>1</mn><mo>;</mo><mi>j</mi><mo>=</mo><mn>1</mn><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mi>w</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow></mtd></mtr></mtable></mfenced></mtd></mtr></mtable></mfenced>]]></math></maths>其中,f(i,j)為該圖像中的橫坐標為i、縱坐標為j的像素點的像素值,Sx、Sy分別為x和y方向上的梯度分量,S為最終圖像梯度值,該圖像寬w像素、高h像素;步驟三、提取圖像地平線;步驟四、判定進行一次匹配還是二次匹配選擇的依據(jù)是上一幀即n-1幀的匹配結(jié)果,當上一幀二次匹配不成功,本次匹配首先進行一次匹配;當上一幀一次匹配不成功,本幀首先進行二次匹配;步驟五、進行一次匹配1)判定是否是第一幀圖像;2)如果是第一幀圖像(1)以圖像中心作為模板中心,按照半矩形的排列方式,分布5個圓形模板,模板半徑為10像素,相鄰模板圓心距離為2倍半徑,計算5個圓形模板的圓心坐標;(2)計算模板的特征向量值幀間匹配時,需要計算模板區(qū)域和待匹配區(qū)域的相似性,選取如下2個度量作為圓形區(qū)域的特征向量E,分別是最大灰度值GrayMax和灰度標準差σ,構(gòu)成特征向量E=(GrayMax,σ)T;(3)以第一幀作為一次匹配模板幀,存儲模板幀的特征向量值EM;3)如果不是第一幀圖像,判定是不是前8幀圖像(1)如果是前8幀圖像①沿著地平線,以圖像中間2/4為搜索區(qū)域,按照已有航向跟蹤方法由粗到細的搜索方式,分布5個半矩形排列的圓形模板,作為待匹配區(qū)域,模板半徑為10像素,相鄰模板圓心距離為2倍半徑,計算5個圓形模板的圓心坐標,并計算待匹配區(qū)域的特征向量值En=(GrayMax,σ)T;②計算待匹配區(qū)域和模板特征向量的歐式距離,計算公式如下<mathsid="math0002"num="0002"><math><![CDATA[<mrow><mo>|</mo><msub><mi>E</mi><mi>n</mi></msub><mo>-</mo><msub><mi>E</mi><mi>M</mi></msub><mo>|</mo><mo>=</mo><msqrt><mi>&Sigma;</mi><msup><mrow><mo>(</mo><msub><mi>x</mi><mi>n</mi></msub><mo>-</mo><msub><mi>x</mi><mi>M</mi></msub><mo>)</mo></mrow><mn>2</mn></msup></msqrt></mrow>]]></math></maths>其中,En代表第n幀待匹配區(qū)域的特征向量,EM代表模板的特征向量,xM代表模板特征向量的分量值,即代表最大灰度值和灰度標準差,xn代表待匹配區(qū)域特征向量的分量值;歐式距離越小,目標和模板越相似;③在搜索區(qū)域中,計算并存儲本幀歐式距離的最小值OuMin;④在前8幀中,計算并存儲各幀OuMin的最大值,記為ou_yuzhi,作為之后匹配成功與否的標準;(2)如果不是前8幀圖像沿著地平線將其劃分為三等分,從左至右稱作1區(qū)、2區(qū)和3區(qū);以2區(qū)、1區(qū)、3區(qū)的順序,分別在每個區(qū)域內(nèi)按照由粗到細的搜索方式,計算待匹配區(qū)域與模板的特征向量間的歐式距離,求出最小的歐式距離,該距離對應的待匹配區(qū)域則為成功匹配的區(qū)域;(3)判定成功匹配區(qū)域?qū)暮较蚴欠駷檎婧较?,判定標準為若該區(qū)域與模板間的歐式距離小于之前存儲的ou_yuzhi,則為真航向,此時轉(zhuǎn)入下一幀處理,即轉(zhuǎn)步驟七;若不是,判定是否進行過二次匹配,若沒有進行過二次匹配,則進行二次匹配,即轉(zhuǎn)步驟六;若進行過二次匹配,則輸出匹配失敗,轉(zhuǎn)步驟七;步驟六、進行二次匹配1)判定是否是二次匹配的第一幀圖像;2)如果是第一幀圖像選取圖像中心作為二次匹配的模板,計算并存儲二次匹配模板的特征向量EM*;3)如果不是第一幀圖像,判定是不是前8幀圖像(1)如果是前8幀圖像沿著地平線,以圖像中間2/4為搜索區(qū)域,按照已有航向跟蹤方法由粗到細的搜索方式,計算待匹配區(qū)域的特征向量以及待匹配區(qū)域和模板特征向量的歐式距離;在搜索區(qū)域中,計算并存儲每幀歐式距離的最小值OuMin*,在前8幀中,計算并存儲各幀OuMin*的最大值記為ou_yuzhi*,作為之后匹配成功與否的標準;(2)如果不是前8幀圖像沿著地平線將其劃分為三等分,從左至右稱作1區(qū)、2區(qū)和3區(qū);以2區(qū)、1區(qū)、3區(qū)的順序,分別在每個區(qū)域內(nèi)按照由粗到細的搜索方式,計算待匹配區(qū)域與二次匹配模板的特征向量間的歐式距離,求出最小的歐式距離,該距離對應的待匹配區(qū)域則為成功匹配的區(qū)域;(3)判定成功匹配區(qū)域?qū)暮较蚴欠駷檎婧较?,判定標準為若該區(qū)域與二次匹配模板間的歐式距離小于之前存儲的ou_yuzhi*,則為真航向,轉(zhuǎn)入下一幀處理,即轉(zhuǎn)步驟七;若不是,判定是否進行過一次匹配,若沒有進行過一次匹配,則進行一次匹配,即轉(zhuǎn)步驟五;若進行過一次匹配,則輸出匹配失敗,轉(zhuǎn)步驟七;步驟七、轉(zhuǎn)入下一幀即n+1幀的處理。2、根據(jù)權(quán)利要求1所述的一種基于計算機視覺的飛行器航向跟蹤方法,其特征在于,步驟五中,構(gòu)成特征向量丑=(Graj^^AT,a)^的是最大灰度值Graj^/"^和灰度標準差o,其分量計算公式如下①最大灰度值GrayMax最大灰度值GrayMax是目標區(qū)域最亮的像素灰度值,GrayMax=max{/(A:,/);(A:,/)e(/,力}式中,/(W)是圖像第A:行/列像素的灰度,K")包含圓形區(qū)域內(nèi)的所有像素,i,J表示像素的行、列坐標;②灰度標準差o"灰度標準差ex反映目標區(qū)域像素灰度的離散程度,<formula>formulaseeoriginaldocumentpage4</formula>其中,A代表目標區(qū)域像素灰度的平均值,//=丄Z式中,","是iV,"(/,/)內(nèi)的像素數(shù)目;按照以上公式,計算每個圓形區(qū)的特征向量£,0=1,2,3,4,5),i表示5個圓形模板,每幀圖像的特征向量由5個圓形區(qū)域的特征向量合成,艮卩五上述兩個分量的度量對匹配的重要性是不同的,所以根據(jù)各自的作用進行加權(quán),權(quán)值根據(jù)經(jīng)驗確定。3、根據(jù)權(quán)利要求2所述的一種基于計算機視覺的飛行器航向跟蹤方法,其特征在于,所述的兩個分量在匹配時的權(quán)值都取1。全文摘要本發(fā)明公開了一種基于計算機視覺的飛行器航向跟蹤方法。針對現(xiàn)有的航向跟蹤方法,提供多角度的改進方案通過在圖像匹配源上引入梯度信息,豐富了圖像模板匹配的信息量,提高了圖像匹配精度,即提高了航向跟蹤精度;在保證模板匹配運算量不增加的前提下,調(diào)整匹配模板的配置方式,使模板包含更多的圖像信息,同時合理選擇匹配的特征向量及其權(quán)值,以達到改善匹配精度的目的;提供異常情況下圖像模板匹配的處理方案,有效提高了航向跟蹤方法的效率。文檔編號G01C21/24GK101349565SQ200810119919公開日2009年1月21日申請日期2008年9月10日優(yōu)先權(quán)日2008年9月10日發(fā)明者海張,李琳怡,韓穎婕申請人:北京航空航天大學
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
信丰县| 晋州市| 梅州市| 密云县| 巢湖市| 临西县| 清苑县| 方山县| 巴中市| 定州市| 达日县| 长子县| 锡林郭勒盟| 巴林右旗| 福建省| 团风县| 平顶山市| 仙游县| 榕江县| 阿鲁科尔沁旗| 化隆| 临安市| 溆浦县| 泽普县| 乌兰察布市| 庆元县| 青海省| 宝山区| 莱西市| 潜江市| 方山县| 双江| 岑溪市| 南京市| 双流县| 兴隆县| 保德县| 翁牛特旗| 武安市| 常山县| 漠河县|