欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

多幅深度圖像自動(dòng)配準(zhǔn)方法

文檔序號(hào):6470705閱讀:210來(lái)源:國(guó)知局

專(zhuān)利名稱(chēng)::多幅深度圖像自動(dòng)配準(zhǔn)方法
技術(shù)領(lǐng)域
:本發(fā)明屬于計(jì)算機(jī)虛擬現(xiàn)實(shí)
技術(shù)領(lǐng)域
,具體地說(shuō)是涉及多幅深度圖像自動(dòng)配準(zhǔn),得到完整模型,該方法可用于三維模型的幾何建模。
背景技術(shù)
:近些年來(lái),三維掃描技術(shù)快速發(fā)展,使得自動(dòng)配準(zhǔn)技術(shù)變得越來(lái)越重要。深度圖像是三維掃描設(shè)備掃描后得到的帶有深度信息的圖像。配準(zhǔn)是指將從不同位置、不同角度掃描到的深度圖像通過(guò)剛性變換變到同一坐標(biāo)系的過(guò)程。通過(guò)配準(zhǔn),將多幅深度圖像拼接到一起,從而獲得完整的三維模型。配準(zhǔn)計(jì)算過(guò)程主要可分為兩幅深度圖像配準(zhǔn)和多幅深度圖像配準(zhǔn)。兩幅深度圖像配準(zhǔn)是計(jì)算兩幅圖像之間的相對(duì)位置關(guān)系進(jìn)行配準(zhǔn);多幅深度圖像配準(zhǔn)也稱(chēng)全局配準(zhǔn)是在兩幅深度圖像配準(zhǔn)的基礎(chǔ)上,去除錯(cuò)誤的兩兩配準(zhǔn)結(jié)果,計(jì)算全局一致的配準(zhǔn)結(jié)果,然后優(yōu)化全局配準(zhǔn)的總體誤差。兩幅深度圖像配準(zhǔn)主要包括粗略?xún)蓛膳錅?zhǔn)和精確兩兩配準(zhǔn)兩步。精確兩兩配準(zhǔn)主要采用ICP(IterativeClosestPoint)算法(參見(jiàn)P.J.Besl,N.D.McKay.AMethodforRegistrationof3DShapes.IEEETrans.PatternAnal[J〗.andMachineIntell.Vol.14,pp,239-256,1992和Y.Chen,G.Medioni.ObjectModelingbyRegistrationofMultipleRangeImages[J].IEEEConferenceonRoboticsandAutomation,pp.2724-2729,1991.和[Rusinkiewicz2001]Rusinkiewicz,S.,Levoy,M.EfficientVariantsoftheICPAlgorithm[J].InInternationalConferenceon3DDigitalImagingandModeling,2001.),已經(jīng)取得了很好的效果,但是,由于ICP算法是局部收斂的,所以在采用ICP算法之前,先要進(jìn)行兩兩粗略配準(zhǔn),以獲得較好的初始位置,避免陷入局部最優(yōu)。兩兩粗略配準(zhǔn)主要利用特征描述符,如旋轉(zhuǎn)圖像、積分球體等,匹配至少三對(duì)或者更多對(duì)應(yīng)點(diǎn),進(jìn)而求得剛性變換。全局匹配是在兩兩配準(zhǔn)基礎(chǔ)上,判斷兩兩配準(zhǔn)的正確性,去掉錯(cuò)誤結(jié)果,得到整體一致的配準(zhǔn)結(jié)果。Huber(參見(jiàn)HuberD.AutomaticThree-dimensionalModelingfromReality.CarnegieMellonUniversity,2002)提出了第一個(gè)全局匹配算法。他利用可見(jiàn)性標(biāo)準(zhǔn),判斷深度圖像之間是否存在遮擋,進(jìn)而判斷配準(zhǔn)是否正確,并利用貝葉斯概率得到每個(gè)配準(zhǔn)的可靠性系數(shù),然后,使用貪心法,生成一顆配準(zhǔn)整個(gè)模型的最小生成樹(shù)。但每次遮擋判斷之前都要優(yōu)化總體誤差,而且遮擋計(jì)算復(fù)雜度也比較高,因此計(jì)算效率比較低。而且在計(jì)算生成樹(shù)開(kāi)始階段,由于只有較少的深度圖像聚合到一起,所以遮擋性判斷的可靠性也較低。Hunag(參見(jiàn)HuangQX,FloryS,GelfandN,HoferM,PottmannH.Reassemblingfracturedobjectsbygeometricmatching.ACMTransactionsonGraphics(SIGGRAPH),2006:569—578)改進(jìn)了Huber的方法,他注意到兩個(gè)多幅深度圖像合并的子模型之間可能存在多個(gè)兩兩配準(zhǔn)關(guān)系,這比單一關(guān)系要可靠,因此他優(yōu)先合并有更多相容配準(zhǔn)關(guān)系的子圖,而不是僅僅依賴(lài)單一配準(zhǔn)結(jié)果求最小生成樹(shù),但該方法還是要多次優(yōu)化總誤差,計(jì)算復(fù)雜度高,在模型合并初期同樣可靠性不高。注意到子模型間的多個(gè)相容配準(zhǔn)關(guān)系,實(shí)質(zhì)上是構(gòu)成了回路,而且兩兩配準(zhǔn)結(jié)果在回路中要滿(mǎn)足一致性約束。全局匹配后需要優(yōu)化總體誤差。與ICP算法類(lèi)似,通過(guò)迭代逐漸減小誤差,但由于涉及到多幅深度圖像,所以計(jì)算更為復(fù)雜。全局配準(zhǔn)算法主要分為兩類(lèi),兩兩優(yōu)化Bergevin和Pulli(參見(jiàn)BergevinR.,SoucyM.,GagnonH.,etal.TowardsaGeneralMulti-ViewRegistrationTechnique.正EETrans.PatternAnal,andMachineIntell,1996,18(5):540-547和PulliK.MultiviewRegistrationforLargeDataSets,nternationalConferenceon3DDigitalImagingandModeling)和同時(shí)優(yōu)化Krishnan和Neugebauer算法(參見(jiàn)KrishnanS.,LeeP.Y.,MooreJ.,etal.GlobalRegistrationofMultiple3DPointSetsviaOptimization-on-a-Manifold.Proc.ofSymposiumonGeometryProcessing,2005:187-196禾卩NeugebauerP.J.GeometricalCloningof3DObjectsviaSimultaneousRegistrationofMultipleRangeImages[C].Proceed-ingsofthe1997InternationalConferenceonShapeModelingandApplications(SMA'97),1997,130)。兩兩優(yōu)化反復(fù)采用ICP算法優(yōu)化兩幅圖像,因此收斂速度慢而且可能無(wú)法收斂,同時(shí)優(yōu)化的方法直接優(yōu)化總誤差,收斂速度較快,但復(fù)雜的優(yōu)化計(jì)算穩(wěn)定性較差。
發(fā)明內(nèi)容本發(fā)明的技術(shù)解決問(wèn)題克服現(xiàn)有技術(shù)的不足,提供一種多幅深度圖像自動(dòng)配準(zhǔn)方法,該方法進(jìn)行多幅深度圖像配準(zhǔn)速度快,且匹配準(zhǔn)確。本發(fā)明的技術(shù)解決方案多幅深度圖像自動(dòng)配準(zhǔn)方法,包括兩幅深度圖像配準(zhǔn)和多幅深度圖像全局匹配過(guò)程,其中所述的兩幅深度圖像配準(zhǔn)如下(1)在兩幅圖像上分別計(jì)算SIFT特征,得到每個(gè)特征點(diǎn)對(duì)應(yīng)一個(gè)12S維特征向量;(2)根據(jù)步驟(1)所述的特征向量,匹配對(duì)應(yīng)點(diǎn);(3)確定匹配對(duì)應(yīng)點(diǎn)之后,采用RANSAC算法求解基礎(chǔ)矩陣,然后采用基礎(chǔ)矩陣剔除匹配錯(cuò)誤的對(duì)應(yīng)點(diǎn);(4)將剔除匹配錯(cuò)誤后的對(duì)應(yīng)點(diǎn)按SIFT特征距離排序,去掉兩幅國(guó)像的特征向量之間距離最大的20%的對(duì)應(yīng)點(diǎn);(5)根據(jù)兩幅圖像的對(duì)應(yīng)點(diǎn)采用四元數(shù)法求得變換矩陣,從而得到兩兩粗略配準(zhǔn);(6)兩兩粗略配準(zhǔn)后,使用ICP算法精確配準(zhǔn)兩幅深度圖像;所述的多幅深度圖像全局匹配過(guò)程如下(7)根據(jù)步驟(6)得到的兩兩精確配準(zhǔn)的兩幅深度圖像,建立多幅圖像的模型(8)求得模型圖的導(dǎo)出圈基,建立導(dǎo)出圈基的鄰接關(guān)系圖r,所述的導(dǎo)出圈基是指沒(méi)有弦的導(dǎo)出圈構(gòu)成的基;(9)搜索圈空間,所述的圈空間為模型圖中所有回路的集合,在搜索時(shí)只搜索導(dǎo)出圈基的鄰接關(guān)系圖r中的連通頂點(diǎn)生成的圈,并且得到一個(gè)一致圈時(shí),就刪掉一個(gè)圈基,直到r所剩余的頂點(diǎn)個(gè)數(shù)小于要搜索的頂點(diǎn)個(gè)數(shù)為止,得到多幅圖像的全局匹配。所述步驟(2)中采用雙向交叉方法匹配對(duì)應(yīng)點(diǎn),其步驟為匹配對(duì)應(yīng)點(diǎn)時(shí),對(duì)于第一幅圖像上的特征點(diǎn)p,其有一個(gè)特征向量,在第二幅深度圖像的所有特征向量中找到距離特征點(diǎn)p的特征向量最近的特征點(diǎn)p',反過(guò)來(lái)對(duì)于p',在第一幅深度圖像的所有特征向量中找到距離特征點(diǎn);'的特征向量最近的特征點(diǎn);/,如果;=/,則p與/7'為匹配對(duì)應(yīng)點(diǎn)。所述的步驟(6)后還要判斷兩兩配準(zhǔn)結(jié)果是否正確,判斷步驟為首先,在根據(jù)SIFT特征匹配對(duì)應(yīng)點(diǎn)時(shí),如果匹配成功的對(duì)應(yīng)點(diǎn)數(shù)小于設(shè)定閾值,則判定配準(zhǔn)不正確;其次,使用ICP算法精確配準(zhǔn)時(shí),如果誤差過(guò)大,大于設(shè)定閾值,則判定配準(zhǔn)不正確;如果以上兩個(gè)條件均無(wú)法判定配準(zhǔn)結(jié)果錯(cuò)誤,則認(rèn)為結(jié)果正確。所述步驟(7)中所述的模型圖G《F,五〉是一個(gè)無(wú)向圖,V是頂點(diǎn)的集合,E是邊的集合,每個(gè)頂點(diǎn)v,eJ/表示一幅深度圖像,每一條邊^(qū)-(v,.,^.)e五,當(dāng)且僅當(dāng)深度圖像v,和、.的兩兩配準(zhǔn)結(jié)果7;存在,并且7;.作為邊^(qū).的屬性,其中v,和^.是模型圖的兩個(gè)頂點(diǎn)。所述步驟(8)中的對(duì)于得到一個(gè)一致圈的判斷方法從圈中任取一幅深度圖像,求得它的直徑",將該深度圖像沿著圈中的兩兩變換變換一周,得到一幅新的深度圖像,計(jì)算新的深度圖像和初始深度圖像對(duì)應(yīng)點(diǎn)之間的誤差e,將e/^作為圈的誤差,如果圈的誤差小于設(shè)定閾值圈就是一致的,否則,是不一致的。本發(fā)明與現(xiàn)有技術(shù)相比的優(yōu)點(diǎn)在于(1)本發(fā)明基于SIFT的特征配準(zhǔn)計(jì)算速度快,交叉匹配對(duì)應(yīng)點(diǎn)可靠性高,用RANSAC算法過(guò)濾對(duì)應(yīng)點(diǎn),最大程度提高了對(duì)應(yīng)點(diǎn)的可靠性。(2)本發(fā)明建立多幅圖像的模型圖,求得模型圖的導(dǎo)出圈基,建立導(dǎo)出圈基的鄰接關(guān)系圖r,在搜索圈空間時(shí)只搜索導(dǎo)出圈基的鄰接關(guān)系圖r中的連通頂點(diǎn)生成的圈,并且得到一個(gè)一致圈時(shí),就刪掉一個(gè)圈基,直到r所剩余的頂點(diǎn)個(gè)數(shù)小于要搜索的頂點(diǎn)個(gè)數(shù)為止,得到多幅圖像的全局匹配,大大提高了搜索速度,從而快速可靠地得到多幅圖像全局一致的配準(zhǔn)結(jié)果。(3)而且本發(fā)明通過(guò)圈的一致性判斷,進(jìn)一步提高了多幅圖像的可靠性。圖l為本發(fā)明方法的流程圖2為本發(fā)明中建立模型圖的示意圖3為本發(fā)明中采用64個(gè)圈的誤差分布圖4為圖3的局部放大圖5為采用本發(fā)明方法進(jìn)行自動(dòng)配準(zhǔn)的彌勒下生經(jīng)變相窟圖。具體實(shí)施例方式如圖1所示,本發(fā)明分為兩幅深度圖像配準(zhǔn)和多幅深度圖像全局匹配過(guò)程。1、兩幅深度圖像配準(zhǔn)兩幅深度圖像粗略配準(zhǔn)是對(duì)處在任意位置的部分重疊的兩幅深度圖像粗略配準(zhǔn)的過(guò)程。目的是為精確配準(zhǔn)提供較好的初始位置,以確保其收斂。由于深度圖像中包含顏色信息,因此本發(fā)明采用圖像對(duì)應(yīng)點(diǎn)匹配方法進(jìn)行配準(zhǔn),其步驟為(1)首先,分別在兩幅圖像上計(jì)算SIFT特征,每個(gè)特征點(diǎn)對(duì)應(yīng)一個(gè)128維特征向量,采用歐氏距離度量?jī)蓚€(gè)SIFT特征之間的距離;在此步驟中計(jì)算SIFT特征采用Lowe,D.Distinctiveimagefeaturesfromscale-invariantkeypoints.Int.J.ofComputerVision60,2,91-110.2004.文中介紹了方法即可。(2)采用雙向交叉匹配對(duì)應(yīng)點(diǎn),即匹配對(duì)應(yīng)點(diǎn)時(shí),對(duì)于第一幅圖像上的特征點(diǎn)p,其有一個(gè)特征向量,在第二幅深度圖像的所有特征向量中找到距離特征點(diǎn)p的特征向量最近的特征點(diǎn)/7',反過(guò)來(lái)對(duì)于p',在第一幅深度圖像的所有特征向量中找到距離特征點(diǎn)y的特征向量最近的特征點(diǎn)y,如果/=;/,則p與y為匹配對(duì)應(yīng)點(diǎn)。G)匹配之后,采用RANSAC算法求解基礎(chǔ)矩陣,以剔除誤差點(diǎn),采用RANSAC算法求解基礎(chǔ)矩陣可以參見(jiàn)Hartley,R.I.,ANDZISSERMAN,A.2004.MultipleViewGeometryinComputerVision,CambridgeUniversityPress,Cambridge,UK。(4)然后,將對(duì)應(yīng)點(diǎn)按SIFT特征距離排序,去掉距離最大的20%的對(duì)應(yīng)點(diǎn)。(5)最后,根據(jù)對(duì)應(yīng)點(diǎn)使用四元數(shù)法求得變換矩陣,使用四元數(shù)法的求解變換矩陣的過(guò)程可以參見(jiàn)Hom,B.ClosedFormSolutionsofAbsoluteOrientationUsingUnitQuaternions.JournaloftheOpticalSociety,Vol.4,629-642,1987。(6)兩兩粗略配準(zhǔn)后,使用ICP(IterativeClosestPoint)算法精確配準(zhǔn)兩幅深度圖像。ICP算法參見(jiàn)P.J.Besl,N.D.McKay.AMethodforRegistrationof3DShapes.IEEETrans.PatternAnal[J].andMachineIntell.Vol.14,pp.239-256,1992.,每次迭代根據(jù)誤差動(dòng)態(tài)修改距離閾值,這樣得到了兩幅深度圖像精確的配準(zhǔn)的結(jié)果。(7)對(duì)兩幅深度圖像精確的配準(zhǔn)的結(jié)果進(jìn)行兩兩配準(zhǔn)的一致性判斷。特征點(diǎn)匹配錯(cuò)誤或兩幅深度圖像沒(méi)有部分重疊,都可能造成兩兩配準(zhǔn)結(jié)果錯(cuò)誤。因此要兩兩配準(zhǔn)是要判斷其結(jié)果是否正確,判斷步驟為首先,在根據(jù)SIFT特征匹配對(duì)應(yīng)點(diǎn)時(shí),如果匹配成功的對(duì)應(yīng)點(diǎn)數(shù)小于設(shè)定閾值,則判定配準(zhǔn)不正確;其次,使用ICP算法精確配準(zhǔn)時(shí),如果誤差過(guò)大,大于設(shè)定閾值,則判定配準(zhǔn)不正確。如果以上兩個(gè)條件均無(wú)法判定配準(zhǔn)結(jié)果錯(cuò)誤,則認(rèn)為結(jié)果正確,并且將兩兩配準(zhǔn)結(jié)果加入到后面多幅圖像全局匹配的模型圖中。2、多幅深度圖像全局匹配(1)根據(jù)得到的兩兩精確配準(zhǔn)的兩幅深度圖像,建立多幅圖像的模型圖;兩兩配準(zhǔn)之后,得到模型圖G,但僅僅依靠?jī)蓛膳錅?zhǔn)的一致性判斷得到的結(jié)果是不可靠的,例如由于模型的自對(duì)稱(chēng)性,造成配準(zhǔn)錯(cuò)誤,但通過(guò)兩兩配準(zhǔn)難以判斷出來(lái)。因此,兩兩配準(zhǔn)之后,要進(jìn)行全局一致性判斷。由于模型圖G的任意回路都應(yīng)滿(mǎn)足一致性約束,否則就是不正確的,這樣在一條回路中的配準(zhǔn)結(jié)果可以自我校驗(yàn),本發(fā)明提出基于回路的全局匹配方法。模型圖<7=<^,£>是一個(gè)無(wú)向圖,每個(gè)頂點(diǎn)v,eF表示一幅深度圖像,邊e"(v,.,v》eE當(dāng)且僅當(dāng)深度圖像v,.和^的兩兩配準(zhǔn)結(jié)果7;.存在,并且7;作為邊^(qū)的屬性。值得注意的是,任何一條回路都要滿(mǎn)足一致性約束,即總的變換應(yīng)為單位變換。如圖2,在回路16521中,應(yīng)滿(mǎn)足^.7125.7;6.7;1=/。一條回路如果滿(mǎn)足一致性約束,則稱(chēng)為一致回路,否則稱(chēng)為不一致。(2)求得模型圖的導(dǎo)出圈基,建立導(dǎo)出圈基的鄰接關(guān)系圖r;先簡(jiǎn)單介紹有關(guān)圖、圈和圈空間的概念。一個(gè)圖<^=<^£>,其中F-v(G)表示頂點(diǎn)集合,E-f(G)表示邊的集合。每個(gè)頂點(diǎn)出現(xiàn)不超過(guò)一次的通路稱(chēng)為基本通路(Path)。起點(diǎn)和終點(diǎn)為同一頂點(diǎn)的基本通路稱(chēng)為圈(Cycle)。一條邊連接一個(gè)圈中的兩個(gè)頂點(diǎn),但它并不是圈中的邊,稱(chēng)為弦(Chord)。一個(gè)沒(méi)有弦的圈稱(chēng)為導(dǎo)出圈(InducedCycle)。如果圖(^和(72沒(méi)有公共邊,則G,u《稱(chēng)為圖G,和C^的邊不重并。環(huán)路是指圈與圈的邊不重并。顯然圈是環(huán)路,圈是連通的,但環(huán)路不一定連通。圖G,和G2的對(duì)稱(chēng)差(SymmetricDifference)運(yùn)算定義為G,十G2—(^uG2)-(G,nG2)。對(duì)稱(chēng)差運(yùn)算滿(mǎn)足交換律和結(jié)合律。連通圖G=<7,£>的所有環(huán)路及空集組成的集合為f={C,,C2…,CJ,在其上定義對(duì)稱(chēng)差運(yùn)算與數(shù)乘運(yùn)算Oq-(D,l.G-G,,則其構(gòu)成數(shù)域22={0,1}上的一個(gè)|£卜|7|+1維線(xiàn)性空間,記作f(G),稱(chēng)為圈空間(CycleSpace)。任何圈空間都可以由導(dǎo)出圈基以生成整個(gè)圈空間。(3)搜索圈空間;設(shè)模型圖G的導(dǎo)出圈基為#={^,5,整個(gè)圈空間AG)由^張成,因此C(G)的大小為2'a-"+1,是指數(shù)復(fù)雜度,搜索效率太低。模型圖中所有一致圈構(gòu)成了一個(gè)線(xiàn)性子空間,稱(chēng)為一致子空間。本發(fā)明提出一種快速求得一致子空間的一組基的方法,大大提高了圈空間的搜索效率,理想情況下是線(xiàn)性復(fù)時(shí)間雜度。注意到如果兩個(gè)圈的對(duì)稱(chēng)差仍為圈,那么這兩個(gè)圏必有公共邊。為了加速搜索,首先定義圈基的鄰接關(guān)系圖r〈f,i:》邊(5,^;)ei當(dāng)且僅當(dāng)eCB,)nf(A)^(D。因此有以下結(jié)論設(shè)c-氣④氣e…十氣,如果c是圈,那么在r〈,,丄〉中^,氣,…,^是連通的。注意由r中連通的頂點(diǎn)所對(duì)應(yīng)的圈基生成的環(huán)路也可能不是圈,因此還要檢驗(yàn)其是不是圈。這樣在搜索圈空間時(shí),只要搜索由任意多個(gè)連通的基生成的所有圈,判斷它們的一致性,這樣可以大大減少搜索次數(shù)。在搜索一致圈時(shí),首先根據(jù)兩兩配準(zhǔn)的模型圖G求出導(dǎo)出圈基f-{A,^,'"^^,,},并且生成^的鄰接關(guān)系圖r〈f,£>,采甩導(dǎo)出圈基是因?yàn)樗拈L(zhǎng)度較小,因而一致的可能性較大,有助于提高搜索效率。然后求S(G)的一組基,首先,判斷每個(gè)圈C-^是否一致,如果一致,則將c加入到s(G)的基中,并從r中刪除g.;然后判斷由任何兩個(gè)連通的圈基生成的圈c二萬(wàn),.0^是否一致,如果一致,將c加入到s(g)的基中,并從r中刪除A;然后判斷由任何三個(gè)連通的圈基生成的圈,這樣下去,直到r中剩余的頂點(diǎn)小于要搜索的連通頂點(diǎn)個(gè)數(shù)為止。然后,將所有一致圈的邊合并得到一致模型圖G',詳細(xì)算法在算法l中給出。該算法在最好情況下是線(xiàn)性復(fù)雜度,與指數(shù)復(fù)雜度相比,大大提高了計(jì)算效率。如果G'只有一個(gè)連通子圖,則全局配準(zhǔn)計(jì)算完成。如果G'有多個(gè)連通子圖,則連通子圖之間不再存在一致回路,本發(fā)明采用基于可見(jiàn)性的判斷方法——自由空間沖突(FreeSpaceViolation)繼續(xù)全局配準(zhǔn)[Huber2002],生成連通子圖之間的最小生成樹(shù),以合并更多的子圖。因?yàn)橐话闱闆r下,每個(gè)連通子圖都含有多幅深度圖像,所以,相對(duì)于單幅圖像而言,可見(jiàn)性判斷具有更高的可靠性。<table>tableseeoriginaldocumentpage10</column></row><table>(5)試驗(yàn)結(jié)果;圈的一致性判斷時(shí),每個(gè)回路的誤差分布如圖3、4所示,可以看出誤差分布在0.03和0.3之間存在明顯斷裂,因此,本發(fā)明設(shè)定判斷一致圈的誤差閾值為0.03。如圖5所示,大足石刻彌勒下生經(jīng)變相窟模型共有81幅深度圖像,包含22477248個(gè)點(diǎn),平均每幅深度圖像約27.7萬(wàn)個(gè)點(diǎn)。采用同上的參數(shù)設(shè)定,共進(jìn)行了3240次兩兩配準(zhǔn)后,得到模型圖包含217條邊,因此圈空間的維數(shù)為137。搜索圈空間時(shí),共搜索了140個(gè)圈后完成搜索,得到124個(gè)一致圈,即一致子空間為124維,得到的一致模型圖包含184條邊且己經(jīng)連通,搜索圈空間用時(shí)42.5秒。整個(gè)配準(zhǔn)計(jì)算用時(shí)約35分鐘,可見(jiàn)絕大部分時(shí)間都用于兩兩配準(zhǔn),最后得到的完整模型??傊?,本發(fā)明可以可靠的自動(dòng)配準(zhǔn)多幅深度圖像,通過(guò)搜索一致圈,去掉錯(cuò)誤配準(zhǔn),得到一致的配準(zhǔn)結(jié)果。本發(fā)明說(shuō)明書(shū)中未作詳細(xì)描述的內(nèi)容屬于本領(lǐng)域?qū)I(yè)技術(shù)人員公知的現(xiàn)有技術(shù)。以上所述僅是本發(fā)明的優(yōu)選實(shí)施方式,應(yīng)當(dāng)指出,對(duì)于本
技術(shù)領(lǐng)域
的普通技術(shù)人員來(lái)說(shuō),在不脫離本發(fā)明原理的前提下,還可以做出若干改進(jìn)和潤(rùn)飾,這些改進(jìn)和潤(rùn)飾也應(yīng)視為本發(fā)明的保護(hù)范圍。權(quán)利要求1、多幅深度圖像自動(dòng)配準(zhǔn)方法,兩幅深度圖像配準(zhǔn)和多幅深度圖像全局匹配過(guò)程,其特征在于步驟如下所述的兩幅深度圖像配準(zhǔn)如下(1)在兩幅圖像上分別計(jì)算SIFT特征,得到每個(gè)特征點(diǎn)對(duì)應(yīng)一個(gè)128維特征向量;(2)根據(jù)步驟(1)所述的特征向量,匹配對(duì)應(yīng)點(diǎn);(3)確定匹配對(duì)應(yīng)點(diǎn)之后,采用RANSAC算法求解基礎(chǔ)矩陣,然后采用基礎(chǔ)矩陣剔除匹配錯(cuò)誤的對(duì)應(yīng)點(diǎn);(4)將剔除匹配錯(cuò)誤后的對(duì)應(yīng)點(diǎn)按SIFT特征距離排序,去掉兩幅圖像的特征向量之間距離最大的20%的對(duì)應(yīng)點(diǎn);(5)根據(jù)兩幅圖像的對(duì)應(yīng)點(diǎn)采用四元數(shù)法求得變換矩陣,從而得到兩兩粗略配準(zhǔn);(6)兩兩粗略配準(zhǔn)后,使用ICP算法精確配準(zhǔn)兩幅深度圖像;所述的多幅深度圖像全局匹配過(guò)程如下(7)根據(jù)步驟(6)得到的兩兩精確配準(zhǔn)的兩幅深度圖像,建立多幅圖像的模型圖;(8)求得模型圖的導(dǎo)出圈基,建立導(dǎo)出圈基的鄰接關(guān)系圖Γ,所述的導(dǎo)出圈基是指沒(méi)有弦的導(dǎo)出圈構(gòu)成的基;(9)搜索圈空間,所述的圈空間為模型圖中所有回路的集合,在搜索時(shí)只搜索導(dǎo)出圈基的鄰接關(guān)系圖Γ中的連通頂點(diǎn)生成的圈,并且得到一個(gè)一致圈時(shí),就刪掉一個(gè)圈基,直到Γ所剩余的頂點(diǎn)個(gè)數(shù)小于要搜索的頂點(diǎn)個(gè)數(shù)為止,得到多幅圖像的全局匹配。2、根據(jù)權(quán)利要求l所述多幅深度圖像自動(dòng)配準(zhǔn)方法,其特征在于所述步驟(2)中采用雙向交叉方法匹配對(duì)應(yīng)點(diǎn),其步驟為匹配對(duì)應(yīng)點(diǎn)時(shí),對(duì)于第一幅圖像上的特征點(diǎn);7,其有一個(gè)特征向量,在第二幅深度圖像的所有特征向量中找到距離特征點(diǎn)p的特征向量最近的特征點(diǎn)y,反過(guò)來(lái)對(duì)于/7',在第一幅深度圖像的所有特征向量中找到距離特征點(diǎn)^的特征向量最近的特征點(diǎn)/,如果;=/,則p與;為匹配對(duì)應(yīng)點(diǎn)。3、根據(jù)權(quán)利要求l所述多幅深度圖像自動(dòng)配準(zhǔn)方法,其特征在于所述的步驟(6)后還要判斷兩兩配準(zhǔn)結(jié)果是否正確,判斷步驟為首先,在根據(jù)SIFT特征匹配對(duì)應(yīng)點(diǎn)時(shí),如果匹配成功的對(duì)應(yīng)點(diǎn)數(shù)小于設(shè)定閾值,則判定配準(zhǔn)不正確;其次,使用ICP算法精確配準(zhǔn)時(shí),如果誤差過(guò)大,大于設(shè)定閾值,則判定配準(zhǔn)不正確;如果以上兩個(gè)條件均無(wú)法判定配準(zhǔn)結(jié)果錯(cuò)誤,則認(rèn)為結(jié)果正確。4、根據(jù)權(quán)利要求l所述多幅深度圖像自動(dòng)配準(zhǔn)方法,其特征在于所述步驟(7)中所述的模型圖(7=<^£>是一個(gè)無(wú)向圖,V是頂點(diǎn)的集合,E是邊的集合,每個(gè)頂點(diǎn)v,.er表示一幅深度圖像,每一條邊.=".,^.)6£,當(dāng)且僅當(dāng)深度圖像v,和力的兩兩配準(zhǔn)結(jié)果7;存在,并且7;.作為邊的屬性,其中^和^.是模型圖的兩個(gè)頂點(diǎn)。5、根據(jù)權(quán)利要求l所述多幅深度圖像自動(dòng)配準(zhǔn)方法,其特征在于所述步驟(8)中的對(duì)于得到一個(gè)一致圈的判斷方法從圈中任取一幅深度圖像,求得它的直徑",將該深度圖像沿著圈中的兩兩變換變換一周,得到一幅新的深度圖像,計(jì)算新的深度圖像和初始深度圖像對(duì)應(yīng)點(diǎn)之間的誤差e,將e/^作為圈的誤差,如果圈的誤差小于設(shè)定閾值圈就是一致的,否則,是不一致的。6、根據(jù)權(quán)利要求l所述多幅深度圖像自動(dòng)配準(zhǔn)方法,其特征在于所述步驟(9)中搜索圈空間的方法如下輸入兩兩配準(zhǔn)的模型圖G輸出全局一致的模型圖G'Procedure求出G的導(dǎo)出圈基B建立B的鄰接關(guān)系圖T〈B,L>consistent—cycle—①N—1whiler中頂點(diǎn)數(shù)>=:^foreachr中N個(gè)連通頂點(diǎn)生成的圈CifC—致ffien將C插入到consistent_cycle中刪除這N個(gè)頂點(diǎn)中的一個(gè)Ifr中頂點(diǎn)數(shù)〈NthenbreakendifendifendforN—N+lendwhileG,—<D將G中的頂點(diǎn)加到G'中將consistent—cycle中所有圈的所有邊加到G'中。全文摘要多幅深度圖像自動(dòng)配準(zhǔn)方法。(1)使用SIFT特征對(duì)任意兩幅深度圖像配準(zhǔn)并判斷結(jié)果正確性。首先計(jì)算兩幅深度圖像的SIFT特征,雙向交叉匹配對(duì)應(yīng)點(diǎn),然后用RANSAC算法求極線(xiàn)約束,過(guò)濾錯(cuò)誤匹配,之后用ICP算法精確配準(zhǔn)并判斷結(jié)果正確性(2)搜索模型圖的圈空間,計(jì)算全局一致的配準(zhǔn)結(jié)果。首先求得模型圖的導(dǎo)出圈基并構(gòu)建導(dǎo)出圈基的鄰接關(guān)系圖,然后,求得一致圈空間的一組基,進(jìn)而得到一致的配準(zhǔn)結(jié)果。該方法可以有效地提高圈空間的搜索速度,理想情況下,可以將指數(shù)時(shí)間復(fù)雜度提高到線(xiàn)性時(shí)間復(fù)雜度。(3)圈的一致性判斷,使用一種相對(duì)誤差判斷方法判斷圈中配準(zhǔn)結(jié)果的一致性。本發(fā)明可以可靠的自動(dòng)配準(zhǔn)多幅深度圖像,通過(guò)搜索一致圈,去掉錯(cuò)誤配準(zhǔn),得到一致的配準(zhǔn)結(jié)果。文檔編號(hào)G06T7/00GK101350101SQ20081022209公開(kāi)日2009年1月21日申請(qǐng)日期2008年9月9日優(yōu)先權(quán)日2008年9月9日發(fā)明者飛侯,沈旭昆,趙沁平,越齊申請(qǐng)人:北京航空航天大學(xué)
網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
讷河市| 萨迦县| 新泰市| 汤原县| 武汉市| 海林市| 札达县| 扬中市| 灵寿县| 武义县| 甘洛县| 红桥区| 康乐县| 桓仁| 汝州市| 衡东县| 平塘县| 张家港市| 澎湖县| 河池市| 芜湖市| 中宁县| 滁州市| 安陆市| 广安市| 山东| 兴国县| 犍为县| 黄骅市| 花莲市| 小金县| 阆中市| 黄山市| 丰台区| 南投市| 资源县| 大兴区| 岳普湖县| 五家渠市| 保德县| 双城市|