欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于全流雙向融合網(wǎng)絡(luò)的6D位姿估計(jì)方法

文檔序號:40547475發(fā)布日期:2025-01-03 11:06閱讀:來源:國知局

技術(shù)特征:

1.一種基于全流雙向融合網(wǎng)絡(luò)的6d位姿估計(jì)方法,其特征在于,該方法包括以下步驟:

2.根據(jù)權(quán)利要求1所述的基于全流雙向融合網(wǎng)絡(luò)的6d位姿估計(jì)方法,其特征在于,在所述步驟s3中,所述的使用最大池化和多層感知機(jī)整合壓縮外觀特征fri,得到集成的外觀特征fr2p,具體通過以下公式計(jì)算得到:

3.根據(jù)權(quán)利要求2所述的基于全流雙向融合網(wǎng)絡(luò)的6d位姿估計(jì)方法,其特征在于,在所述步驟s3中,所述的將點(diǎn)云特征fpoint和集成的外觀特征fr2p連接,通過mlps獲取融合的點(diǎn)特征具體通過以下公式計(jì)算得到:

4.根據(jù)權(quán)利要求1所述的基于全流雙向融合網(wǎng)絡(luò)的6d位姿估計(jì)方法,其特征在于,在所述步驟s3中,使用最大池化和多層感知機(jī)整合壓縮幾何特征fpj,得到集成的點(diǎn)特征fp2r,具體通過以下公式計(jì)算得到:

5.根據(jù)權(quán)利要求2所述的基于全流雙向融合網(wǎng)絡(luò)的6d位姿估計(jì)方法,其特征在于,在所述步驟s3中,所述的將圖像特征frgb和集成的點(diǎn)特征fp2r連接,得到融合的圖像特征具體通過以下公式計(jì)算得到:

6.根據(jù)權(quán)利要求3或5所述的基于全流雙向融合網(wǎng)絡(luò)的6d位姿估計(jì)方法,其特征在于,在所述步驟s3中,在進(jìn)行特征雙向融合時(shí),將提取到的rgb圖像特征和點(diǎn)云特征進(jìn)行有效融合,通過內(nèi)參矩陣將像素級特征與點(diǎn)級特征關(guān)聯(lián);利用最近鄰插值算法調(diào)整xyz圖尺寸,確保特征像素與3d坐標(biāo)的對應(yīng)關(guān)系。

7.根據(jù)權(quán)利要求1所述的基于全流雙向融合網(wǎng)絡(luò)的6d位姿估計(jì)方法,其特征在于,在所述步驟s4中,特征ffr表示為:

8.根據(jù)權(quán)利要求1所述的基于全流雙向融合網(wǎng)絡(luò)的6d位姿估計(jì)方法,其特征在于,在所述步驟s4中,當(dāng)所述估計(jì)對象是非對稱對象時(shí),姿態(tài)估計(jì)的損失量定義為在實(shí)際姿態(tài)下從物體模型中采樣的點(diǎn)與由預(yù)測姿態(tài)轉(zhuǎn)換的同一模型上的對應(yīng)點(diǎn)之間的距離,具體公式為:

9.根據(jù)權(quán)利要求1或8所述的基于全流雙向融合網(wǎng)絡(luò)的6d位姿估計(jì)方法,其特征在于,在所述步驟s4中,當(dāng)所述估計(jì)對象是對稱對象時(shí),將姿態(tài)估計(jì)的損失定義為最小化估計(jì)模型方向上的每個(gè)點(diǎn)與真實(shí)模型上最近點(diǎn)之間的距離,具體公式為:

10.根據(jù)權(quán)利要求1所述的基于全流雙向融合網(wǎng)絡(luò)的6d位姿估計(jì)方法,其特征在于,在所述步驟s5中,所述估計(jì)對象整體損失函數(shù)通過估計(jì)對象的位姿估計(jì)損失函數(shù)與置信度分?jǐn)?shù)結(jié)合形成,該估計(jì)對象整體損失函數(shù)l的計(jì)算公式為:


技術(shù)總結(jié)
本申請涉及人工智能技術(shù)領(lǐng)域,公開了一種基于全流雙向融合網(wǎng)絡(luò)的6D位姿估計(jì)方法,包括:步驟S1:采集估計(jì)對象的RGB?D圖像,并根據(jù)相機(jī)內(nèi)參將其轉(zhuǎn)化為點(diǎn)云數(shù)據(jù);步驟S2:提取所述點(diǎn)云數(shù)據(jù)對應(yīng)的RGB紋理特征,對點(diǎn)云數(shù)據(jù)進(jìn)行處理得到拼接的局部?全局特征;步驟S3:進(jìn)行特征雙向融合,所述特征雙向融合包括像素到點(diǎn)和點(diǎn)到像素的雙向融合過程;步驟S4:進(jìn)行像素密集融合,將融合結(jié)果結(jié)合密集融合的全局特征,得到逐像素點(diǎn)的預(yù)測位姿;步驟S5:將所有像素點(diǎn)的預(yù)測位姿輸入最終的多層感知機(jī),并通過訓(xùn)練學(xué)習(xí),不斷降低估計(jì)對象整體損失函數(shù)的值,最終選擇整體損失函數(shù)值最小的輸出作為估計(jì)對象的整體估計(jì)位姿。本申請能顯著提升位姿估計(jì)的準(zhǔn)確性和魯棒性。

技術(shù)研發(fā)人員:孟凡武,吳迪,龔濤,向相屹
受保護(hù)的技術(shù)使用者:北京理工大學(xué)
技術(shù)研發(fā)日:
技術(shù)公布日:2025/1/2
當(dāng)前第2頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會(huì)獲得點(diǎn)贊!
1
腾冲县| 梁河县| 乌拉特中旗| 饶平县| 宁城县| 杭锦后旗| 北宁市| 县级市| 明溪县| 洛隆县| 阿巴嘎旗| 牡丹江市| 辰溪县| 绵竹市| 东安县| 孟村| 仲巴县| 亚东县| 绥中县| 德格县| 北海市| 徐汇区| 辉南县| 灵山县| 昭平县| 滦平县| 米脂县| 东港市| 葫芦岛市| 天水市| 资阳市| 增城市| 吴堡县| 安福县| 辽阳县| 定陶县| 获嘉县| 虎林市| 石渠县| 潜江市| 金溪县|