本發(fā)明涉及移動機器人領(lǐng)域,具體為一種室內(nèi)稀疏特征移動機器人全自主導航方法及裝置。
背景技術(shù):
1、近年來,由于技術(shù)的飛速發(fā)展和發(fā)展,越來越多的行業(yè)轉(zhuǎn)向自動化。自主移動機器人(amr)在自動化過程中起著重要的作用,并被廣泛應用于各種領(lǐng)域。機器人的“綁架”問題是指在缺少它之前的位置信息情況下去確定機器人的當前位姿,例如當機器人停靠在已經(jīng)構(gòu)建好地圖環(huán)境中,但是并不知道它在地圖中的相對位置,或者在移動過程中,由于傳感器的暫時性功能故障或相機的快速移動,都導致機器人先前的位置信息的丟失。
2、路徑規(guī)劃對于尋找環(huán)境中從一個點到另一個點的最佳路徑至關(guān)重要,其中主流的兩種方法是基于網(wǎng)格搜索的方法和基于智能的方法。基于網(wǎng)格搜索的方法包括a*算法及其變體,盡管這種方法會產(chǎn)生一些精度損失,但是規(guī)劃的路徑是保守的。為了減少a*算法尋徑過程中的冗余點,通過跳點搜索在柵格圖中獲得跳躍點,并基于獲得的跳躍點加快a*算法的速度,但搜索時間在不同的實際場景中波動較大?;谥悄艿姆椒ㄍǔJ歉倪M全局靜態(tài)環(huán)境下的遺傳算法,從而改善收斂速度慢和預編碼問題。另外還有通過粒子群優(yōu)化來細化慣性權(quán)重和加速度因子,以防止局部最小值下降,提高收斂速度。在路徑規(guī)劃過程中,需要進行軌跡跟蹤,以便amr能夠根據(jù)設定的軌跡路徑跟蹤運動。最常見的是采用局部線性模型預測控制(mpc)方法來同時跟蹤非線性機器人小車模型的速度和路徑,當預測視界出現(xiàn)障礙物時,通過非線性mpc對軌跡進行動態(tài)調(diào)整。此外,自適應軌跡跟蹤策略以及混合視覺軌跡策略,都可以根據(jù)不同的車速和航向誤差組合對控制器參數(shù)設置進行優(yōu)化。以上算法在室內(nèi)稀疏特征狀態(tài)下不足以支撐機器人進行全自主導航,它們的局限性是計算困難,并且在模型復雜時無法提供一個閉環(huán)形式的解決方案,且傳統(tǒng)的軌跡跟蹤算法(如pp)在有限的資源條件下對前瞻性距離的選擇不當,跟蹤性能較差。
3、為了自主和安全地導航,amr需在醫(yī)院稀疏特征的場景中定位其位置。定位的簡單形式是使用測程法,通過車輪的速度和旋轉(zhuǎn)(車輪測程)、慣性測量單元(imu測程)、激光源(激光測程)或圖像(視覺測程)等估計的測程信息提供當前位置。第一種是僅激光雷達測程算法來估計測程,然后通過卷積神經(jīng)網(wǎng)絡(cnn)分割局部地圖,然后使用兩階段ransac來驗證局部地圖中的位置匹配。第二種是同步定位和映射(slam)技術(shù),包括地圖構(gòu)建過程和定位過程,一般基于最小二乘的幾何匹配來補償預測的位置。雖然基于雷達的slam方法為確定自由空間區(qū)域和定位位置的特征提供了有用的信息,但在無結(jié)構(gòu)的環(huán)境中,它似乎效率低下,如長走廊、隧道、塵土飛揚或霧蒙蒙的區(qū)域。因此,本技術(shù)提出了一種室內(nèi)稀疏特征移動機器人全自主導航方法及裝置,以至少部分解決現(xiàn)有技術(shù)中可能存在的問題。
技術(shù)實現(xiàn)思路
1、為了克服上述問題或者至少部分地解決上述問題,本發(fā)明實施例提供一種室內(nèi)稀疏特征移動機器人全自主導航方法及裝置,將二維激光雷達點云特征與基于深度卷積網(wǎng)絡的分類器相結(jié)合,以區(qū)分當前選擇slam或測距定位系統(tǒng)的情況,即如果amr處于無法確定機器人位置的情況下,該任務仍然可以繼續(xù)。
2、本發(fā)明的實施例是這樣實現(xiàn)的:
3、本技術(shù)實施例提供一種實現(xiàn)室內(nèi)稀疏特征移動機器人全自主導航方法,所述方法包括:
4、軌跡跟蹤:使用從當前機器人中心到下一個前瞻性點的兩個點創(chuàng)建的兩個向量之間的角度a和當前旋轉(zhuǎn)角b,用于預測轉(zhuǎn)彎距離和進行轉(zhuǎn)向動作;
5、2d激光slam:基于長走廊的無結(jié)構(gòu)環(huán)境場景,通過二維激光雷達數(shù)據(jù),使用slam算法將點云與地圖特征進行匹配,其中,若定位成功,點云將疊加在slam地圖的黑色邊緣上,并依此確定amr是否定位錯誤;
6、基于深度學習的交換定位系統(tǒng)的走廊識別:通過預設算法將點云數(shù)據(jù)轉(zhuǎn)換為二維圖像,并在二維圖像上繪制點云信息,將得到的二維點云圖像作為輸入進行模型訓練,以及將深度學習方法部署到agv設備中,其中,當經(jīng)過訓練的深度神經(jīng)網(wǎng)絡檢測到長走廊區(qū)域時,agv通過將slam定位系統(tǒng)切換到基于imu的里程表定位系統(tǒng)。
7、在本發(fā)明的一些實施例中,所述軌跡跟蹤的步驟,具體包括:
8、使用從當前機器人中心到下一個前瞻性點的兩個點創(chuàng)建的兩個向量之間的角度a來預測轉(zhuǎn)彎距離;
9、從當前機器人中心到下一個和前一個前瞻性點創(chuàng)建的兩個向量之間的當前旋轉(zhuǎn)角定義為b,并確保b≤值,用于進行轉(zhuǎn)向動作;其中,在理想情況下,=135°,當機器人在崎嶇的地形上行駛時,=0.1(rad/s)用來表明角速度在大于時的閾值。
10、在本發(fā)明的一些實施例中,所述使用從當前機器人中心到下一個前瞻性點的兩個點創(chuàng)建的兩個向量之間的角度a來預測轉(zhuǎn)彎距離,包括:
11、使用從當前機器人中心到下一個前瞻性點的兩個點創(chuàng)建的兩個向量和,其中,向量用于預測距離,向量定義為;
12、根據(jù)向量和,確定兩個向量之間的角度a,其中,a≤值;從和中可以得到的最大值,且角度a理想角度為60°。
13、在本發(fā)明的一些實施例中,所述2d激光slam的步驟包括:
14、基于長走廊的無結(jié)構(gòu)環(huán)境場景是,通過二維激光雷達數(shù)據(jù)的特征識別移動機器人丟失的位置;
15、通過slam算法將點云與地圖特征進行匹配;
16、如果定位成功,點云將疊加在slam地圖的黑色邊緣上,并使用所有點云和疊加在地圖黑邊上的點云來確定amr是否定位錯誤。
17、在本發(fā)明的一些實施例中,所述如果定位成功,點云將疊加在slam地圖的黑色邊緣上,并使用所有點云和疊加在地圖黑邊上的點云來確定amr是否定位錯誤,包括:
18、使用所有點云和疊加在地圖黑邊上的點云,確定缺失率值,其中,缺失率,其范圍從0到1;表示一幀中所有點云的數(shù)量,而表示疊加在地圖特征上的一幀中點云的數(shù)量;
19、如果大于50%,則大多數(shù)點云不會疊加在地圖特征上,從而確定移動機器人正在丟失,否則,表示定位成功;或,當周圍環(huán)境場景具有重復的模式時,且滿足點云被疊加在地圖特征上,致使地圖特征將過于一致,使得slam本地化無法得到確認,無法確定移動機器人在走廊中的位置。
20、在本發(fā)明的一些實施例中,所述基于深度學習的交換定位系統(tǒng)的走廊識別,具體包括:
21、通過如下公式,將激光雷達點云數(shù)據(jù)轉(zhuǎn)換為二維圖像,其中,是點云在圖像上的位置,是點云在現(xiàn)實世界中的位置,是從激光雷達點云位置到圖像點云位置的轉(zhuǎn)移矩陣,是激光雷達點云位置與圖像點云位置的偏移量;
22、通過如下參數(shù)設置,設置一個像素等于0.05m,為圖像分辨率,點云范圍設置在10m×10m的平方范圍內(nèi),以移動機器人的中心為基點,將真實尺度轉(zhuǎn)換為圖像像素;
23、通過轉(zhuǎn)換矩陣,以地圖坐標(100,200)作為移動機器人的中心,在二維圖像上繪制點云信息;
24、利用圖像邊緣檢測來確定x≥100和90≤y≤110圖像范圍內(nèi)的感興趣區(qū)域(roi),并對感興趣區(qū)域內(nèi)容進行噪聲過濾,獲得無噪聲圖像;
25、將無噪聲圖像,放入深度神經(jīng)網(wǎng)絡中,以確定走廊面積;
26、采用改進的inception?v3深度神經(jīng)網(wǎng)絡架構(gòu)作為走廊識別網(wǎng)絡,在走廊分類任務中,基于imagenet數(shù)據(jù)集采用微調(diào)方法,將深度學習方法部署到agv設備中;
27、當經(jīng)過訓練的深度神經(jīng)網(wǎng)絡檢測到長走廊區(qū)域時,agv通過將slam定位系統(tǒng)切換到基于imu的里程表定位系統(tǒng)中。
28、一種室內(nèi)稀疏特征移動機器人全自主導航裝置,包括:
29、軌跡跟蹤模塊,用于使用從當前機器人中心到下一個前瞻性點的兩個點創(chuàng)建的兩個向量之間的角度a和當前旋轉(zhuǎn)角b,用于預測轉(zhuǎn)彎距離和進行轉(zhuǎn)向動作;
30、2d激光slam模塊,用于基于長走廊的無結(jié)構(gòu)環(huán)境場景,通過二維激光雷達數(shù)據(jù),使用slam算法將點云與地圖特征進行匹配,其中,若定位成功,點云將疊加在slam地圖的黑色邊緣上,并依此確定amr是否定位錯誤;
31、系統(tǒng)定位模塊,用于通過預設算法將點云數(shù)據(jù)轉(zhuǎn)換為二維圖像,并在二維圖像上繪制點云信息,將得到的二維點云圖像作為輸入進行模型訓練,以及將深度學習方法部署到agv設備中,其中,當經(jīng)過訓練的深度神經(jīng)網(wǎng)絡檢測到長走廊區(qū)域時,agv通過將slam定位系統(tǒng)切換到基于imu的里程表定位系統(tǒng)。
32、一種電子設備,包括處理器、存儲器及存儲在所述存儲器上并能夠在所述處理器上運行的計算機程序,所述計算機程序被所述處理器執(zhí)行時實現(xiàn)上述實現(xiàn)室內(nèi)稀疏特征移動機器人全自主導航方法。
33、一種計算機可讀存儲介質(zhì),所述計算機可讀存儲介質(zhì)上存儲計算機程序,所述計算機程序被處理器執(zhí)行時實現(xiàn)上述實現(xiàn)室內(nèi)稀疏特征移動機器人全自主導航方法。
34、相對于現(xiàn)有技術(shù),本發(fā)明的實施例至少具有如下優(yōu)點或有益效果:
35、通過使用從當前機器人中心到下一個前瞻性點的兩個點創(chuàng)建的兩個向量之間的角度a和當前旋轉(zhuǎn)角b,用于預測轉(zhuǎn)彎距離和進行轉(zhuǎn)向動作;基于長走廊的無結(jié)構(gòu)環(huán)境場景,通過二維激光雷達數(shù)據(jù),使用slam算法將點云與地圖特征進行匹配,其中,若定位成功,點云將疊加在slam地圖的黑色邊緣上,并依此確定amr是否定位錯誤;通過預設算法將點云數(shù)據(jù)轉(zhuǎn)換為二維圖像,并在二維圖像上繪制點云信息,將得到的二維點云圖像作為輸入進行模型訓練,以及將深度學習方法部署到agv設備中,其中,當經(jīng)過訓練的深度神經(jīng)網(wǎng)絡檢測到長走廊區(qū)域時,agv通過將slam定位系統(tǒng)切換到基于imu的里程表定位系統(tǒng)。本發(fā)明的目的在于解決醫(yī)院長走廊中,激光雷達點云稀疏地收集到無法精確定位amr位置以及定位錯誤或綁架機器人的問題,提供了一種改進的算法進行軌跡跟蹤,將二維激光雷達點云特征與基于深度卷積網(wǎng)絡的分類器相結(jié)合,以區(qū)分當前選擇slam或測距定位系統(tǒng)的情況,即如果amr處于無法確定機器人位置的情況下,該任務仍然可以繼續(xù)。