欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

機器人運動控制方法和裝置、機器人與流程

文檔序號:11167797閱讀:598來源:國知局
機器人運動控制方法和裝置、機器人與制造工藝

本發(fā)明涉及計算機領(lǐng)域,具體而言,涉及一種機器人運動控制方法和裝置、機器人。



背景技術(shù):

隨著機器人產(chǎn)業(yè)的興起,服務性機器人正在走進千家萬戶。然而作為新興工業(yè)領(lǐng)域,機器人的很多功能還是處于初級階段。其中,自主移動功能就是制約機器人發(fā)展的瓶頸之一。而自主移動側(cè)重于是指機器人能夠感知環(huán)境、決策規(guī)劃路徑、并執(zhí)行移動指令。

機器人自主移動,其通常是將感知、定位、地圖建設(shè)、路徑規(guī)劃等各功能模塊融合在一起的系統(tǒng)解決方案。由于應用場景復雜多變,系統(tǒng)要處理的問題過于龐雜,所以很難到達可以實際應用的效果。

針對上述的問題,目前尚未提出有效的解決方案。



技術(shù)實現(xiàn)要素:

本發(fā)明實施例提供了一種機器人運動控制方法和裝置、機器人,以至少解決現(xiàn)有技術(shù)中實現(xiàn)機器人自主移動時人為干預較多的技術(shù)問題。

根據(jù)本發(fā)明實施例的一個方面,提供了一種機器人運動控制方法,包括:獲取機器人的數(shù)據(jù)采集設(shè)備當前采集的數(shù)據(jù);根據(jù)當前采集的數(shù)據(jù)和預先獲得的數(shù)據(jù)與運動控制指令的第一映射關(guān)系,獲得機器人的當前運動控制指令;其中,第一映射關(guān)系為采用第一端到端的深度學習方式獲得的映射關(guān)系;根據(jù)當前運動控制指令控制機器人的運動。

可選地,在獲取機器人當前采集的數(shù)據(jù)之前,方法還包括:基于訓練數(shù)據(jù)通過第一端到端的深度學習方法獲得第一映射關(guān)系;其中,訓練數(shù)據(jù)包括:機器人的數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)和數(shù)據(jù)采集設(shè)備在采集數(shù)據(jù)時的機器人的運動狀態(tài)數(shù)據(jù)。

可選地,訓練數(shù)據(jù)還包括:機器人處于不同場景下的危險信息,其中,危險信息為被數(shù)據(jù)采集設(shè)備采集到后發(fā)出告警的信息。

可選地,在獲取機器人的數(shù)據(jù)采集設(shè)備當前采集的數(shù)據(jù)之后,方法還包括:根據(jù)當前采集的數(shù)據(jù)、預先獲得的數(shù)據(jù)與機器人存在的危險情況的第二映射關(guān)系,預測機器人在保持當前運動控制指令所指示的運動狀態(tài)下存在的危險情況;其中,第二映射關(guān)系為采用第二端到端的深度學習方法獲得的映射關(guān)系;在預測到危險情況時,產(chǎn)生告警信息。

可選地,當前運動控制指令包括以下至少之一:徑向速度、轉(zhuǎn)向角速度、徑向加速度、轉(zhuǎn)向角加速度和機器人所在位置的高度。

可選地,數(shù)據(jù)采集設(shè)備包括以下至少之一:光學采集設(shè)備、聲學采集設(shè)備、電磁學采集設(shè)備。

可選地,機器人包括以下至少之一:騎行機器人、遙控機器人和跟隨機器人。

根據(jù)本發(fā)明實施例的另一方面,還提供了一種機器人,包括:數(shù)據(jù)采集設(shè)備、處理器和控制器;其中,數(shù)據(jù)采集設(shè)備,用于獲取機器人的數(shù)據(jù)采集設(shè)備當前采集的數(shù)據(jù);處理器,用于根據(jù)當前采集的數(shù)據(jù)和預先獲得的數(shù)據(jù)與運動控制指令的第一映射關(guān)系,獲得機器人的當前運動控制指令;其中,第一映射關(guān)系為采用第一端到端的深度學習方式獲得的映射關(guān)系;控制器,用于根據(jù)當前運動控制指令控制機器人的運動。

可選地,處理器,還用于基于訓練數(shù)據(jù)通過第一端到端的深度學習方法獲得第一映射關(guān)系;其中,訓練數(shù)據(jù)包括:機器人的數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)和數(shù)據(jù)采集設(shè)備在采集數(shù)據(jù)時的機器人的運動狀態(tài)數(shù)據(jù)。

可選地,訓練數(shù)據(jù)還包括:機器人處于不同場景下的危險信息,其中,危險信息為被數(shù)據(jù)采集設(shè)備采集到后發(fā)出告警的信息。

可選地,處理器,還用于根據(jù)當前采集的數(shù)據(jù)、預先獲得的數(shù)據(jù)與機器人存在的危險情況的第二映射關(guān)系,預測機器人在保持當前運動控制指令所指示的運動狀態(tài)下存在的危險情況;其中,第二映射關(guān)系為采用第二端到端的深度學習方式獲得的映射關(guān)系;機器人還包括:告警設(shè)備,用于在預測到危險情況時,產(chǎn)生告警信息。

在本發(fā)明實施例中,采用根據(jù)當前采集的數(shù)據(jù)和預先獲取的數(shù)據(jù)與運動控制指令的第一映射關(guān)系獲得機器人的當前運動控制指令,根據(jù)獲取的當前運動控制指令控制機器人的運動的方式,進而可以根據(jù)當前采集的數(shù)據(jù)來調(diào)整其運動狀態(tài),自動實現(xiàn)了機器人的自主移動,達到了減少了人為干預的目的,進而解決了現(xiàn)有技術(shù)中實現(xiàn)機器人自主移動時人為干預較多的技術(shù)問題。

附圖說明

此處所說明的附圖用來提供對本發(fā)明的進一步理解,構(gòu)成本申請的一部分,本發(fā)明的示意性實施例及其說明用于解釋本發(fā)明,并不構(gòu)成對本發(fā)明的不當限定。在附圖中:

圖1是根據(jù)本發(fā)明實施例的機器人運動控制方法的流程示意圖;

圖2是根據(jù)本發(fā)明實施例提供的機器人運動控制裝置的結(jié)構(gòu)框圖;

圖3是根據(jù)本發(fā)明實施例的機器人的結(jié)構(gòu)框圖。

具體實施方式

為了使本技術(shù)領(lǐng)域的人員更好地理解本發(fā)明方案,下面將結(jié)合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術(shù)方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發(fā)明一部分的實施例,而不是全部的實施例。基于本發(fā)明中的實施例,本領(lǐng)域普通技術(shù)人員在沒有做出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都應當屬于本發(fā)明保護的范圍。

需要說明的是,本發(fā)明的說明書和權(quán)利要求書及上述附圖中的術(shù)語“第一”、“第二”等是用于區(qū)別類似的對象,而不必用于描述特定的順序或先后次序。應該理解這樣使用的數(shù)據(jù)在適當情況下可以互換,以便這里描述的本發(fā)明的實施例能夠以除了在這里圖示或描述的那些以外的順序?qū)嵤?。此外,術(shù)語“包括”和“具有”以及他們的任何變形,意圖在于覆蓋不排他的包含,例如,包含了一系列步驟或單元的過程、方法、系統(tǒng)、產(chǎn)品或設(shè)備不必限于清楚地列出的那些步驟或單元,而是可包括沒有清楚地列出的或?qū)τ谶@些過程、方法、產(chǎn)品或設(shè)備固有的其它步驟或單元。

實施例1

根據(jù)本發(fā)明實施例,提供了一種機器人運動控制方法的方法實施例,需要說明的是,在附圖的流程圖示出的步驟可以在諸如一組計算機可執(zhí)行指令的計算機系統(tǒng)中執(zhí)行,并且,雖然在流程圖中示出了邏輯順序,但是在某些情況下,可以以不同于此處的順序執(zhí)行所示出或描述的步驟。

圖1是根據(jù)本發(fā)明實施例的機器人運動控制方法的流程示意圖,如圖1所示,該方法包括如下步驟:

步驟s102,獲取機器人的數(shù)據(jù)采集設(shè)備當前采集的數(shù)據(jù);

步驟s104,根據(jù)當前采集的數(shù)據(jù)和預先獲得的數(shù)據(jù)與運動控制指令的第一映射關(guān)系,獲得機器人的當前運動控制指令;其中,第一映射關(guān)系為采用第一端到端的深度學習方式獲得的映射關(guān)系;

步驟s106,根據(jù)當前運動控制指令控制機器人的運動。

通過上述步驟,采用根據(jù)當前采集的數(shù)據(jù)和預先獲取的數(shù)據(jù)與運動控制指令的第一映射關(guān)系獲得機器人的當前運動控制指令,根據(jù)獲取的當前運動控制指令控制機器人的運動的方式,進而可以根據(jù)當前采集的數(shù)據(jù)來調(diào)整其運動狀態(tài),自動實現(xiàn)了機器人的自主移動,達到了減少了人為干預的目的,進而解決了現(xiàn)有技術(shù)中實現(xiàn)機器人自主移動時人為干預較多的技術(shù)問題。

需要說明的是,端到端的深度學習方法為直接將數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)映射成控制機器人的運動的運動控制指令,即得到上述第一映射關(guān)系。

在本發(fā)明的一個實施例中,在上述步驟s102之前,上述方法還可以包括:基于訓練數(shù)據(jù)通過第一端到端的深度學習方法獲得第一映射關(guān)系;其中,訓練數(shù)據(jù)包括:機器人的數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)和數(shù)據(jù)采集設(shè)備在采集數(shù)據(jù)時的機器人的運動狀態(tài)數(shù)據(jù)。

需要說明的是,上述訓練數(shù)據(jù)中包括大量組數(shù)據(jù),每一組數(shù)據(jù)中都包括一個數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)和該數(shù)據(jù)采集設(shè)備在采集該數(shù)據(jù)時機器人的運動狀態(tài)數(shù)據(jù)(即與該數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)對應的機器人真實的運動狀態(tài)數(shù)據(jù))。

需要說明的是,基于訓練數(shù)據(jù)通過第一端到端的深度學習方法獲得第一映射關(guān)系可以表現(xiàn)為:將上述訓練數(shù)據(jù)中的一組數(shù)據(jù)中的機器人的數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)作為與第一端到端的深度學習方法對應的第一卷積神經(jīng)網(wǎng)絡(luò)模型的輸入;將該第一卷積神經(jīng)網(wǎng)絡(luò)模型的輸出與該組數(shù)據(jù)中的運動狀態(tài)數(shù)據(jù)進行比較,得到該輸出與上述運動狀態(tài)數(shù)據(jù)的誤差,如果誤差大于第一預設(shè)閾值,則調(diào)整該第一卷積神經(jīng)網(wǎng)絡(luò)模型的權(quán)值,繼續(xù)下一組數(shù)據(jù),直到訓練數(shù)據(jù)中每一組數(shù)據(jù)的機器人的數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)作為第一卷積神經(jīng)網(wǎng)絡(luò)模型的輸入,該輸出與訓練數(shù)據(jù)中對應的運動狀態(tài)數(shù)據(jù)的誤差小于第一預設(shè)閾值為止,這樣就得到了一個經(jīng)過訓練的第一卷積神經(jīng)網(wǎng)絡(luò)模型,即上述第一映射關(guān)系。

需要說明的是,上述訓練數(shù)據(jù)還可以包括:機器人處于不同場景下的危險信息,其中,危險信息為被數(shù)據(jù)采集設(shè)備采集到后發(fā)出告警的信息。

在本發(fā)明的一個實施例中,在上述步驟s102之后,上述方法還可以包括:根據(jù)當前采集的數(shù)據(jù)、預先獲得的數(shù)據(jù)與機器人存在的危險情況的第二映射關(guān)系,預測機器人在保持當前運動控制指令所指示的運動狀態(tài)下存在的危險情況;其中,第二映射關(guān)系為采用第二端到端的深度學習方法獲得的映射關(guān)系;在預測到危險情況時,產(chǎn)生告警信息。通過上述方法可以進行預測告警,進而能夠提供機器人運動的安全性。

在本發(fā)明的一個實施例中,在上述步驟s102之前,上述方法還可以包括:基于訓練數(shù)據(jù)通過第二端到端的深度學習方法獲得第二映射關(guān)系;其中,訓練數(shù)據(jù)包括:機器人的數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)和與機器人的數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)對應的機器人的危險信息。

需要說明的是,上述訓練數(shù)據(jù)中包括大量組數(shù)據(jù),每一組數(shù)據(jù)中都包括一個數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)和與該數(shù)據(jù)采集設(shè)備在采集該數(shù)據(jù)對應的機器人的危險信息。

需要說明的是,基于訓練數(shù)據(jù)通過第二端到端的深度學習方法獲得第二映射關(guān)系可以表現(xiàn)為:將上述訓練數(shù)據(jù)中的一組數(shù)據(jù)中的機器人的數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)作為與第二端到端的深度學習方法對應的第二卷積神經(jīng)網(wǎng)絡(luò)模型的輸入;將該第一卷積神經(jīng)網(wǎng)絡(luò)模型的輸出與該組數(shù)據(jù)中的機器人的危險信息進行比較,得到該輸出與上述機器人的危險信息的誤差,如果誤差大于第二預設(shè)閾值,則調(diào)整該第二卷積神經(jīng)網(wǎng)絡(luò)模型的權(quán)值,繼續(xù)下一組數(shù)據(jù),直到訓練數(shù)據(jù)中每一組數(shù)據(jù)的機器人的數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)作為第二卷積神經(jīng)網(wǎng)絡(luò)模型的輸入,該輸出與訓練數(shù)據(jù)中對應的機器人的危險信息的誤差小于第一預設(shè)閾值為止,這樣就得到了一個經(jīng)過訓練的第二卷積神經(jīng)網(wǎng)絡(luò)模型,即上述第二映射關(guān)系。

需要說明的是,上述當前運動控制指令可以包括以下至少之一:徑向速度、轉(zhuǎn)向角速度、徑向加速度、轉(zhuǎn)向角加速度和機器人所在位置的高度。

需要說明的是,上述數(shù)據(jù)采集設(shè)備包括以下至少之一:光學采集設(shè)備、聲學采集設(shè)備、電磁學采集設(shè)備。

需要說明的是,上述機器人可以包括以下至少之一:騎行機器人、遙控機器人和跟隨機器人。

需要說明的是,上述步驟的執(zhí)行主體可以是機器人,但并不限于此。

需要說明的是,對于前述的各方法實施例,為了簡單描述,故將其都表述為一系列的動作組合,但是本領(lǐng)域技術(shù)人員應該知悉,本發(fā)明并不受所描述的動作順序的限制,因為依據(jù)本發(fā)明,某些步驟可以采用其他順序或者同時進行。其次,本領(lǐng)域技術(shù)人員也應該知悉,說明書中所描述的實施例均屬于優(yōu)選實施例,所涉及的動作和模塊并不一定是本發(fā)明所必須的。

通過以上的實施方式的描述,本領(lǐng)域的技術(shù)人員可以清楚地了解到根據(jù)上述實施例的方法可借助軟件加必需的通用硬件平臺的方式來實現(xiàn),當然也可以通過硬件,但很多情況下前者是更佳的實施方式?;谶@樣的理解,本發(fā)明的技術(shù)方案本質(zhì)上或者說對現(xiàn)有技術(shù)做出貢獻的部分可以以軟件產(chǎn)品的形式體現(xiàn)出來,該計算機軟件產(chǎn)品存儲在一個存儲介質(zhì)(如rom/ram、磁碟、光盤)中,包括若干指令用以使得一臺終端設(shè)備(可以是手機,計算機,服務器,或者網(wǎng)絡(luò)設(shè)備等)執(zhí)行本發(fā)明各個實施例所述的方法。

實施例2

根據(jù)本發(fā)明實施例,提供了一種機器人運動控制裝置的產(chǎn)品實施例,圖2是根據(jù)本發(fā)明實施例提供的機器人運動控制裝置的結(jié)構(gòu)框圖,如圖2所示,該裝置包括:

第一獲取模塊22,用于獲取機器人的數(shù)據(jù)采集設(shè)備當前采集的數(shù)據(jù);

第二獲取模塊24,與上述第一獲取模塊22連接,用于根據(jù)所述當前采集的數(shù)據(jù)和預先獲得的數(shù)據(jù)與運動控制指令的第一映射關(guān)系,獲得所述機器人的當前運動控制指令;其中,所述第一映射關(guān)系為采用第一端到端的深度學習方式獲得的映射關(guān)系;

控制模塊26,與上述第二獲取模塊24連接,用于根據(jù)所述當前運動控制指令控制所述機器人的運動。

通過上述裝置,采用根據(jù)當前采集的數(shù)據(jù)和預先獲取的數(shù)據(jù)與運動控制指令的第一映射關(guān)系獲得機器人的當前運動控制指令,根據(jù)獲取的當前運動控制指令控制機器人的運動的方式,進而可以根據(jù)當前采集的數(shù)據(jù)來調(diào)整其運動狀態(tài),自動實現(xiàn)了機器人的自主移動,達到了減少了人為干預的目的,進而解決了現(xiàn)有技術(shù)中實現(xiàn)機器人自主移動時人為干預較多的技術(shù)問題。

在本發(fā)明的一個實施例中,上述裝置還包括:第三獲取模塊,與上述第一獲取模塊22連接,用于基于訓練數(shù)據(jù)通過所述第一端到端的深度學習方法獲得所述第一映射關(guān)系;其中,所述訓練數(shù)據(jù)包括:所述機器人的數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)和所述數(shù)據(jù)采集設(shè)備在采集所述數(shù)據(jù)時的所述機器人的運動狀態(tài)數(shù)據(jù)。

需要說明的是,對于第三獲取模塊獲取到上述第一映射關(guān)系的具體過程可以詳見實施例1中對應與對基于訓練數(shù)據(jù)通過所述第一端到端的深度學習方法獲得所述第一映射關(guān)系的解釋。

需要說明的是,上述訓練數(shù)據(jù)還包括:所述機器人處于不同場景下的危險信息,其中,所述危險信息為被所述數(shù)據(jù)采集設(shè)備采集到后發(fā)出告警的信息。

在本發(fā)明的一個實施例中,上述裝置還包括:預測模塊,與上述第一獲取模塊22連接,用于根據(jù)所述當前采集的數(shù)據(jù)、預先獲得的數(shù)據(jù)與所述機器人存在的危險情況的第二映射關(guān)系,預測所述機器人在保持所述當前運動控制指令所指示的運動狀態(tài)下存在的危險情況;其中,所述第二映射關(guān)系為采用第二端到端的深度學習方式獲得的映射關(guān)系;告警模塊,與上述預測模塊連接,用于在預測到危險情況時,產(chǎn)生告警信息。通過上述預測模塊和告警模塊可以提供機器人運動的安全性。

需要說明的是,上述裝置還包括:第四獲取模塊,與上述第一獲取模塊22連接,用于基于訓練數(shù)據(jù)通過第二端到端的深度學習方法獲得第二映射關(guān)系;其中,訓練數(shù)據(jù)包括:機器人的數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)和與機器人的數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)對應的機器人的危險信息。

需要說明的是,對于上述第四獲取模塊獲取到上述第二映射關(guān)系的具體過程參考上述實施例1中對基于訓練數(shù)據(jù)通過第二端到端的深度學習方法獲得第二映射關(guān)系的解釋。

需要說明的是,上述當前運動控制指令可以包括以下至少之一:徑向速度、轉(zhuǎn)向角速度、徑向加速度、轉(zhuǎn)向角加速度和機器人所在位置的高度。

需要說明的是,上述數(shù)據(jù)采集設(shè)備包括以下至少之一:光學采集設(shè)備、聲學采集設(shè)備、電磁學采集設(shè)備。

需要說明的是,上述機器人可以包括以下至少之一:騎行機器人、遙控機器人和跟隨機器人。

需要說明的是,上述裝置位于機器人中,但并不限于此。

需要說明的是,上述各個模塊是可以通過軟件或硬件來實現(xiàn)的,對于后者,可以通過以下方式實現(xiàn),但不限于此:上述模塊均位于同一處理器中;或者,上述各個模塊以任意組合的形式分別位于不同的處理器中。

實施例3

根據(jù)本發(fā)明實施例,提供了一種機器人的產(chǎn)品實施例,圖3是根據(jù)本發(fā)明實施例的機器人的結(jié)構(gòu)框圖,如圖3所示,該裝置包括:數(shù)據(jù)采集設(shè)備32、處理器34和控制器36;

數(shù)據(jù)采集設(shè)備32,用于獲取機器人的數(shù)據(jù)采集設(shè)備當前采集的數(shù)據(jù);

處理器34,與上述數(shù)據(jù)采集設(shè)備32連接,用于根據(jù)當前采集的數(shù)據(jù)和預先獲得的數(shù)據(jù)與運動控制指令的第一映射關(guān)系,獲得機器人的當前運動控制指令;其中,第一映射關(guān)系為采用第一端到端的深度學習方式獲得的映射關(guān)系;

控制器36,與上述處理器34連接,用于根據(jù)當前運動控制指令控制機器人的運動。

通過上述機器人,采用根據(jù)當前采集的數(shù)據(jù)和預先獲取的數(shù)據(jù)與運動控制指令的第一映射關(guān)系獲得機器人的當前運動控制指令,根據(jù)獲取的當前運動控制指令控制機器人的運動的方式,進而可以根據(jù)當前采集的數(shù)據(jù)來調(diào)整其運動狀態(tài),自動實現(xiàn)了機器人的自主移動,達到了減少了人為干預的目的,進而解決了現(xiàn)有技術(shù)中實現(xiàn)機器人自主移動時人為干預較多的技術(shù)問題。

在本發(fā)明的一個實施例中,上述處理器34,還可以用于基于訓練數(shù)據(jù)通過第一端到端的深度學習方法獲得第一映射關(guān)系;其中,訓練數(shù)據(jù)包括:機器人的數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)和數(shù)據(jù)采集設(shè)備在采集數(shù)據(jù)時的機器人的運動狀態(tài)數(shù)據(jù)。

需要說明的是,對于處理器34獲取到上述第一映射關(guān)系的具體過程可以詳見實施例1中對應與對基于訓練數(shù)據(jù)通過所述第一端到端的深度學習方法獲得所述第一映射關(guān)系的解釋。

需要說明的是,上述訓練數(shù)據(jù)還包括:所述機器人處于不同場景下的危險信息,其中,所述危險信息為被所述數(shù)據(jù)采集設(shè)備采集到后發(fā)出告警的信息。

在本發(fā)明的一個實施例中,上述處理器34,還可以用于根據(jù)當前采集的數(shù)據(jù)、預先獲得的數(shù)據(jù)與機器人存在的危險情況的第二映射關(guān)系,預測機器人在保持當前運動控制指令所指示的運動狀態(tài)下存在的危險情況;其中,第二映射關(guān)系為采用第二端到端的深度學習方式獲得的映射關(guān)系;機器人還包括:告警設(shè)備,用于在預測到危險情況時,產(chǎn)生告警信息。

需要說明的是,上述處理器34還可以用于基于訓練數(shù)據(jù)通過第二端到端的深度學習方法獲得第二映射關(guān)系;其中,訓練數(shù)據(jù)包括:機器人的數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)和與機器人的數(shù)據(jù)采集設(shè)備所采集的數(shù)據(jù)對應的機器人的危險信息。

需要說明的是,對于上述處理器34獲取到上述第二映射關(guān)系的具體過程參考上述實施例1中對基于訓練數(shù)據(jù)通過第二端到端的深度學習方法獲得第二映射關(guān)系的解釋。

需要說明的是,上述當前運動控制指令可以包括以下至少之一:徑向速度、轉(zhuǎn)向角速度、徑向加速度、轉(zhuǎn)向角加速度和機器人所在位置的高度。

需要說明的是,上述數(shù)據(jù)采集設(shè)備包括以下至少之一:光學采集設(shè)備、聲學采集設(shè)備、電磁學采集設(shè)備。

需要說明的是,上述機器人可以包括以下至少之一:騎行機器人、遙控機器人和跟隨機器人。

為了更好的理解本發(fā)明實施例,以下結(jié)合優(yōu)選的實施例對本發(fā)明做進一步解釋。

本優(yōu)選實施例采用了端到端的深度學習方案:直接將機器人當前的傳感器數(shù)據(jù)映射成機器人運動控制指令。

需要說明的是,傳感器數(shù)據(jù)可以包括:由各種光學采集設(shè)備,如rgb攝像頭、深度攝像頭、紅外攝像頭等,激光雷達、超聲波等等采集的數(shù)據(jù)。傳感器數(shù)據(jù)可以是這些的數(shù)據(jù)的任意組合,具體取決于機器人搭載的傳感器,對不同的數(shù)據(jù)組合,要訓練專門的神經(jīng)網(wǎng)絡(luò)。

需要說明的是,上述運動控制指令:輪式機器人控制指令比較簡單,可以通過徑向速度、和轉(zhuǎn)向角速度控制;也可以通過徑向加速度和轉(zhuǎn)向角加速度控制。

深度學習:采用有監(jiān)督式的學習方案,使用卷積神經(jīng)網(wǎng)絡(luò)結(jié)合全鏈接層實現(xiàn)函數(shù)映射關(guān)系。

而監(jiān)督式學習(英語:supervisedlearning),是一個機器學習中的方法,可以由訓練資料中學到或建立一個模式(函數(shù)/learningmodel),并依此模式推測新的實例。訓練資料是由輸入物件(通常是向量)和預期輸出所組成。函數(shù)的輸出可以是一個連續(xù)的值(稱為回歸分析),或是預測一個分類標簽(稱作分類)。

一個監(jiān)督式學習者的任務在觀察完一些訓練范例(輸入和預期輸出)后,去預測這個函數(shù)對任何可能出現(xiàn)的輸入的值的輸出。要達到此目的,學習者必須以"合理"的方式從現(xiàn)有的資料中一般化到非觀察到的情況。

通過上述端到端的解決方案避免了人為地設(shè)計各個功能模塊、設(shè)定各種決策,將復雜的實際問題抽象為一個函數(shù)映射關(guān)系。

需要說明的是,有監(jiān)督的深度學習方案需要大量的帶有真值的訓練樣本,并需要樣本多樣化,盡可能的代表機器人在應用中將要處理的各種情況。

本優(yōu)選實施例通過記錄被操控的機器人的傳感數(shù)據(jù)和運動狀態(tài)來采集訓練數(shù)據(jù)。如用戶騎行、遙控控制、機器人跟蹤用戶行動等。

優(yōu)選實施例1:騎行機器人自主移動學習方案包括以下幾個步驟:

步驟1,數(shù)據(jù)采集:在用戶騎行使用機器人的過程中,記錄機器人的傳感器信息和運動狀態(tài)數(shù)據(jù),以及危險、意外情況信息,如摔倒、打滑、碰撞等。

步驟2,模型訓練?;诓杉瘮?shù)據(jù)訓練機器人自主移動模型和危險情況檢測模型,可以用一個多任務的深度學習網(wǎng)絡(luò)實現(xiàn)。自主移動模型,輸出機器人根據(jù)當前傳感器的信息的機器人運動狀態(tài)控制指令。危險情況檢測模型輸出若保持當前運動狀態(tài),馬上可能面臨的危險情況,并發(fā)送警告信息。如,前方有減速帶、積水等不良路況。

步驟3,自主移動應用。機器人可以根據(jù)學習到的模型自主運動,無需用戶騎行或控制。該功能可以與各種其他功能模塊搭配使用,解決各種真實問題。如導航(送貨)、行人檢測跟蹤(安檢巡邏)。

步驟4,危險預知應用。機器人加載訓練好的網(wǎng)絡(luò)模型之后,用戶再次騎行時,機器人就會分析用戶當前的行走路線,并進行危險情況分析和預測警告,從而提高用戶騎行行為的安全性。

優(yōu)選實施例2:

遙控機器人自主移動學習方案類似于上述優(yōu)選實施例1,不同的是采集數(shù)據(jù)時是針對可遙控的機器人。用戶通過遙控器控制機器人。同樣記錄機器人的傳感數(shù)據(jù)和運動狀態(tài)作為樣本和真值。

優(yōu)選實施例3:

跟隨機器人自主移動學習方案類似于上述優(yōu)選實施例1,不同的是其針對的是跟隨機器人。跟隨機器人跟隨人類行走,自然在模擬人類的行為方式。因此可以記錄跟隨過程中機器人的傳感器數(shù)據(jù)和機器人運動狀態(tài)來作為訓練數(shù)據(jù)。

如果一類型機器人同時具有上面多種屬性,那么這些不同狀態(tài)下采集的數(shù)據(jù)可以共享。只需傳感器類型統(tǒng)一,傳感器位置角度接近,那么數(shù)據(jù)就有很好的一致性,可以共同用來訓練這一類型的機器人。

實施例4

本發(fā)明的實施例還提供了一種存儲介質(zhì),該存儲介質(zhì)包括存儲的程序,其中,上述程序運行時執(zhí)行上述任一項所述的方法。

可選地,在本實施例中,上述存儲介質(zhì)可以包括但不限于:u盤、只讀存儲器(read-onlymemory,簡稱為rom)、隨機存取存儲器(randomaccessmemory,簡稱為ram)、移動硬盤、磁碟或者光盤等各種可以存儲程序代碼的介質(zhì)。

本發(fā)明的實施例還提供了一種處理器,該處理器用于運行程序,其中,該程序運行時執(zhí)行上述任一項方法中的步驟。

可選地,本實施例中的具體示例可以參考上述實施例及可選實施方式中所描述的示例,本實施例在此不再贅述。

上述本發(fā)明實施例序號僅僅為了描述,不代表實施例的優(yōu)劣。

在本發(fā)明的上述實施例中,對各個實施例的描述都各有側(cè)重,某個實施例中沒有詳述的部分,可以參見其他實施例的相關(guān)描述。

在本申請所提供的幾個實施例中,應該理解到,所揭露的技術(shù)內(nèi)容,可通過其它的方式實現(xiàn)。其中,以上所描述的裝置實施例僅僅是示意性的,例如所述單元的劃分,可以為一種邏輯功能劃分,實際實現(xiàn)時可以有另外的劃分方式,例如多個單元或組件可以結(jié)合或者可以集成到另一個系統(tǒng),或一些特征可以忽略,或不執(zhí)行。另一點,所顯示或討論的相互之間的耦合或直接耦合或通信連接可以是通過一些接口,單元或模塊的間接耦合或通信連接,可以是電性或其它的形式。

所述作為分離部件說明的單元可以是或者也可以不是物理上分開的,作為單元顯示的部件可以是或者也可以不是物理單元,即可以位于一個地方,或者也可以分布到多個單元上。可以根據(jù)實際的需要選擇其中的部分或者全部單元來實現(xiàn)本實施例方案的目的。

另外,在本發(fā)明各個實施例中的各功能單元可以集成在一個處理單元中,也可以是各個單元單獨物理存在,也可以兩個或兩個以上單元集成在一個單元中。上述集成的單元既可以采用硬件的形式實現(xiàn),也可以采用軟件功能單元的形式實現(xiàn)。

所述集成的單元如果以軟件功能單元的形式實現(xiàn)并作為獨立的產(chǎn)品銷售或使用時,可以存儲在一個計算機可讀取存儲介質(zhì)中?;谶@樣的理解,本發(fā)明的技術(shù)方案本質(zhì)上或者說對現(xiàn)有技術(shù)做出貢獻的部分或者該技術(shù)方案的全部或部分可以以軟件產(chǎn)品的形式體現(xiàn)出來,該計算機軟件產(chǎn)品存儲在一個存儲介質(zhì)中,包括若干指令用以使得一臺計算機設(shè)備(可為個人計算機、服務器或者網(wǎng)絡(luò)設(shè)備等)執(zhí)行本發(fā)明各個實施例所述方法的全部或部分步驟。而前述的存儲介質(zhì)包括:u盤、只讀存儲器(rom,read-onlymemory)、隨機存取存儲器(ram,randomaccessmemory)、移動硬盤、磁碟或者光盤等各種可以存儲程序代碼的介質(zhì)。

以上所述僅是本發(fā)明的優(yōu)選實施方式,應當指出,對于本技術(shù)領(lǐng)域的普通技術(shù)人員來說,在不脫離本發(fā)明原理的前提下,還可以做出若干改進和潤飾,這些改進和潤飾也應視為本發(fā)明的保護范圍。

當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
武穴市| 鹰潭市| 东宁县| 嫩江县| 和静县| 门头沟区| 凤城市| 南涧| 随州市| 白沙| 榆树市| 乐亭县| 德安县| 理塘县| 北票市| 乌兰察布市| 阿拉善左旗| 金山区| 漳浦县| 平和县| 乌恰县| 长岛县| 拜泉县| 卓尼县| 永新县| 贡觉县| 武胜县| 和林格尔县| 辽阳县| 本溪市| 鹿泉市| 临邑县| 南部县| 泽普县| 刚察县| 汶川县| 页游| 山东省| 林芝县| 嘉善县| 南木林县|