本發(fā)明涉及一種無人機(jī)圖傳信號(hào)調(diào)制方式識(shí)別方法,具體涉及一種基于多維度特征協(xié)同的無人機(jī)圖傳信號(hào)調(diào)制方式識(shí)別系統(tǒng)及方法。
背景技術(shù):
1、隨著無人機(jī)技術(shù)的飛速發(fā)展,無人機(jī)在航拍、環(huán)境監(jiān)測(cè)、農(nóng)業(yè)植保、交通監(jiān)控等多個(gè)領(lǐng)域的應(yīng)用日益廣泛。無人機(jī)在執(zhí)行任務(wù)時(shí),通過圖傳系統(tǒng)實(shí)時(shí)傳輸圖像、視頻等關(guān)鍵信息,為地面控制站提供重要的決策依據(jù)。然而,無人機(jī)圖傳信號(hào)的調(diào)制方式直接關(guān)系到數(shù)據(jù)傳輸?shù)男屎桶踩?,因此,?zhǔn)確識(shí)別無人機(jī)圖傳信號(hào)的調(diào)制方式成為了一個(gè)重要的研究課題。
2、傳統(tǒng)的無人機(jī)圖傳信號(hào)調(diào)制方式識(shí)別方法主要依賴于信號(hào)處理技術(shù),如頻譜分析、特征提取和模式匹配等。這些方法雖然在一定程度上能夠識(shí)別信號(hào)的調(diào)制方式,但在面對(duì)復(fù)雜多變的信號(hào)環(huán)境和日益增多的調(diào)制類型時(shí),往往顯得力不從心。此外,傳統(tǒng)方法通常需要人工設(shè)計(jì)特征提取器,不僅工作量大,而且難以應(yīng)對(duì)信號(hào)的非線性和時(shí)變性。
3、深度學(xué)習(xí)作為人工智能的一個(gè)重要分支,以其強(qiáng)大的自動(dòng)特征提取和學(xué)習(xí)能力,在圖像識(shí)別、語音識(shí)別、自然語言處理等領(lǐng)域取得了顯著成效。近年來,深度學(xué)習(xí)技術(shù)也逐漸被引入到通信信號(hào)處理領(lǐng)域,特別是在調(diào)制方式識(shí)別方面展現(xiàn)出巨大的潛力。通過構(gòu)建深度神經(jīng)網(wǎng)絡(luò)模型,深度學(xué)習(xí)能夠自動(dòng)從信號(hào)數(shù)據(jù)中提取特征,并通過大規(guī)模數(shù)據(jù)訓(xùn)練,實(shí)現(xiàn)對(duì)不同調(diào)制方式的準(zhǔn)確識(shí)別。
4、基于深度學(xué)習(xí)的無人機(jī)圖傳信號(hào)調(diào)制方式識(shí)別方法不僅具有廣闊的應(yīng)用前景和重要的研究價(jià)值,而且在提高識(shí)別準(zhǔn)確性、增強(qiáng)魯棒性、支持多調(diào)制類型識(shí)別以及實(shí)現(xiàn)自動(dòng)化和智能化等方面具有顯著的必要性。通過充分利用深度學(xué)習(xí)的優(yōu)勢(shì),可以實(shí)現(xiàn)對(duì)無人機(jī)圖傳信號(hào)調(diào)制方式的準(zhǔn)確、高效識(shí)別,為無人機(jī)技術(shù)的發(fā)展和應(yīng)用提供有力支持。未來,隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展和完善,相信基于深度學(xué)習(xí)的無人機(jī)圖傳信號(hào)調(diào)制方式識(shí)別方法將在更多領(lǐng)域發(fā)揮重要作用。
技術(shù)實(shí)現(xiàn)思路
1、本發(fā)明的目的是提供一種基于多維度特征協(xié)同的無人機(jī)圖傳信號(hào)調(diào)制方式識(shí)別系統(tǒng)及方法,該方法融合了時(shí)頻分析與深度學(xué)習(xí)技術(shù),通過時(shí)頻同步優(yōu)化變換超越了傳統(tǒng)方法,能夠精準(zhǔn)解析復(fù)雜信號(hào)。
2、為了達(dá)到上述目的,本發(fā)明提供了一種基于多維度特征協(xié)同的無人機(jī)圖傳信號(hào)調(diào)制方式識(shí)別方法,其特征在于,該方法包含:
3、(s100)無人機(jī)通信信號(hào)數(shù)據(jù)采集及預(yù)處理
4、接收機(jī)內(nèi)部的模擬/數(shù)據(jù)器件對(duì)接收的模擬信號(hào)進(jìn)行模數(shù)轉(zhuǎn)換,并通過正交解調(diào)、數(shù)字下變頻將接收信號(hào)轉(zhuǎn)換為同相分量si(t)和正交分量si(t)兩路數(shù)字基帶信號(hào),然后將si(t)、sq(t)兩路信號(hào)進(jìn)行合并,得到時(shí)域信號(hào)s(t)=si(t)+j·sq(t),j表示虛數(shù)單位;
5、(s200)將一維特征提取并重塑為二維特征圖,進(jìn)行歸一化處理;估計(jì)圖傳信號(hào)二維時(shí)頻圖;其中,所述一維特征包含:瞬時(shí)振幅、瞬時(shí)相位和瞬時(shí)頻率;
6、其中,所述估計(jì)圖傳信號(hào)二維時(shí)頻圖,包含:
7、s221)對(duì)合并后的時(shí)域信號(hào)做時(shí)頻同步優(yōu)化變換得到ttfso時(shí)頻分布:對(duì)合并后的時(shí)域信號(hào)以時(shí)間為橫軸,頻率為縱軸進(jìn)行分析,對(duì)采集的數(shù)據(jù)經(jīng)動(dòng)態(tài)諧波解析變換處理,每一次輸出皆可得到ttfso時(shí)頻譜,再計(jì)算每組數(shù)據(jù)沿著時(shí)間軸的ttfso時(shí)頻譜最大值,將各組數(shù)據(jù)的最大值拼接起來,得到全部樣本數(shù)據(jù)的ttfso時(shí)頻譜最大值圖;
8、所述時(shí)頻同步優(yōu)化變換的表達(dá)式為:
9、
10、式(1)中,tfr1(t,f)=fft(s(t)·h(t)),tfr2(t,f)=fft(s(t)·h'(t));s(t)為時(shí)域信號(hào);h(t)為窗函數(shù);h′(t)為對(duì)窗函數(shù)h(t)的導(dǎo)數(shù);fft為傅里葉變換,j為虛數(shù)單位;調(diào)整因子n是fft的點(diǎn)數(shù),hlen為窗口長度;im表示取虛部;
11、s222)基于魯棒主成分分析rpca的無人機(jī)圖傳信號(hào)提取:根據(jù)在時(shí)頻域上遙控信號(hào)與圖傳信號(hào)相關(guān)性存在的差異,利用低秩矩陣恢復(fù)的方法將遙控信號(hào)、圖傳信號(hào)分別分配到稀疏矩陣、低秩矩陣中;rpca通過最小化重構(gòu)誤差的l2范數(shù),來同時(shí)恢復(fù)出低秩矩陣a和稀疏矩陣e,以分離出無人機(jī)圖傳信號(hào)信息;所述最小化重構(gòu)誤差為時(shí)頻譜矩陣ttfso(t,f)與低秩矩陣a和稀疏矩陣e之和的差;
12、(s300)特征合并:把步驟(s200)所得的瞬時(shí)振幅重塑圖、瞬時(shí)相位重塑圖、瞬時(shí)頻率重塑圖與時(shí)頻圖作為四個(gè)通道合并成一個(gè)多通道的特征圖;
13、(s400)生成訓(xùn)練集和測(cè)試集:每個(gè)無人機(jī)信號(hào)樣本對(duì)應(yīng)四種特征:瞬時(shí)振幅重塑圖、瞬時(shí)相位重塑圖、瞬時(shí)頻率重塑圖與時(shí)頻圖,用于生成訓(xùn)練集和測(cè)試集;
14、(s500)構(gòu)建vggr16_channel?attention深度學(xué)習(xí)網(wǎng)絡(luò)并進(jìn)行訓(xùn)練:在vgg16深度學(xué)習(xí)網(wǎng)絡(luò)中嵌入channel?attention注意力模塊,在每個(gè)卷積層塊之后池化層之前插入通道注意力模塊,并對(duì)輸入層的多維度特征協(xié)同,調(diào)整第一個(gè)接受4通道輸入的卷積層的輸入通道數(shù)為4,使其能夠接受4個(gè)通道的特征圖,得到vggr16_channel?attention深度學(xué)習(xí)網(wǎng)絡(luò),進(jìn)行訓(xùn)練;
15、(s600)待識(shí)別的無人機(jī)圖傳信號(hào)調(diào)制方式進(jìn)行識(shí)別:將待識(shí)別的無人機(jī)信號(hào)的樣本圖,輸入到訓(xùn)練好的vggr16_channel?attention深度學(xué)習(xí)網(wǎng)絡(luò)中,輸出無人機(jī)圖傳信號(hào)的識(shí)別結(jié)果。
16、優(yōu)選地,在步驟(s200)中,將一維特征提取并重塑為二維特征圖,進(jìn)行歸一化處理,包含:
17、s211)特征提?。簭牟杉臅r(shí)域信號(hào)s(t)中提取無人機(jī)圖傳信號(hào)的瞬時(shí)振幅、瞬時(shí)相位和瞬時(shí)頻率;
18、對(duì)于時(shí)域信號(hào)s(t)=si(t)+j·sq(t),
19、所述瞬時(shí)振幅,為:
20、所述瞬時(shí)相位,為:
21、所述瞬時(shí)頻率,為:
22、式中,arctan()表示求反正切,表示求導(dǎo)數(shù);
23、s212)特征重塑:對(duì)每個(gè)一維特征進(jìn)行重塑,得到二維特征圖:瞬時(shí)振幅重塑圖、瞬時(shí)相位重塑圖和瞬時(shí)頻率重塑圖;
24、s213)特征歸一化:將每個(gè)二維特征圖進(jìn)行歸一化處理,以確保所有特征圖在相同的數(shù)值范圍內(nèi),將二維數(shù)組中的數(shù)值歸一化到[-1,1]范圍內(nèi)。
25、優(yōu)選地,在步驟s221)中,所述h(t)取
26、優(yōu)選地,在步驟s222)中,將rpca問題轉(zhuǎn)化為一個(gè)凸優(yōu)化問題,目標(biāo)是最小化低秩矩陣a的核范數(shù)和稀疏矩陣e的l1范數(shù)之和,同時(shí)保證d=a+e,優(yōu)化問題表示為:
27、
28、其中,表示針對(duì)低秩矩陣a和稀疏矩陣e求最小值,s.t.表示約束條件;||||*表示矩陣的核范數(shù),||||1表示矩陣的l1范數(shù),λ是低秩項(xiàng)與稀疏項(xiàng)之間的平衡參數(shù);
29、求解式(2),得到低秩矩陣a,也即得到分離出的無人機(jī)圖傳信號(hào)信息。
30、優(yōu)選地,所述λ=0.1。
31、優(yōu)選地,在步驟(s400)中,以7:3的比例組合成訓(xùn)練集和測(cè)試集。
32、優(yōu)選地,在步驟(s500)中,所述vggr16_channel?attention深度學(xué)習(xí)網(wǎng)絡(luò)的結(jié)構(gòu)包含:依次連接的輸入層、卷積層塊一、通道注意力模塊一、池化層一、卷積層塊二、通道注意力模塊二、池化層二、卷積層塊三、通道注意力模塊三、池化層三、卷積層塊四、通道注意力模塊四、池化層四、卷積層塊五、通道注意力模塊五、池化層五、全連接層和softmax分類器。
33、優(yōu)選地,在步驟(s500)中,所述vggr16_channel?attention深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練,包含:使用隨機(jī)采樣算法,打亂訓(xùn)練集中樣本圖的順序,得到亂序后的訓(xùn)練集;設(shè)置訓(xùn)練循環(huán)次數(shù)epoch,把所有的樣本送入神經(jīng)網(wǎng)絡(luò)后,經(jīng)過多次迭代訓(xùn)練保證所有數(shù)據(jù)在最后都處于收斂階段;選擇批處理大小batchsize,設(shè)置學(xué)習(xí)率learningrate,損失函數(shù)修改為基于均方誤差的加權(quán)損失函數(shù)msetotal;將亂序后的無人機(jī)樣本圖訓(xùn)練集和驗(yàn)證集,輸入到vggr16_channel?attention深度學(xué)習(xí)網(wǎng)絡(luò)中,不斷迭代更新參數(shù),直到加權(quán)損失函數(shù)收斂為止,得到訓(xùn)練好的vggr16_channel?attention深度學(xué)習(xí)網(wǎng)絡(luò)。
34、優(yōu)選地,設(shè)定w1、w2、w3、w4分別代表輸入特征瞬時(shí)振幅重塑圖、瞬時(shí)相位重塑圖、瞬時(shí)頻率重塑圖、時(shí)頻圖的權(quán)重,基于均方誤差的加權(quán)損失函數(shù)針對(duì)每個(gè)特征分別計(jì)算,然后加權(quán)求和:
35、對(duì)于某個(gè)樣本,模型對(duì)四個(gè)特征的預(yù)測(cè)值分別為真實(shí)值分別為y1、y2、y3、y4,那么,基于均方誤差的損失函數(shù)計(jì)算為:
36、msetotal=w1×mse1+w2×mse2+w3×mse3+w4×mse4
37、其中,每個(gè)特征的均方誤差損失msei如下:
38、
39、其中,n是樣本中的元素?cái)?shù)量,和yik分別是第i個(gè)特征的第k個(gè)元素的預(yù)測(cè)值和真實(shí)值。
40、本發(fā)明的另一目的是提供一種基于多維度特征協(xié)同的無人機(jī)圖傳信號(hào)調(diào)制方式識(shí)別系統(tǒng),該系統(tǒng)采用所述的基于多維度特征協(xié)同的無人機(jī)圖傳信號(hào)調(diào)制方式識(shí)別方法對(duì)無人機(jī)圖傳信號(hào)調(diào)制方式識(shí)別。
41、本發(fā)明的基于多維度特征協(xié)同的無人機(jī)圖傳信號(hào)調(diào)制方式識(shí)別系統(tǒng)及方法,具有以下優(yōu)點(diǎn):
42、(1)本發(fā)明的方法融合了時(shí)頻分析與深度學(xué)習(xí)技術(shù),通過時(shí)頻同步優(yōu)化變換超越了傳統(tǒng)方法,能夠精準(zhǔn)解析復(fù)雜信號(hào)。它協(xié)同利用了一維特征(包括瞬時(shí)振幅、瞬時(shí)相位和瞬時(shí)頻率)和二維圖像特征(即時(shí)頻圖),實(shí)現(xiàn)了精細(xì)的多特征表示。同時(shí),本發(fā)明采用了經(jīng)過通道注意力機(jī)制增強(qiáng)的vggr16網(wǎng)絡(luò),以提升視覺任務(wù)的性能。該方法保持了模型的輕量高效,增強(qiáng)了特征學(xué)習(xí)能力,從而推動(dòng)無人機(jī)圖傳信號(hào)調(diào)制方式識(shí)別技術(shù)邁向新高度;
43、(2)本發(fā)明的方法采用深度卷積神經(jīng)網(wǎng)絡(luò)vggr16_channel?attention,通過堆疊多層卷積層,有效提取圖像或信號(hào)的高級(jí)特征,尤其是無人機(jī)圖傳信號(hào)中細(xì)微且復(fù)雜的調(diào)制特征,其小卷積核設(shè)計(jì)不僅減少了參數(shù),還增強(qiáng)了網(wǎng)絡(luò)的非線性,豐富了特征表示;
44、(3)本發(fā)明的方法采用深度卷積神經(jīng)網(wǎng)絡(luò)vggr16_channel?attention,引入了高效的通道注意力機(jī)制,動(dòng)態(tài)調(diào)整特征通道的重要性,使模型聚焦于關(guān)鍵特征,提升識(shí)別準(zhǔn)確性與效率,并減少冗余信息,降低計(jì)算成本;
45、(4)本發(fā)明的方法還展現(xiàn)出廣泛的應(yīng)用適應(yīng)性,能識(shí)別多種調(diào)制方式,且對(duì)信道噪聲、干擾等具有較強(qiáng)的魯棒性。同時(shí),借助預(yù)訓(xùn)練權(quán)重和現(xiàn)代深度學(xué)習(xí)框架,模型易于訓(xùn)練和優(yōu)化,收斂迅速,泛化能力強(qiáng)。