本發(fā)明屬于目標檢測,具體涉及一種基于yolov8的低照度場景下無人機航拍目標檢測方法。
背景技術:
1、隨著無人機技術的迅速發(fā)展,無人機被廣泛應用于交通巡邏、環(huán)境監(jiān)測和海上搜救等領域。無人機在執(zhí)行任務時往往需要應對夜晚、霧霾或黎明黃昏等低照度環(huán)境,而低照度環(huán)境下的無人機航拍圖像通常存在亮度不足、伴隨較高的噪聲水平、細節(jié)模糊等問題,進而嚴重影響目標檢測的準確性和效率。
2、雖然基于深度學習的目標檢測算法在無人機航拍圖像的目標檢測方面得到廣泛應用,但是仍然存在一些問題。例如,一些算法通過圖像增強技術改善圖像質量,仍然難以顯著提升檢測精度,且很難滿足實時性的要求。盡管一些目標檢測算法,如yolo、r-cnn系列等在良好照明條件下具有較好的檢測性能,而在低照度環(huán)境下其檢測精度和速度都顯著下降,因此低照度環(huán)境下的無人機航拍目標檢測對檢測算法提出了更高的要求。
3、此外,隨著無人機系統(tǒng)對實時檢測需求的不斷增加,不僅要求算法具備高精度,還必須具備高效性和高魯棒性,以應對復雜多變的應用場景。而yolov8網(wǎng)絡因其在保持較高檢測精度的同時能夠顯著提升檢測速度,已成為無人機目標檢測的優(yōu)選算法。為了使yolov8網(wǎng)絡在低照度環(huán)境下仍然具有良好的檢測性能,本發(fā)明對yolov8網(wǎng)絡進行改進,提出一種基于yolov8的低照度場景下無人機航拍目標檢測方法。
技術實現(xiàn)思路
1、針對現(xiàn)有技術的不足,本發(fā)明擬解決的技術問題是,提供一種基于yolov8的低照度場景下無人機航拍目標檢測方法。
2、本發(fā)明解決所述技術問題采用如下的技術方案:
3、一種基于yolov8的低照度場景下無人機航拍目標檢測方法,其特征在于,該方法包括以下步驟:
4、第一步:獲取無人機航拍圖像,若干張圖像組成數(shù)據(jù)集,并對圖像尺寸進行歸一化處理;
5、第二步:對yolov8網(wǎng)絡進行改進,將yolov8主干網(wǎng)絡的最后一個c2f模塊替換為特征增強模塊,在頸部網(wǎng)絡中嵌入淺層特征融合網(wǎng)絡,頭部網(wǎng)絡中嵌入自適應特征融合模塊,得到目標檢測模型;
6、所述淺層特征融合網(wǎng)絡包括兩個特征融合分支,第一個特征融合分支位于原始yolov8頸部網(wǎng)絡的自下而上分支的末端,包括自下而上連接的上采樣和拼接操作,原始yolov8頸部網(wǎng)絡的自下而上分支的最后一個c2f模塊的輸出特征圖經(jīng)過上采樣操作后,與主干網(wǎng)絡第一個c2f模塊的輸出特征圖進行拼接,得到第一個特征融合分支的輸出特征圖;第二個特征融合分支位于原始yolov8頸部網(wǎng)絡的自上而下分支的始端,包括自上而下依次連接的c2f模塊、cbs模塊、拼接操作和c2f模塊,第一個特征融合分支的輸出特征圖依次經(jīng)過一個c2f模塊和cbs模塊后,與原始yolov8頸部網(wǎng)絡的自下而上分支的最后一個c2f模塊的輸出特征圖進行拼接后,再經(jīng)過一個c2f模塊,得到第二個特征融合分支的輸出特征圖;
7、自適應特征融合模塊對淺層特征融合網(wǎng)絡的第二個特征融合分支的兩個c2f模塊的輸出特征圖x1、x2以及原始yolov8頸部網(wǎng)絡的自上而下分支的兩個c2f模塊的輸出特征圖x3、x4進行加權融合,得到四個融合特征圖y1~y4,四個融合特征圖表示為:
8、
9、式中,αi、βi、εi和ηi均為權重矩陣,i=1,2,3,4;
10、第三步:利用數(shù)據(jù)集對目標檢測模型進行訓練,將訓練后的目標檢測模塊用于低照度場景下無人機航拍目標的檢測。
11、進一步的,各個權重矩陣的表示相似,αi表示為:
12、
13、式中,λ是可學習參數(shù)。
14、進一步的,所述特征增強模塊包括cbs模塊、feb塊和bottleneck塊;輸入特征圖f0經(jīng)過一個cbs模塊,得到特征圖f1;將特征圖f1分割為兩個相同的特征圖f2和f2’,特征圖f2分別經(jīng)過多個并行且由依次連接的feb塊和bottleneck塊組成的特征增強分支后,再與特征圖f2’進行拼接,得到特征圖f3;特征圖f3經(jīng)過一個cbs模塊,得到特征增強模塊的輸出特征圖;其中,feb塊采用多頭注意力機制提取特征。
15、進一步的,在feb塊中,輸入特征圖分別與三個可更新的權重矩陣相乘,得到查詢向量、鍵向量和值向量;鍵向量依次經(jīng)過線性變換和silu激活函數(shù)后,與經(jīng)過線性變換后的值向量進行矩陣相乘,得到鍵值融合向量;查詢向量依次經(jīng)過線性變換和silu激活函數(shù)后,與鍵值融合向量進行矩陣相乘,再經(jīng)過歸一化,得到feb塊的輸出特征圖。
16、進一步的,圖像尺寸歸一化處理包括:
17、通過式(1)計算縮放比:
18、
19、式中,horig、worig為圖像原始的高度和寬度,hnew和wnew為圖像歸一化后的高度和寬度;
20、根據(jù)式(2-3)計算圖像縮放后的尺寸:
21、hscaled=γ×horig?(2)
22、wscaled=γ×worig?(3)
23、式中,hscaled、wscaled為圖像縮放后的高度和寬度;
24、根據(jù)式(4-5)計算填充尺寸,對縮放后的圖像進行填充;
25、
26、式中,paddingh、paddingw為圖像填充高度和寬度。
27、與現(xiàn)有技術相比,本發(fā)明的有益效果是:
28、1、yolov8的主干網(wǎng)絡通過cbs模塊和c2f模塊對輸入圖像進行分層特征提取,從低級的邊緣與紋理信息過渡到高級的語義特征,逐步抽象輸入圖像的內容。cbs模塊起到分層提取的作用,c2f模塊對前一個cbs模塊提取的特征進行增強,使后一個cbs模塊能夠更加全面地提取局部和全局信息,顯著提升了低照度場景下的特征提取能力。c2ffeb模塊的特征增強塊(feb)通過引入注意力機制提升全局感受野和上下文特征學習能力,更好地捕捉特征圖中的有用信息,同時抑制低照度場景下的噪聲干擾。feb塊以矩陣的結合律為理論基礎將多頭注意力機制的高維矩陣乘法運算轉換為多個低維矩陣乘法,同時將復雜的softmax激活函數(shù)替換為輕量化的silu激活函數(shù),在保證檢測精度的同時有效降低了計算復雜度。
29、2、為了解決低照度場景下的無人機航拍小目標細節(jié)模糊問題,在yolov8網(wǎng)絡中增加了淺層特征融合網(wǎng)絡和額外的檢測頭,淺層特征融合網(wǎng)絡嵌入在yolov8的頸部網(wǎng)絡中,用于對主干網(wǎng)絡提取的淺層特征進行融合,捕獲更加細致的圖像信息,顯著提升了模型在低照度環(huán)境下的小目標檢測精度。
30、3、在yolov8的頭部網(wǎng)絡中引入自適應特征融合模塊(asff),通過權重矩陣對頸部網(wǎng)絡提取的四個特征圖進行自適應地加權融合,能更好地解決因飛行高度、角度不同而導致的特征尺度不一致、細節(jié)模糊等問題,可以使檢測頭輸出的預測框與真實框有更高的重合度,進一步提高了模型的檢測性能。
1.一種基于yolov8的低照度場景下無人機航拍目標檢測方法,其特征在于,該方法包括以下步驟:
2.根據(jù)權利要求1所述的基于yolov8的低照度場景下無人機航拍目標檢測方法,其特征在于,各個權重矩陣的表示相似,αi表示為:
3.根據(jù)權利要求1或2所述的基于yolov8的低照度場景下無人機航拍目標檢測方法,其特征在于,所述特征增強模塊包括cbs模塊、feb塊和bottleneck塊;輸入特征圖f0經(jīng)過一個cbs模塊,得到特征圖f1;將特征圖f1分割為兩個相同的特征圖f2和f2’,特征圖f2分別經(jīng)過多個并行且由依次連接的feb塊和bottleneck塊組成的特征增強分支后,再與特征圖f2’進行拼接,得到特征圖f3;特征圖f3經(jīng)過一個cbs模塊,得到特征增強模塊的輸出特征圖;其中,feb塊采用多頭注意力機制提取特征。
4.根據(jù)權利要求3所述的基于yolov8的低照度場景下無人機航拍目標檢測方法,其特征在于,在feb塊中,輸入特征圖分別與三個可更新的權重矩陣相乘,得到查詢向量、鍵向量和值向量;鍵向量依次經(jīng)過線性變換和silu激活函數(shù)后,與經(jīng)過線性變換后的值向量進行矩陣相乘,得到鍵值融合向量;查詢向量依次經(jīng)過線性變換和silu激活函數(shù)后,與鍵值融合向量進行矩陣相乘,再經(jīng)過歸一化,得到feb塊的輸出特征圖。
5.根據(jù)權利要求1所述的基于yolov8的低照度場景下無人機航拍目標檢測方法,其特征在于,圖像尺寸歸一化處理包括: