欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

利用深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的海底底質(zhì)自動(dòng)分類(lèi)方法與流程

文檔序號(hào):11217451閱讀:1023來(lái)源:國(guó)知局
利用深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的海底底質(zhì)自動(dòng)分類(lèi)方法與流程

本發(fā)明涉及一種利用深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的海底底質(zhì)自動(dòng)分類(lèi)方法,屬于底質(zhì)分類(lèi)技術(shù)領(lǐng)域。



背景技術(shù):

現(xiàn)在應(yīng)用較為廣泛的分類(lèi)方法按照分類(lèi)原理可分為非監(jiān)督分類(lèi)和有監(jiān)督分類(lèi)兩類(lèi)。非監(jiān)督分類(lèi)主要有isod利用深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的海底底質(zhì)自動(dòng)分類(lèi)方法t利用深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的海底底質(zhì)自動(dòng)分類(lèi)方法和k-me利用深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的海底底質(zhì)自動(dòng)分類(lèi)方法n聚類(lèi)方法,有監(jiān)督分類(lèi)主要有平行六面體、最小距離、極大似然、svm、bp神經(jīng)網(wǎng)絡(luò)等。本發(fā)明應(yīng)用的分類(lèi)方法是深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)屬于有監(jiān)督分類(lèi),卷積神經(jīng)網(wǎng)絡(luò)跟傳統(tǒng)的非監(jiān)督分類(lèi)方法相比計(jì)算復(fù)雜度高,但分類(lèi)精度高;與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)比起來(lái)加入了卷積和降采樣計(jì)算,以及獨(dú)有的局部感知和權(quán)值共享,卷積和降采樣計(jì)算不斷對(duì)特征進(jìn)行二次提取的同時(shí)降低特征維度,避免神經(jīng)網(wǎng)絡(luò)出現(xiàn)過(guò)擬合,局部感知和權(quán)值共享大大減少了模型的計(jì)算參數(shù),加快模型的收斂速率,分類(lèi)精度高。

相比于本發(fā)明應(yīng)用的卷積神經(jīng)網(wǎng)絡(luò),現(xiàn)有的技術(shù)或多或少存在一定缺陷,比如非監(jiān)督分類(lèi)對(duì)于同一類(lèi)樣本分布較為密集時(shí)分類(lèi)較為準(zhǔn)確,對(duì)不同類(lèi)別混雜嚴(yán)重的分類(lèi)效果不佳;監(jiān)督分類(lèi)中常見(jiàn)的分類(lèi)方法svm泛化能力較弱,對(duì)訓(xùn)練樣本要求較高,由于運(yùn)算過(guò)程設(shè)計(jì)大量矩陣的存儲(chǔ)因而占用內(nèi)存較大,運(yùn)算時(shí)間較長(zhǎng),bp神經(jīng)網(wǎng)絡(luò)收斂速度慢、初始化參數(shù)較為隨機(jī),很容易陷入局部極值,算法運(yùn)算效率不高,特別是網(wǎng)絡(luò)層數(shù)較多,復(fù)雜度較大時(shí),訓(xùn)練時(shí)間較長(zhǎng),分類(lèi)精度普遍沒(méi)有卷積神經(jīng)網(wǎng)絡(luò)分類(lèi)精度高。



技術(shù)實(shí)現(xiàn)要素:

針對(duì)現(xiàn)有底質(zhì)分類(lèi)軟件對(duì)混合沉積物識(shí)別率不高且分類(lèi)方法較為傳統(tǒng),本發(fā)明提取特征參數(shù)增加至十四維,引入有一定模型運(yùn)算優(yōu)勢(shì)和分類(lèi)優(yōu)勢(shì)的深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)。

本發(fā)明是采用以下的技術(shù)方法實(shí)現(xiàn)的:

一種利用深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的海底底質(zhì)自動(dòng)分類(lèi)方法,包括如下步驟:

s1:輸入層計(jì)算:

對(duì)于輸入層的輸入可用以下公式表示:

其中,l為卷積層數(shù)代表維度,k表示類(lèi)別屬性,gi(x,y)表示特征層中第i個(gè)像元的空間位置。

s2:卷積計(jì)算:

卷積過(guò)程是輸入一幅圖像,與可訓(xùn)練的卷積核采用滑動(dòng)窗口卷積的方式進(jìn)行卷積運(yùn)算,然后加一個(gè)偏置,輸入到神經(jīng)元的激活函數(shù),得到卷積輸出層,卷積計(jì)算公式:

其中,表示第l層輸出的特征圖m的激活值,f()為激活函數(shù),p表示選擇的輸入特征圖集合,代表卷積運(yùn)算,為卷積核函數(shù),為偏置參數(shù)。

s3:下采樣計(jì)算:

卷積后得到的鄰域特征圖再在小鄰域內(nèi)進(jìn)行下采樣得到新的特征,計(jì)算公式如下:

其中,為l層中特征圖的乘性偏置系數(shù),為l層中特征圖的加性偏置系數(shù),每一個(gè)特征圖都有自己的加性和乘性偏置系數(shù),down()為下采樣函數(shù)。

s4:全連接層計(jì)算:

全連接層是對(duì)模型中上一層特征圖重組的過(guò)程,該過(guò)程可增加模型訓(xùn)練效果。相比于稀疏連接,全連接考慮了上層網(wǎng)絡(luò)中所有特征圖的性質(zhì),通過(guò)學(xué)習(xí)的方法得到特征圖的組合系數(shù),進(jìn)一步提高了模型的表達(dá)能力和適應(yīng)性。全連接層輸出的特征圖計(jì)算公式如下:

其中,z為輸入的l-1層中的特征圖總數(shù),代表l層特征圖n與輸入的l-1層中特征圖m的權(quán)值,為l層中特征圖m的偏置系數(shù)。

s5:輸出層計(jì)算:

cnn模型的輸出層的作用是計(jì)算輸入層神經(jīng)元的歸屬概率,每個(gè)神經(jīng)元代表一個(gè)底質(zhì)類(lèi)型。神經(jīng)網(wǎng)絡(luò)模型最常采用softmax回歸激活函數(shù)來(lái)預(yù)測(cè)底質(zhì)類(lèi)型的歸屬概率,該函數(shù)可以增強(qiáng)輸出層神經(jīng)元間的約束性,類(lèi)別估計(jì)函數(shù)如公式:

其中w和b分別為權(quán)重和偏置,wnk和bk代表輸入神經(jīng)元n歸為k類(lèi)底質(zhì)類(lèi)型的權(quán)重值和偏置系數(shù),y代表輸入神經(jīng)元的分類(lèi)結(jié)果,其與訓(xùn)練樣本標(biāo)簽一一對(duì)應(yīng)。p()代表每個(gè)輸入像元特征g歸屬為底質(zhì)類(lèi)型k的潛在概率,在softmax函數(shù)中將樣本分為某一類(lèi)別的概率:

卷積神經(jīng)網(wǎng)絡(luò)模型通過(guò)局部感知和權(quán)重共享來(lái)減少模型的訓(xùn)練參數(shù),提高模型的訓(xùn)練效率。

優(yōu)選地,所述步驟s2中,激活函數(shù)常用的有sign,sigmoid,tanh,在傳統(tǒng)的cnn中通常使用sigmoid函數(shù)。

優(yōu)選地,所述步驟s2中,p可從這個(gè)集合中選取某個(gè)組合作為輸入特征圖,每個(gè)輸出特征圖都有一個(gè)偏置系數(shù),特征圖內(nèi)的權(quán)值相同,由卷積神經(jīng)網(wǎng)絡(luò)的權(quán)值共享特性決定的;卷積核也可以稱(chēng)為濾波器,卷積核設(shè)計(jì)通常涉及卷積核的大小,數(shù)目以及步長(zhǎng);卷積核大小確定了圖像中參與運(yùn)算子區(qū)域的大小,卷積核上的參數(shù)大小決定了卷積核覆蓋的圖像區(qū)域?qū)?yīng)的像素點(diǎn)對(duì)最終卷積結(jié)果的投票能力,權(quán)值越大,投票貢獻(xiàn)越大。

優(yōu)選地,所述步驟s2中,每個(gè)輸出特征圖都有自己的乘性偏置參數(shù)α和加性偏置參數(shù)b。

優(yōu)選地,所述步驟s3中,對(duì)上層進(jìn)行池化,通常采用最大池化、均值池化、隨機(jī)池化和高斯池化,在計(jì)算過(guò)程中通常采用前兩種方法。

優(yōu)選地,所述步驟s3中,由于特征圖的變長(zhǎng)不一定是2的倍數(shù),在邊緣處理上有忽略邊緣和保留邊緣兩種方法,在計(jì)算過(guò)程中通常選用保留邊緣。

本發(fā)明的有益效果是:卷積和降采樣計(jì)算不斷降低特征的緯度,使得神經(jīng)網(wǎng)絡(luò)不宜出現(xiàn)過(guò)擬合,傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)輸入層的每一個(gè)像素都要連接到隱藏層的每一個(gè)神經(jīng)元,而每個(gè)神經(jīng)元其實(shí)沒(méi)有必要對(duì)全局圖像進(jìn)行感知,只需要對(duì)局部進(jìn)行感知,然后在更高層將局部的信息綜合起來(lái)即可得到了全局的信息,卷積神經(jīng)網(wǎng)絡(luò)的局部感知就做到了這一點(diǎn),且隱含層中的所有神經(jīng)元都檢測(cè)在圖像的不同位置處的同一個(gè)特征實(shí)現(xiàn)權(quán)值共享。相比于其他算法cnn特殊的局部感知和權(quán)值共享大大的減少了網(wǎng)絡(luò)的訓(xùn)練參數(shù)和計(jì)算量,這使得神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)變得更簡(jiǎn)單,適應(yīng)性更強(qiáng)且分類(lèi)精度普遍較高。

附圖說(shuō)明

圖1是本發(fā)明的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖。

圖2是本發(fā)明的卷積神經(jīng)網(wǎng)絡(luò)計(jì)算流程圖。

圖3是本發(fā)明的卷積計(jì)算流程圖。

圖4是本發(fā)明的分類(lèi)結(jié)果圖。

圖5是本發(fā)明的svm神經(jīng)網(wǎng)絡(luò)的分類(lèi)結(jié)果圖。

圖6是本發(fā)明的bp神經(jīng)網(wǎng)絡(luò)的分類(lèi)結(jié)果圖。

具體實(shí)施方式

為了使本發(fā)明目的、技術(shù)方法更加清楚明白,下面結(jié)合附圖,對(duì)本發(fā)明作進(jìn)一步詳細(xì)說(shuō)明。

實(shí)施例一:

cnn是神經(jīng)網(wǎng)絡(luò)的一種變形,它與神經(jīng)網(wǎng)絡(luò)的區(qū)別在于增加了卷積運(yùn)算和降采樣過(guò)程,具有局部感知和權(quán)值共享的特點(diǎn),是一個(gè)前饋網(wǎng)絡(luò)。

如圖1所示,根據(jù)cnn結(jié)構(gòu)可大致分為四層結(jié)構(gòu):輸入層,卷積和下采樣層,全連接層和輸出層四部分。

(1)輸入層:卷積神經(jīng)網(wǎng)絡(luò)的第一層是輸入層,利用cnn進(jìn)行底質(zhì)分類(lèi)研究輸入的實(shí)際上是聲納圖像的特征信息。

(2)卷積與下采樣層:卷積與下采樣層又叫特征提取層,上一層的輸出與本層權(quán)重w做卷積提取輸入數(shù)據(jù)特征得到各個(gè)卷積層(c),通過(guò)下采樣計(jì)算,加快網(wǎng)絡(luò)訓(xùn)練速度得到各個(gè)下采樣層(s),通常卷積神經(jīng)網(wǎng)絡(luò)至少包含兩層特征提取層。

(3)全連接層:全連接層實(shí)際上是多層感知器的隱含層部分,經(jīng)過(guò)卷積和下采樣處理后的特征信息為了與傳統(tǒng)的多層感知器全連接,需要經(jīng)過(guò)一步光柵化(x)即將上一層的所有特征信息依次展開(kāi)排成一列。該過(guò)程可增加模型訓(xùn)練效果。相比于稀疏連接,全連接考慮了上層網(wǎng)絡(luò)中所有特征圖的性質(zhì),使模型具有更好的表達(dá)能力,增強(qiáng)模型適應(yīng)性。

(4)輸出層:輸出層神經(jīng)節(jié)點(diǎn)的數(shù)目根據(jù)最終具體類(lèi)別數(shù)目設(shè)定。

卷積神經(jīng)網(wǎng)絡(luò)計(jì)算流程圖如圖2所示.

針對(duì)結(jié)構(gòu)中不同層涉及到的計(jì)算進(jìn)行介紹:

s1:輸入層計(jì)算:

對(duì)于輸入層的輸入可用以下公式表示:

其中,l為卷積層數(shù)代表維度,k表示類(lèi)別屬性,gi(x,y)表示特征層中第i個(gè)像元的空間位置。

s2:卷積計(jì)算:

卷積過(guò)程是輸入一幅圖像,與可訓(xùn)練的卷積核采用滑動(dòng)窗口卷積的方式進(jìn)行卷積運(yùn)算,然后加一個(gè)偏置,輸入到神經(jīng)元的激活函數(shù),得到卷積輸出層,卷積計(jì)算公式:

其中,表示第l層輸出的特征圖m的激活值,f()為激活函數(shù),p表示選擇的輸入特征圖集合,代表卷積運(yùn)算,為卷積核函數(shù),為偏置參數(shù)。常用的激活函數(shù)有sign,sigmoid,tanh等,在傳統(tǒng)的cnn中通常使用sigmoid函數(shù),為偏置參數(shù)。mj表示選擇的輸入特征圖集合,可從這個(gè)集合中選取某個(gè)組合作為輸入特征圖,每個(gè)輸出特征圖都有一個(gè)偏置系數(shù),特征圖內(nèi)的權(quán)值相同,由卷積神經(jīng)網(wǎng)絡(luò)的權(quán)值共享特性決定的。卷積核也可以稱(chēng)為濾波器,卷積核設(shè)計(jì)通常涉及卷積核的大小(size),數(shù)目(number)以及步長(zhǎng)(stride)。卷積核大小確定了圖像中參與運(yùn)算子區(qū)域的大小,卷積核上的參數(shù)大小決定了卷積核覆蓋的圖像區(qū)域?qū)?yīng)的像素點(diǎn)對(duì)最終卷積結(jié)果的投票能力,權(quán)值越大,投票貢獻(xiàn)越大。

s3:下采樣計(jì)算:

卷積后得到的鄰域特征圖再在小鄰域內(nèi)進(jìn)行下采樣得到新的特征,計(jì)算公式如下:

其中,為l層中特征圖的乘性偏置系數(shù),為l層中特征圖的加性偏置系數(shù),每一個(gè)特征圖都有自己的加性和乘性偏置系數(shù),down()為下采樣函數(shù)。

s4:全連接層計(jì)算:

全連接層是對(duì)模型中上一層特征圖重組的過(guò)程,該過(guò)程可增加模型訓(xùn)練效果。相比于稀疏連接,全連接考慮了上層網(wǎng)絡(luò)中所有特征圖的性質(zhì),通過(guò)學(xué)習(xí)的方法得到特征圖的組合系數(shù),進(jìn)一步提高了模型的表達(dá)能力和適應(yīng)性。全連接層輸出的特征圖計(jì)算公式如下:

其中,z為輸入的l-1層中的特征圖總數(shù),代表l層特征圖n與輸入的l-1層中特征圖m的權(quán)值,為l層中特征圖m的偏置系數(shù)。

s5:輸出層計(jì)算

cnn模型的輸出層的作用是計(jì)算輸入層神經(jīng)元的歸屬概率,每個(gè)神經(jīng)元代表一個(gè)底質(zhì)類(lèi)型。神經(jīng)網(wǎng)絡(luò)模型最常采用softmax回歸激活函數(shù)來(lái)預(yù)測(cè)底質(zhì)類(lèi)型的歸屬概率,該函數(shù)可以增強(qiáng)輸出層神經(jīng)元間的約束性,類(lèi)別估計(jì)函數(shù)如公式:

其中,w和b分別為權(quán)重和偏置,wnk和bk代表輸入神經(jīng)元n歸為k類(lèi)底質(zhì)類(lèi)型的權(quán)重值和偏置系數(shù),y代表輸入神經(jīng)元的分類(lèi)結(jié)果,其與訓(xùn)練樣本標(biāo)簽一一對(duì)應(yīng)。p()代表每個(gè)輸入像元特征g歸屬為底質(zhì)類(lèi)型k的潛在概率,在softmax函數(shù)中將樣本分為某一類(lèi)別的概率:

卷積神經(jīng)網(wǎng)絡(luò)模型通過(guò)局部感知和權(quán)重共享來(lái)減少模型的訓(xùn)練參數(shù),提高模型的訓(xùn)練效率。

實(shí)施例二:

選取某實(shí)驗(yàn)測(cè)區(qū)內(nèi)12條多波束(em3000)觀測(cè)條帶進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)區(qū)含有細(xì)砂、泥質(zhì)砂、砂質(zhì)泥、粗砂、基巖及礫石等6種底質(zhì)類(lèi)型,因?yàn)榧?xì)砂、粗砂和砂質(zhì)泥的特征及其相似不宜區(qū)分因此將這三類(lèi)合并為一類(lèi)砂進(jìn)行研究。為了研究該方法的有效性和優(yōu)勢(shì),分別與svm和bp神經(jīng)網(wǎng)絡(luò)的分類(lèi)結(jié)果進(jìn)行對(duì)比,不同分類(lèi)方法的分類(lèi)結(jié)果已經(jīng)精度評(píng)估如圖4至圖6所示。

本發(fā)明采用卷積和降采樣計(jì)算不斷降低特征的緯度,使得神經(jīng)網(wǎng)絡(luò)不宜出現(xiàn)過(guò)擬合,傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)輸入層的每一個(gè)像素都要連接到隱藏層的每一個(gè)神經(jīng)元,而每個(gè)神經(jīng)元其實(shí)沒(méi)有必要對(duì)全局圖像進(jìn)行感知,只需要對(duì)局部進(jìn)行感知,然后在更高層將局部的信息綜合起來(lái)即可得到了全局的信息,卷積神經(jīng)網(wǎng)絡(luò)的局部感知就做到了這一點(diǎn),且隱含層中的所有神經(jīng)元都檢測(cè)在圖像的不同位置處的同一個(gè)特征實(shí)現(xiàn)權(quán)值共享。相比于其他算法cnn特殊的局部感知和權(quán)值共享大大的減少了網(wǎng)絡(luò)的訓(xùn)練參數(shù)和計(jì)算量,這使得神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)變得更簡(jiǎn)單,適應(yīng)性更強(qiáng)且分類(lèi)精度普遍較高。

本發(fā)明可廣泛運(yùn)用于深度卷積神經(jīng)網(wǎng)絡(luò)在海底底質(zhì)分類(lèi)研究中的場(chǎng)合。

以上所述僅為本發(fā)明的較佳實(shí)施例而己,并不以本發(fā)明為限制,凡在本發(fā)明的精神和原則之內(nèi)所作的均等修改、等同替換和改進(jìn)等,均應(yīng)包含在本發(fā)明的專(zhuān)利涵蓋范圍內(nèi)。

當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
静乐县| 公主岭市| 淮安市| 苍溪县| 托克逊县| 吉林市| 赤城县| 关岭| 寿光市| 永寿县| 临猗县| 闽清县| 樟树市| 通道| 甘洛县| 略阳县| 湾仔区| 玉田县| 曲松县| 观塘区| 淮北市| 上林县| 台中市| 工布江达县| 林州市| 金平| 海宁市| 阳西县| 孝感市| 兴安盟| 句容市| 清涧县| 铁岭市| 罗城| 繁峙县| 新津县| 兴隆县| 东乡| 延庆县| 平山县| 台州市|