欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種阿根廷滑柔魚中心漁場預(yù)測方法與流程

文檔序號:12471381閱讀:590來源:國知局

本發(fā)明涉及中心漁場預(yù)報(bào)方法,尤其是阿根廷滑柔魚中心漁場預(yù)報(bào)方法。



背景技術(shù):

中心漁場預(yù)報(bào)是漁況速報(bào)的一種,準(zhǔn)確的中心漁場預(yù)報(bào)可以為捕撈生產(chǎn)提高漁獲產(chǎn)量并降低燃油成本,漁況速報(bào)是對未來24h或幾天內(nèi)的中心漁場位置、魚群動(dòng)向及旺發(fā)的可能性進(jìn)行預(yù)測,由漁訊指揮單位每天定時(shí)將預(yù)報(bào)內(nèi)容通過電訊系統(tǒng)迅速而準(zhǔn)確地傳播給生產(chǎn)船只,達(dá)到指揮現(xiàn)場生產(chǎn)的目的。

目前已有多種方法預(yù)報(bào)大洋性經(jīng)濟(jì)柔魚類的中心漁場,這些方法的基礎(chǔ)是魚類行動(dòng)和生物學(xué)狀況與環(huán)境條件之間的關(guān)系及其規(guī)律,本質(zhì)都是根據(jù)生產(chǎn)統(tǒng)計(jì)數(shù)據(jù)樣本獲取“經(jīng)驗(yàn)知識”用于預(yù)報(bào),但以往對樣本的時(shí)空尺度和環(huán)境因子的選擇均沒有深入研究,基本是根據(jù)經(jīng)驗(yàn)(如大漁區(qū)小漁區(qū)等)設(shè)定,沒有考慮不同時(shí)空尺度和環(huán)境因子對中心漁場預(yù)報(bào)模型的影響;在模型的選擇上,也很少考慮海洋環(huán)境因子的實(shí)時(shí)性問題。不同海域的海洋環(huán)境條件不一樣,中心漁場形成的機(jī)制也不一樣,因此其時(shí)間和空間分辨率對中心漁場預(yù)測模型的影響也有顯著差異。因此,為了解大洋性經(jīng)濟(jì)柔魚類的樣本時(shí)空尺度和環(huán)境因子的選擇對其中心漁場預(yù)報(bào)模型的影響,要建立了最佳時(shí)空尺度和環(huán)境因子下業(yè)務(wù)化運(yùn)行的中心漁場預(yù)報(bào)模型。



技術(shù)實(shí)現(xiàn)要素:

本發(fā)明研究了大洋性經(jīng)濟(jì)柔魚類的樣本時(shí)空尺度和環(huán)境因子的選擇對其中心漁場預(yù)測模型的影響,提出一種阿根廷滑柔魚中心漁場預(yù)報(bào)方法。

本發(fā)明的技術(shù)方案包括時(shí)空尺度設(shè)置、環(huán)境因子設(shè)置、建立中心漁場預(yù)測模型,其特征是時(shí)空尺度設(shè)置采用三個(gè)級別的空間尺度,經(jīng)緯度分別為0.25°×0.25°、0.5°×0.5°、1.0°×1.0°,周和月兩個(gè)級別的時(shí)間尺度;環(huán)境因子設(shè)置采用SST為主要環(huán)境因子,再輔以SSH、Chl-a兩種環(huán)境因子,在建立中心漁場預(yù)測模型時(shí)將環(huán)境因子分為四種情況:ⅠSST;ⅡSST,SSH;ⅢSST,Chl-a;ⅣSST,SSH,Chl-a;根據(jù)時(shí)空尺度和環(huán)境因子設(shè)置情況,建立24種情況的樣本方案集;中心漁場預(yù)測模型采用經(jīng)典的誤差反向傳播BP神經(jīng)網(wǎng)絡(luò)模型,BP神經(jīng)網(wǎng)絡(luò)模型為三層結(jié)構(gòu),即輸入層、隱藏層和輸出層,輸入層輸入漁場的時(shí)空因子和環(huán)境因子,輸出層輸出CPUE或是由CPUE轉(zhuǎn)化而成的漁場等級指標(biāo);BP神經(jīng)網(wǎng)絡(luò)模型正向傳播時(shí),樣本從輸入層進(jìn)入,經(jīng)隱藏層激活函數(shù)處理,傳向輸出層,如輸出層的實(shí)際輸出與期望的輸出不符合誤差要求,則轉(zhuǎn)入誤差的反向傳播階段,反向傳播是將誤差通過隱藏層向輸入層逐層反向傳播,將誤差分?jǐn)偨o各層所有節(jié)點(diǎn),從而獲得各層節(jié)點(diǎn)的誤差信號,此誤差信號作為修正的依據(jù),這種信號的正向傳播與誤差的反向傳播周而復(fù)始地進(jìn)行,權(quán)值不斷調(diào)整,此過程一直進(jìn)行到網(wǎng)絡(luò)輸出的誤差減少到可接受的程度或進(jìn)行到預(yù)先設(shè)定的學(xué)習(xí)次數(shù)為止,通過學(xué)習(xí)訓(xùn)練獲得到最佳模型,供預(yù)報(bào)使用。

本發(fā)明考慮不同時(shí)空尺度和環(huán)境因子的選擇對中心漁場預(yù)測模型的影響,采用經(jīng)典的誤差反向傳播神經(jīng)網(wǎng)絡(luò)(Error Backpropagation Network,BP),BP神經(jīng)網(wǎng)絡(luò)屬于多層前向神經(jīng)網(wǎng)絡(luò),使用誤差反向傳播的監(jiān)督算法,BP神經(jīng)網(wǎng)絡(luò)能夠?qū)W習(xí)和存儲(chǔ)大量的模式映射模式,用于主要(高產(chǎn))作業(yè)時(shí)間,最佳的作業(yè)海域范圍,柔魚棲息適宜的SST范圍,SSH范圍,Chl-a范圍預(yù)報(bào),為捕撈生產(chǎn)提高漁獲產(chǎn)量并降低燃油成本提供技術(shù)支撐。

附圖說明

圖1是BP神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)圖。

具體實(shí)施方式

為了能夠比較大洋性經(jīng)濟(jì)柔魚類的中心漁場預(yù)報(bào)模型的最適時(shí)空尺度,設(shè)置三個(gè)級別的空間尺度,經(jīng)緯度分別為0.25°×0.25°、0.5°×0.5°、1.0°×1.0°,兩個(gè)級別的時(shí)間尺度為周和月。

大洋性經(jīng)濟(jì)柔魚類的漁場的資源豐度不但受時(shí)空因子的影響,而且受棲息地的環(huán)境因子影響。其中,SST是被廣泛研究且最為重要的影響因子,因此,選定SST為主要環(huán)境因子,再輔以SSH、Chl-a兩種環(huán)境因子,所以在建立中心漁場預(yù)報(bào)模型時(shí)將環(huán)境因子分為四種情況(表1)。

表1環(huán)境因子設(shè)置

因此,根據(jù)樣本的時(shí)空尺度和環(huán)境因子設(shè)置情況,建立大洋性經(jīng)濟(jì)柔魚類中心漁場預(yù)測模型的樣本方案集有如下24種情況:

表2BP預(yù)報(bào)模型樣本集方案

中心漁場預(yù)測模型采用經(jīng)典的誤差反向傳播神經(jīng)網(wǎng)絡(luò)(Error Backpropagation Network,BP),BP神經(jīng)網(wǎng)絡(luò)屬于多層前向神經(jīng)網(wǎng)絡(luò),使用誤差反向傳播的監(jiān)督算法,BP神經(jīng)網(wǎng)絡(luò)能夠?qū)W習(xí)和存儲(chǔ)大量的模式映射模式。

BP模型采用三層結(jié)構(gòu),即輸入層、隱藏層和輸出層(圖1)。輸入層為漁場的時(shí)空因子和海洋環(huán)境因子,輸出層是CPUE或是由CPUE轉(zhuǎn)化而成的漁場等級指標(biāo),不同漁場等級的劃分方法參考漁業(yè)專家的領(lǐng)域知識。隱藏層節(jié)點(diǎn)個(gè)數(shù)由經(jīng)驗(yàn)公式確定:

Pnum=2Nnum+1

式中:Pnum為隱藏層節(jié)點(diǎn)個(gè)數(shù),Nnum為輸入層節(jié)點(diǎn)個(gè)數(shù)。

BP算法主要包括學(xué)習(xí)過程信號的正向傳播與誤差的反向傳播兩個(gè)過程組成。正向傳播時(shí),樣本從輸入層進(jìn)入,經(jīng)隱藏層激活函數(shù)處理,傳向輸出層,如輸出層的實(shí)際輸出與期望的輸出不符合誤差要求,則轉(zhuǎn)入誤差的反向傳播階段。反向傳播是將誤差以某種形式通過隱藏層向輸入層逐層反向傳播,將誤差分?jǐn)偨o各層所有節(jié)點(diǎn),從而獲得各層節(jié)點(diǎn)的誤差信號,此誤差信號作為修正的依據(jù)。這種信號的正向傳播與誤差的反向傳播是周而復(fù)始地進(jìn)行,權(quán)值不斷調(diào)整,也就是網(wǎng)絡(luò)學(xué)習(xí)的過程。此過程一直進(jìn)行到網(wǎng)絡(luò)輸出的誤差減少到可接受的程度或進(jìn)行到預(yù)先設(shè)定的學(xué)習(xí)次數(shù)為止。

訓(xùn)練方法采用最速下降法。假設(shè)輸入神經(jīng)元個(gè)數(shù)為M,隱藏層神經(jīng)元個(gè)數(shù)為I,輸出層神經(jīng)元個(gè)數(shù)為J。輸入層第m個(gè)神經(jīng)元記為xm,隱藏層第i個(gè)神經(jīng)元記為ki,輸出層第j個(gè)神經(jīng)元記為yj。從xm到ki的鏈接權(quán)值為wmi,從ki到y(tǒng)j的連接權(quán)值為wij。隱藏層傳遞函數(shù)為Sigmoid函數(shù),輸出層傳遞函數(shù)為線性函數(shù)。u和v分別表示每一層的輸入和輸出,如表示I層(隱藏層)第一個(gè)神經(jīng)元的輸入。網(wǎng)絡(luò)的實(shí)際輸出可表示為:

<mrow> <mi>Y</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>&lsqb;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mn>1</mn> </msubsup> <mo>,</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mn>2</mn> </msubsup> <mo>,</mo> <mn>...</mn> <mo>,</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>J</mi> </msubsup> <mo>&rsqb;</mo> </mrow>

網(wǎng)絡(luò)的期望輸出為:

d(n)=[d1,d2,...,dJ]

n為迭代次數(shù)。第n次迭代的誤差信號定義為:

ej(n)=dj(n)-Yj(n)

將誤差能量定義為:

<mrow> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>J</mi> </munderover> <msubsup> <mi>e</mi> <mi>j</mi> <mn>2</mn> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

訓(xùn)練過程即是將誤差能量減小的過程。

在權(quán)值調(diào)整階段,沿著網(wǎng)絡(luò)逐層反向進(jìn)行調(diào)整。首先調(diào)整隱藏層與輸出層之間的權(quán)值wij,根據(jù)最速下降法,應(yīng)計(jì)算誤差對wij的梯度再沿著該方向的反方向進(jìn)行調(diào)整:

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <mi>&eta;</mi> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>

wij(n+1)=Δwij(n)+wij(n)

梯度可由求偏導(dǎo)得到,根據(jù)微分的鏈?zhǔn)揭?guī)則,有

<mrow> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>.</mo> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>

由于e(n)是ej(n)的二次函數(shù),其微分為一次函數(shù):

<mrow> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

<mrow> <mfrac> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <mn>1</mn> </mrow>

輸出層傳遞函數(shù)的導(dǎo)數(shù):

<mrow> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <msup> <mi>g</mi> <mo>&prime;</mo> </msup> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

<mrow> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

因此,梯度值為

<mrow> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <msup> <mi>g</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

權(quán)值的修正量為

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&eta;e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <msup> <mi>g</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> <msubsup> <mi>v</mi> <mi>J</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

引入局部梯度的定義:

<mrow> <msubsup> <mi>&delta;</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <msub> <mi>e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <msup> <mi>g</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> </mrow>

所以權(quán)值的修正量為:

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>&eta;&delta;</mi> <mi>J</mi> <mi>j</mi> </msubsup> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

在輸出層,傳遞函數(shù)為線性函數(shù),因此其導(dǎo)數(shù)為1,即

<mrow> <msup> <mi>g</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>J</mi> <mi>j</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> <mo>=</mo> <mn>1</mn> </mrow>

所以可得

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&eta;e</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

誤差信號向前傳播,對輸入層與隱藏層之間的權(quán)值wmi進(jìn)行調(diào)整,與上一步類似應(yīng)有

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>m</mi> <mi>i</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>&eta;&delta;</mi> <mi>J</mi> <mi>j</mi> </msubsup> <msubsup> <mi>v</mi> <mi>M</mi> <mi>m</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow>

為輸入神經(jīng)元的輸出,即

為局部梯度,定義為

<mrow> <msubsup> <mi>&delta;</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mo>=</mo> <mo>-</mo> <mo>-</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&CenterDot;</mo> <mfrac> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>u</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <msup> <mi>f</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> </mrow>

f(g)為sigmoid函數(shù),同時(shí)又上一步計(jì)算可見,

<mrow> <mfrac> <mrow> <mo>&part;</mo> <mi>e</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>v</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>=</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>J</mi> </munderover> <msubsup> <mi>&delta;</mi> <mi>J</mi> <mi>j</mi> </msubsup> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> </mrow>

故有

<mrow> <msubsup> <mi>&delta;</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mo>=</mo> <msup> <mi>f</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>u</mi> <mi>I</mi> <mi>i</mi> </msubsup> <mo>(</mo> <mi>n</mi> <mo>)</mo> <mo>)</mo> </mrow> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>J</mi> </munderover> <msubsup> <mi>&delta;</mi> <mi>J</mi> <mi>j</mi> </msubsup> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> </mrow>

到此,三層BP網(wǎng)絡(luò)的學(xué)習(xí)權(quán)值調(diào)整過程結(jié)束,可歸結(jié)為:

權(quán)值調(diào)整量Δw=學(xué)習(xí)率η·局部梯度δ·上一層輸出信號v。至于學(xué)習(xí)率η、誤差范圍等的設(shè)定,在不過擬合的狀態(tài)下進(jìn)行逐步調(diào)優(yōu)。

BP神經(jīng)網(wǎng)絡(luò)的建立過程在matlab(2010b)軟件中完成,使用神經(jīng)網(wǎng)絡(luò)工具箱的擬合工具,將樣本集分為訓(xùn)練樣本、驗(yàn)證樣本和測試樣本三部分。網(wǎng)絡(luò)設(shè)計(jì)的參數(shù)為:學(xué)習(xí)速率0.1,動(dòng)量參數(shù)0.5,輸入層與隱藏層、隱藏層與輸出層神經(jīng)元之間的傳遞函數(shù)分別是S型正切函數(shù)tansig、線性函數(shù)purelin;網(wǎng)絡(luò)訓(xùn)練的終止參數(shù)為:最大訓(xùn)練次數(shù)為1000,最大誤差給定為0.001。模型通過多次訓(xùn)練獲得到最佳模型,取權(quán)重供預(yù)報(bào)使用。

模型從預(yù)報(bào)精度、穩(wěn)定性和可解釋性三方面評價(jià)BP預(yù)報(bào)模型:

(1)預(yù)報(bào)精度評價(jià)

當(dāng)模型的輸出為CPUE等級時(shí),根據(jù)模型預(yù)報(bào)出的正確等級百分比,比較各種模型的精度;當(dāng)模型的輸出為CPUE數(shù)值時(shí),計(jì)算模型的均方誤差(MSE),比較各個(gè)模型的精度。

<mrow> <mi>M</mi> <mi>S</mi> <mi>E</mi> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>k</mi> </msub> <mo>-</mo> <msub> <mover> <mi>y</mi> <mo>^</mo> </mover> <mi>k</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow>

其中,yk為CPUE的實(shí)際值,為CPUE的預(yù)報(bào)值。

(2)穩(wěn)定性評價(jià)

評價(jià)不同樣本建立的BP模型精度的穩(wěn)定性,計(jì)算平均相對變動(dòng)值(Average Relative Variance,ARV),其定義為

<mrow> <mi>A</mi> <mi>R</mi> <mi>V</mi> <mo>=</mo> <mfrac> <mrow> <msubsup> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <msup> <mrow> <mo>&lsqb;</mo> <mi>x</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&rsqb;</mo> </mrow> <mn>2</mn> </msup> </mrow> <mrow> <msubsup> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <msup> <mrow> <mo>&lsqb;</mo> <mi>x</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <mover> <mi>x</mi> <mo>&OverBar;</mo> </mover> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&rsqb;</mo> </mrow> <mn>2</mn> </msup> </mrow> </mfrac> </mrow>

其中,N為比較數(shù)據(jù)的個(gè)數(shù),x(i)為漁場等級實(shí)際值,為漁場等級實(shí)際平均值,為漁場等級預(yù)測值。平均相對變動(dòng)值A(chǔ)RV越小,表明預(yù)測效果越好,ARV=0表示達(dá)到了理想預(yù)測效果,當(dāng)ARV=1時(shí),表明模型僅達(dá)到了平均值的預(yù)測效果。

(3)可解釋性評價(jià)

用變量相關(guān)性(Independent variable relevance)和靈敏度分析(Sensitivity Analyses)評價(jià)在不同時(shí)空尺度和環(huán)境因子樣本上建立的預(yù)報(bào)模型的可解釋性。

變量相關(guān)用來比較各輸入變量對CPUE的貢獻(xiàn)率,計(jì)算方法是輸入變量與隱藏層連接的權(quán)重平方和與所有輸入層變量到隱藏層連接權(quán)重平方和之比。

靈敏度分析是探究輸入變量變化與輸出變量之間的關(guān)系,其過程是:首先計(jì)算各個(gè)輸入變量的最大值、最小值、中值、平均值、眾數(shù)特殊值;然后選擇其中一個(gè)輸入變量,使其從最小值到最大值逐漸變化,其他輸入變量都確定為四個(gè)特殊值中的一個(gè),輪流改變變化的輸入變量,觀察輸出變量的變化情況。

表3基于CPUE的阿根廷滑柔魚漁場等級

變量相關(guān)性分析顯示:在周時(shí)間尺度和月時(shí)間尺度下,SST對漁場預(yù)報(bào)模型的貢獻(xiàn)率最大,其次是“緯度”變量。

表4預(yù)報(bào)模型變量相關(guān)性分析

按本預(yù)測方法建立不同時(shí)空尺度和環(huán)境因子的阿根廷滑柔魚中心漁場預(yù)報(bào)模型,預(yù)報(bào)精度90%以上,ARV值在0.2左右,具有最高的精度和最小的ARV值。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會(huì)獲得點(diǎn)贊!
1
大新县| 莫力| 三亚市| 新泰市| 西乌珠穆沁旗| 平武县| 大英县| 龙井市| 靖安县| 安多县| 东乌珠穆沁旗| 湘潭市| 巴中市| 桑植县| 合阳县| 拉萨市| 汶川县| 台州市| 五台县| 都兰县| 杭州市| 盐边县| 侯马市| 衡水市| 九龙坡区| 额尔古纳市| 曲沃县| 乐至县| 连云港市| 南漳县| 大新县| 固始县| 西昌市| 南安市| 沈丘县| 尼勒克县| 侯马市| 望都县| 望奎县| 和田市| 钟祥市|