欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于Stacked?。樱粒派疃壬窠?jīng)網(wǎng)絡(luò)的軸承故障診斷方法與流程

文檔序號:12726982閱讀:來源:國知局

技術(shù)特征:

1.一種基于Stacked SAE深度神經(jīng)網(wǎng)絡(luò)的軸承故障診斷方法,其特征在于,包括步驟:

步驟1:結(jié)合EMD分解和AR模型,對采集到的原始軸承振動信號提取AR模型參數(shù)作為網(wǎng)絡(luò)的輸入;

步驟2:根據(jù)堆疊稀疏自動編碼器,構(gòu)建兩層的層次化故障診斷深度神經(jīng)網(wǎng)絡(luò),第一層用于定性判斷故障類型,第二層用于定量判斷故障大小,輸入訓(xùn)練樣本集,通過反向傳播優(yōu)化算法得到每一層的Stacked SAE的網(wǎng)絡(luò)參數(shù);

步驟3:將測試樣本集輸入到已訓(xùn)練好的深度神經(jīng)網(wǎng)絡(luò)診斷模型,通過實際的輸出標(biāo)簽值來定性、定量化判斷該測試樣本所屬的故障類型以及故障大小。

2.根據(jù)權(quán)利要求1所述的基于Stacked SAE深度神經(jīng)網(wǎng)絡(luò)的軸承故障診斷方法,其特征在于:所述步驟1包括:

步驟1.1:對采集到的原始非平穩(wěn)的軸承振動信號s(t)進行EMD分解,將其分解為有限個平穩(wěn)的IMF分量,表示為:

<mrow> <mi>s</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>a</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <msub> <mi>c</mi> <mi>a</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>r</mi> <mi>m</mi> </msub> <mo>,</mo> </mrow>

其中,ca(t),a=1,2L m代表原始軸承信號經(jīng)過EMD分解得到的m個平穩(wěn)的IMF分量,這m個IMF分量分別包含從高頻到低頻的頻率成分,rm代表分解后的殘余項;

步驟1.2:若采集到的故障信號包含B種類型,任選每種類型中的一個信號,設(shè)其各自經(jīng)過EMD分解得到的第一個IMF分量的離散值用序列表示為c1z(t),z=1,2,L B,且長度均為N,對每個c1z(t)建立AR模型表示為:

<mrow> <msub> <mi>c</mi> <mrow> <mn>1</mn> <mi>z</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>p</mi> <mi>z</mi> </msub> </munderover> <msub> <mi>a</mi> <mrow> <mi>z</mi> <mi>k</mi> </mrow> </msub> <msub> <mi>c</mi> <mrow> <mn>1</mn> <mi>z</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>w</mi> <mi>z</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>,</mo> <msub> <mi>w</mi> <mi>z</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>:</mo> <mi>N</mi> <mi>I</mi> <mi>D</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>,</mo> <msubsup> <mi>&sigma;</mi> <mrow> <mi>z</mi> <mi>w</mi> </mrow> <mn>2</mn> </msubsup> <mo>)</mo> </mrow> <mo>,</mo> </mrow>

其中,pz(z=1,2,L B)代表各個AR模型的階數(shù),azk(k=1,2L pz)代表各個模型的pz個自回歸系數(shù),wz(t)代表各個模型的擬合殘差,是均值為0,方差為的白噪聲序列;

步驟1.3:利用最終預(yù)測誤差準(zhǔn)則,來確定AR模型的最佳階數(shù),當(dāng)準(zhǔn)則取最小值時的階數(shù)pz為各個AR模型的最佳階數(shù),F(xiàn)PE準(zhǔn)則表示為:

<mrow> <mi>F</mi> <mi>P</mi> <mi>E</mi> <mrow> <mo>(</mo> <msub> <mi>p</mi> <mi>z</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>N</mi> <mo>+</mo> <msub> <mi>p</mi> <mi>z</mi> </msub> </mrow> <mrow> <mi>N</mi> <mo>-</mo> <msub> <mi>p</mi> <mi>z</mi> </msub> </mrow> </mfrac> <msubsup> <msub> <mi>&sigma;</mi> <mi>z</mi> </msub> <mi>w</mi> <mn>2</mn> </msubsup> <mo>,</mo> </mrow>

取pz(z=1,2,L B)中的最小值作為所有軸承信號的任一IMF分量建立AR模型的標(biāo)準(zhǔn)模型階數(shù),并記為P;

步驟1.4:確定各個AR模型的標(biāo)準(zhǔn)模型階數(shù)P之后,每個AR模型的系統(tǒng)函數(shù)均表示為:

Y=XA+W,

其中:

Y=[cP+1 cP+2 L cN]T,

A=[a1 a2 L aP]T,

W=[wP+1 wP+2 L wN]T,

<mrow> <mi>X</mi> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>c</mi> <mi>P</mi> </msub> </mtd> <mtd> <msub> <mi>c</mi> <mrow> <mi>P</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>c</mi> <mn>1</mn> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>c</mi> <mrow> <mi>P</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> </mtd> <mtd> <msub> <mi>c</mi> <mi>P</mi> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>c</mi> <mn>2</mn> </msub> </mtd> </mtr> <mtr> <mtd> <mi>L</mi> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <mi>L</mi> </mtd> </mtr> <mtr> <mtd> <msub> <mi>c</mi> <mrow> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> </mtd> <mtd> <msub> <mi>c</mi> <mrow> <mi>N</mi> <mo>-</mo> <mn>2</mn> </mrow> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>c</mi> <mrow> <mi>N</mi> <mo>-</mo> <mi>P</mi> </mrow> </msub> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> </mrow>

然后利用最小二乘法求解AR模型的自回歸系數(shù)A,表示為:

A=(XTX)-1XTY,

方差可用自回歸系數(shù)表示為:

<mrow> <msubsup> <mi>&sigma;</mi> <mi>w</mi> <mn>2</mn> </msubsup> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>N</mi> <mo>-</mo> <mi>P</mi> </mrow> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>t</mi> <mo>=</mo> <mi>P</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msup> <mrow> <mo>(</mo> <mi>c</mi> <mo>(</mo> <mi>t</mi> <mo>)</mo> <mo>-</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>P</mi> </munderover> <msub> <mi>a</mi> <mi>k</mi> </msub> <mi>c</mi> <mo>(</mo> <mrow> <mi>t</mi> <mo>-</mo> <mi>k</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>,</mo> </mrow>

原始信號經(jīng)過EMD分解得到的前4個IMF分量,每一個IMF分量所得到的AR模型參數(shù),包括自回歸系數(shù)以及方差表示為一個P+1維的向量ARPe

<mrow> <msub> <mi>ARP</mi> <mi>e</mi> </msub> <mo>=</mo> <msup> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>a</mi> <mrow> <mi>e</mi> <mn>1</mn> </mrow> </msub> </mtd> <mtd> <msub> <mi>a</mi> <mrow> <mi>e</mi> <mn>2</mn> </mrow> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>&alpha;</mi> <mrow> <mi>e</mi> <mi>P</mi> </mrow> </msub> </mtd> <mtd> <msubsup> <mi>&sigma;</mi> <mrow> <mi>e</mi> <mi>w</mi> </mrow> <mn>2</mn> </msubsup> </mtd> </mtr> </mtable> </mfenced> <mi>T</mi> </msup> <mo>,</mo> <mi>e</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mn>3</mn> <mo>,</mo> <mn>4</mn> <mo>,</mo> </mrow>

對任意一個原始軸承振動信號,將其前4個IMF分量的AR模型參數(shù)轉(zhuǎn)換成特征向量x作為模型的輸入,表示為:

<mrow> <mi>x</mi> <mo>=</mo> <msup> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>a</mi> <mn>11</mn> </msub> </mtd> <mtd> <msub> <mi>a</mi> <mn>12</mn> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>&alpha;</mi> <mrow> <mn>1</mn> <mi>P</mi> </mrow> </msub> </mtd> <mtd> <msubsup> <mi>&sigma;</mi> <mrow> <mn>1</mn> <mi>w</mi> </mrow> <mn>2</mn> </msubsup> </mtd> <mtd> <msub> <mi>a</mi> <mn>21</mn> </msub> </mtd> <mtd> <msub> <mi>a</mi> <mn>22</mn> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>&alpha;</mi> <mrow> <mn>2</mn> <mi>P</mi> </mrow> </msub> </mtd> <mtd> <msubsup> <mi>&sigma;</mi> <mrow> <mn>2</mn> <mi>w</mi> </mrow> <mn>2</mn> </msubsup> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>a</mi> <mn>41</mn> </msub> </mtd> <mtd> <msub> <mi>a</mi> <mn>42</mn> </msub> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msub> <mi>&alpha;</mi> <mrow> <mn>4</mn> <mi>P</mi> </mrow> </msub> </mtd> <mtd> <msubsup> <mi>&sigma;</mi> <mrow> <mn>4</mn> <mi>w</mi> </mrow> <mn>2</mn> </msubsup> </mtd> </mtr> </mtable> </mfenced> <mi>T</mi> </msup> <mo>.</mo> </mrow>

3.根據(jù)權(quán)利要求2所述的基于Stacked SAE深度神經(jīng)網(wǎng)絡(luò)的軸承故障診斷方法,其特征在于:所述步驟2包括:

步驟2.1:若每種故障類型的信號包含D種故障大小,而每種故障大小包含E個信號樣本,那么一共有B*D*E個信號樣本,則需要重復(fù)所述步驟1.4B*D*E次,求出每一個軸承信號的4*(P+1)維特征向量作為網(wǎng)絡(luò)的輸入,并將每種軸承狀態(tài)下樣本總數(shù)的2/3作為訓(xùn)練樣本,另外1/3作為測試樣本;

步驟2.2:利用一個Stacked SAE搭建第一層網(wǎng)絡(luò),用于定性化診斷軸承的故障類型,根據(jù)所述步驟2.1,用于第一層軸承故障定性化診斷的訓(xùn)練樣本數(shù)為B*D*E*2/3,簡記為G;在初步確定Stacked SAE的隱藏層數(shù)U,每個隱藏層的單元數(shù)以及學(xué)習(xí)率的情況下,將所述步驟1.4中得到的訓(xùn)練樣本集的特征向量作為輸入,通過預(yù)訓(xùn)練和微調(diào)來確定定性診斷網(wǎng)絡(luò)每一層最終的最佳權(quán)重矩陣以及偏置項:

(1)預(yù)訓(xùn)練的步驟為:

a)對一個含有U個隱藏層的Stacked SAE,每一個隱藏層均與上一層構(gòu)成一個SAE的編碼網(wǎng)絡(luò);將輸入層和第一個隱藏層視為第一個SAE的編碼網(wǎng)絡(luò),然后通過反向傳播優(yōu)化算法求得SAE代價函數(shù)取得最小值時的權(quán)重矩陣和偏置項,假設(shè)xd為訓(xùn)練樣本集中的任意一個訓(xùn)練樣本,在不考慮稀疏項的前提下,自動編碼器的代價函數(shù)可表示為:

<mrow> <mi>J</mi> <mrow> <mo>(</mo> <mi>W</mi> <mo>,</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>&lsqb;</mo> <mfrac> <mn>1</mn> <mi>G</mi> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>d</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>G</mi> </munderover> <mi>L</mi> <mrow> <mo>(</mo> <msup> <mi>x</mi> <mi>d</mi> </msup> <mo>,</mo> <msup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mi>d</mi> </msup> <mo>)</mo> </mrow> <mo>&rsqb;</mo> <mo>+</mo> <mfrac> <mi>&lambda;</mi> <mn>2</mn> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>l</mi> <mo>=</mo> <mn>1</mn> </mrow> <mrow> <msub> <mi>n</mi> <mi>l</mi> </msub> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <munderover> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>S</mi> <mi>l</mi> </msub> </munderover> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>S</mi> <mrow> <mi>l</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> </munderover> <msup> <mrow> <mo>(</mo> <msubsup> <mi>W</mi> <mrow> <mi>j</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>,</mo> </mrow>

其中,表示該樣本xd經(jīng)過自動編碼器所得到的輸出,即自動編碼器的重構(gòu)信號;用L2范數(shù)來表示數(shù)據(jù)保真項;第二項是正則化項,用于抑制權(quán)重的幅值,防止過擬合,λ是權(quán)重衰減系數(shù),nl是自動編碼器的層數(shù),即為3,Sl是第l層的神經(jīng)元個數(shù);W={W(1),W(2)}代表自動編碼器編碼網(wǎng)絡(luò)與解碼網(wǎng)絡(luò)的權(quán)重矩陣,b={b(1),b(2)}代表自動編碼器編碼網(wǎng)絡(luò)與解碼網(wǎng)絡(luò)的偏置項,代表第l層的j單元與第l+1層的i單元之間的連接權(quán)值;

若對自動編碼器加上稀疏懲罰項,則相應(yīng)的稀疏自動編碼器SAE的代價函數(shù)表示為:

<mrow> <msub> <mi>J</mi> <mrow> <mi>s</mi> <mi>p</mi> <mi>a</mi> <mi>r</mi> <mi>s</mi> <mi>e</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>W</mi> <mo>,</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>J</mi> <mrow> <mo>(</mo> <mi>W</mi> <mo>,</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>+</mo> <mi>&beta;</mi> <munderover> <mo>&Sigma;</mo> <mrow> <mi>g</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>S</mi> <mn>2</mn> </msub> </munderover> <mrow> <mo>(</mo> <mi>&rho;</mi> <mi>l</mi> <mi>o</mi> <mi>g</mi> <mfrac> <mi>&rho;</mi> <msub> <mover> <mi>&rho;</mi> <mo>^</mo> </mover> <mi>g</mi> </msub> </mfrac> <mo>+</mo> <mo>(</mo> <mrow> <mn>1</mn> <mo>-</mo> <mi>&rho;</mi> </mrow> <mo>)</mo> <mi>l</mi> <mi>o</mi> <mi>g</mi> <mfrac> <mrow> <mn>1</mn> <mo>-</mo> <mi>&rho;</mi> </mrow> <mrow> <mn>1</mn> <mo>-</mo> <msub> <mover> <mi>&rho;</mi> <mo>^</mo> </mover> <mi>g</mi> </msub> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>,</mo> </mrow>

其中第一項如a)中公式所示,第二項是稀疏懲罰項,β代表稀疏懲罰系數(shù),ρ是一個接近于0的極小值,代表第g個神經(jīng)元的平均激活值,S2代表SAE隱藏層的單元數(shù);

利用反向傳播算法,通過不斷減小所述SAE的代價函數(shù)式,當(dāng)達到指定的迭代次數(shù)或者代價函數(shù)下降到指定值時,得到第一個SAE編碼網(wǎng)絡(luò)和解碼網(wǎng)絡(luò)的最佳權(quán)重矩陣以及偏置項對輸入樣本xd而言,第一個隱藏層的輸出向量h1d表示為:

h1d=f(W1(1)xd+b1(1)),

其中f是激活函數(shù),采用S型函數(shù),即

<mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>&alpha;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mi>&alpha;</mi> </mrow> </msup> </mrow> </mfrac> <mo>;</mo> </mrow>

b)第一個隱藏層和第二個隱藏層視為第二個SAE的編碼網(wǎng)絡(luò),并將第一個隱藏層的輸出作為第二個SAE的輸入;同樣運用反向傳播算法,通過不斷減小第二個SAE的代價函數(shù),得到編碼網(wǎng)絡(luò)和解碼網(wǎng)絡(luò)的最佳權(quán)重矩陣以及偏置項第二個隱藏層的輸出向量h2d表示為:

<mrow> <msup> <msub> <mi>h</mi> <mn>2</mn> </msub> <mi>d</mi> </msup> <mo>=</mo> <mi>f</mi> <mrow> <mo>(</mo> <msup> <msub> <mi>W</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> <msubsup> <mi>h</mi> <mn>1</mn> <mi>d</mi> </msubsup> <mo>+</mo> <msup> <msub> <mi>b</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> <mo>;</mo> </mrow>

c)以此類推,包含U個隱藏層的Stacked SAE需要重復(fù)預(yù)訓(xùn)練U次,直到第U個SAE預(yù)訓(xùn)練完成,并得到編碼網(wǎng)絡(luò)和解碼網(wǎng)絡(luò)的最佳權(quán)重矩陣以及偏置項第U個隱藏層的輸出hUd可表示為:

hUd=f(WU(1)hU-1d+bU(1));

d)網(wǎng)絡(luò)的輸出層視為一個分類器,輸出向量的每一個元素分別對應(yīng)該樣本屬于每種類別的概率值;根據(jù)所述步驟1,信號樣本一共包含B種類型,標(biāo)簽可記為1,2L B;采用softmax分類器,輸入為第U個隱藏層的輸出hUd;設(shè)輸入樣本xd的理想標(biāo)簽是yd,那么實際的輸出向量Od可表示為:

<mrow> <msup> <mi>O</mi> <mi>d</mi> </msup> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <mi>p</mi> <mrow> <mo>(</mo> <msup> <mi>y</mi> <mi>d</mi> </msup> <mo>=</mo> <mn>1</mn> <mo>|</mo> <msup> <msub> <mi>h</mi> <mi>U</mi> </msub> <mi>d</mi> </msup> <mo>;</mo> <mi>&theta;</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>p</mi> <mrow> <mo>(</mo> <msup> <mi>y</mi> <mi>d</mi> </msup> <mo>=</mo> <mn>2</mn> <mo>|</mo> <msup> <msub> <mi>h</mi> <mi>U</mi> </msub> <mi>d</mi> </msup> <mo>;</mo> <mi>&theta;</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mi>M</mi> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>p</mi> <mrow> <mo>(</mo> <msup> <mi>y</mi> <mi>d</mi> </msup> <mo>=</mo> <mi>B</mi> <mo>|</mo> <msup> <msub> <mi>h</mi> <mi>U</mi> </msub> <mi>d</mi> </msup> <mo>;</mo> <mi>&theta;</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <munderover> <mo>&Sigma;</mo> <mrow> <mi>z</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>B</mi> </munderover> <msup> <mi>e</mi> <mrow> <msubsup> <mi>&theta;</mi> <mi>z</mi> <mi>T</mi> </msubsup> <msubsup> <mi>h</mi> <mi>U</mi> <mi>d</mi> </msubsup> </mrow> </msup> </mrow> </mfrac> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msup> <mi>e</mi> <mrow> <msubsup> <mi>&theta;</mi> <mn>1</mn> <mi>T</mi> </msubsup> <msubsup> <mi>h</mi> <mi>U</mi> <mi>d</mi> </msubsup> </mrow> </msup> </mtd> </mtr> <mtr> <mtd> <msup> <mi>e</mi> <mrow> <msubsup> <mi>&theta;</mi> <mn>2</mn> <mi>T</mi> </msubsup> <msubsup> <mi>h</mi> <mi>U</mi> <mi>d</mi> </msubsup> </mrow> </msup> </mtd> </mtr> <mtr> <mtd> <mi>M</mi> </mtd> </mtr> <mtr> <mtd> <msup> <mi>e</mi> <mrow> <msubsup> <mi>&theta;</mi> <mi>B</mi> <mi>T</mi> </msubsup> <msubsup> <mi>h</mi> <mi>U</mi> <mi>d</mi> </msubsup> </mrow> </msup> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> </mrow>

其中θ表示softmax分類器的權(quán)重矩陣,表示為:

<mrow> <mi>&theta;</mi> <mo>=</mo> <msup> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msubsup> <mi>&theta;</mi> <mn>1</mn> <mi>T</mi> </msubsup> </mtd> <mtd> <msubsup> <mi>&theta;</mi> <mn>2</mn> <mi>T</mi> </msubsup> </mtd> <mtd> <mi>L</mi> </mtd> <mtd> <msubsup> <mi>&theta;</mi> <mi>B</mi> <mi>T</mi> </msubsup> </mtd> </mtr> </mtable> </mfenced> <mi>T</mi> </msup> <mo>;</mo> </mrow>

softmax分類器的代價函數(shù)可以表示為:

<mrow> <mi>J</mi> <mrow> <mo>(</mo> <mi>&theta;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <mfrac> <mn>1</mn> <mi>G</mi> </mfrac> <mo>&lsqb;</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>d</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>G</mi> </munderover> <munderover> <mo>&Sigma;</mo> <mrow> <mi>z</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>B</mi> </munderover> <mn>1</mn> <mo>{</mo> <msup> <mi>y</mi> <mi>d</mi> </msup> <mo>=</mo> <mi>z</mi> <mo>}</mo> <mi>l</mi> <mi>o</mi> <mi>g</mi> <mfrac> <msup> <mi>e</mi> <mrow> <msubsup> <mi>&theta;</mi> <mi>z</mi> <mi>T</mi> </msubsup> <msubsup> <mi>h</mi> <mi>U</mi> <mi>d</mi> </msubsup> </mrow> </msup> <mrow> <munderover> <mo>&Sigma;</mo> <mrow> <mi>v</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>B</mi> </munderover> <msup> <mi>e</mi> <mrow> <msubsup> <mi>&theta;</mi> <mi>v</mi> <mi>T</mi> </msubsup> <msubsup> <mi>h</mi> <mi>U</mi> <mi>d</mi> </msubsup> </mrow> </msup> </mrow> </mfrac> <mo>&rsqb;</mo> <mo>+</mo> <mfrac> <mi>&gamma;</mi> <mn>2</mn> </mfrac> <mo>|</mo> <mo>|</mo> <mi>&theta;</mi> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>,</mo> </mrow>

其中,第二項是權(quán)重衰減項,用來抑制過擬合;與SAE的預(yù)訓(xùn)練類似,softmax分類器的預(yù)訓(xùn)練同樣是利用反向傳播算法求代價函數(shù)最小值時的最佳權(quán)重矩陣θ;

(2)微調(diào)的步驟為:

將預(yù)訓(xùn)練步驟得到的U個SAE編碼網(wǎng)絡(luò)的最佳權(quán)重矩陣偏置項以及softmax分類器的最佳權(quán)重矩陣θ作為定性診斷網(wǎng)絡(luò)每一層的初始權(quán)重矩陣和偏置項,利用反向傳播算法再次迭代和更新各個權(quán)重矩陣和偏置項,直到達到最大的迭代次數(shù)或者softmax分類器的代價函數(shù)值下降到指定值,從而獲得定性診斷網(wǎng)絡(luò)每一層最終的最佳權(quán)重矩陣θf以及偏置項

步驟2.3:同樣利用Stacked SAE搭建第二層的故障診斷深度神經(jīng)網(wǎng)絡(luò),用于定量診斷軸承的故障大小;由于樣本信號一共包含B種故障類型,每種故障類型包含D種故障大小,則第二層的定量化診斷網(wǎng)絡(luò)共需要B個Stacked SAE來實現(xiàn)各種故障類型下故障大小的分類,每一個Stacked SAE對應(yīng)一種故障類型,用于定量區(qū)分D種故障大小,各種故障大小的標(biāo)簽分別記為1,2,L,D;

對每一個Stacked SAE重復(fù)執(zhí)行所述步驟2.2,在初步確定每個Stacked SAE的隱藏層數(shù)U,每個隱藏層的單元數(shù)以及學(xué)習(xí)率的情況下,將屬于同一種故障類型但是故障大小不同的訓(xùn)練樣本集作為輸入,那么對于每個Stacked SAE均有D*E*2/3的訓(xùn)練樣本,通過預(yù)訓(xùn)練和微調(diào)來確定每個Stacked SAE每一層最終的最佳權(quán)重矩陣偏置項以及softmax分類器最終的最佳權(quán)重矩陣θf

4.根據(jù)權(quán)利要求3所述的基于Stacked SAE深度神經(jīng)網(wǎng)絡(luò)的軸承故障診斷方法,其特征在于:所述步驟3包括:

步驟3.1:將經(jīng)過步驟1得到的測試樣本集輸入到步驟2中已訓(xùn)練好的定性、定量、層次化的軸承故障診斷深度神經(jīng)網(wǎng)絡(luò),先利用第一層的Stacked SAE進行軸承故障定性分類,根據(jù)實際輸出的標(biāo)簽值來判斷該軸承是否存在故障以及故障類型;

步驟3.2:根據(jù)第一層的軸承故障定性診斷結(jié)果,將測試樣本送到相應(yīng)的第二層的Stacked SAE中進行軸承故障定量診斷,再次根據(jù)實際的輸出標(biāo)簽值來定量化判斷該軸承的故障嚴(yán)重程度。

當(dāng)前第2頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
镇沅| 西吉县| 福安市| 六枝特区| 临清市| 东辽县| 大新县| 塔河县| 石棉县| 兴安县| 阜新市| 萨迦县| 休宁县| 望江县| 六盘水市| 阿巴嘎旗| 沙田区| 鸡东县| 竹溪县| 博兴县| 文水县| 白朗县| 江口县| 瓦房店市| 高陵县| 田东县| 贡嘎县| 阿拉善盟| 体育| 简阳市| 勐海县| 长寿区| 辽阳市| 通化市| 霍山县| 邛崃市| 霸州市| 垦利县| 哈尔滨市| 确山县| 福泉市|