本發(fā)明涉及滾動(dòng)軸承故障診斷的技術(shù)領(lǐng)域,尤其涉及一種基于Nesterov動(dòng)量法的自適應(yīng)深度置信網(wǎng)絡(luò)(Deep Belief Network)軸承故障診斷方法。
背景技術(shù):
滾動(dòng)軸承是航天航空、電力、石化、冶金以及機(jī)械等工業(yè)部門(mén)中使用最廣泛,也是最容易損傷的部件之一。旋轉(zhuǎn)機(jī)械的工作狀態(tài)與滾動(dòng)軸承有密切關(guān)系,據(jù)統(tǒng)計(jì),在使用滾動(dòng)軸承的旋轉(zhuǎn)機(jī)械設(shè)備中,約30%的機(jī)械故障是與軸承損傷有關(guān)聯(lián)的。機(jī)械設(shè)備一旦發(fā)生意外故障,正常生產(chǎn)進(jìn)程以及產(chǎn)品質(zhì)量就會(huì)受影響并因此產(chǎn)生巨大的經(jīng)濟(jì)損失,嚴(yán)重者甚至危及人身安全,導(dǎo)致重大的災(zāi)難性事故?;谔岣咻S承可靠性和保證機(jī)械設(shè)備的安全運(yùn)行,有必要采取一種檢測(cè)方式檢測(cè)軸承健康狀態(tài),識(shí)別是否發(fā)生故障,進(jìn)而采取必要的措施,防止軸承損壞,確保機(jī)械設(shè)備安全運(yùn)行。
對(duì)于診斷來(lái)說(shuō),良好的特征表達(dá)對(duì)模式識(shí)別的準(zhǔn)確性起關(guān)鍵作用。目前大量的滾動(dòng)軸承故障診斷技術(shù)都是靠人工提取特征,例如SIFH、SVM、LBP等等,需要花費(fèi)大量時(shí)間集中在特征提取。此外不同的特征具有不同的表達(dá)意義,很難找到統(tǒng)一的、適用于不同模型的特征,這就導(dǎo)致了手工選取特征不僅費(fèi)時(shí),而且需要啟發(fā)式專業(yè)知識(shí)。2006年,加拿大多倫多大學(xué)教授、機(jī)器學(xué)習(xí)領(lǐng)域的泰斗Geoffrey Hinton和他的學(xué)生Ruslan Salakhutdinov在美國(guó)《Science》雜志上發(fā)表了一篇文章提出了深度學(xué)習(xí)(Deep Learning),主要觀點(diǎn)包括:多隱藏層的神經(jīng)網(wǎng)絡(luò)類似于人的視覺(jué)系統(tǒng),能夠提取數(shù)據(jù)更抽象的特征表達(dá),具有優(yōu)異的特征學(xué)習(xí)能力,與傳統(tǒng)方法相比,深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)通過(guò)構(gòu)建多層網(wǎng)絡(luò)自動(dòng)提取數(shù)據(jù)更深層的特征來(lái)表征數(shù)據(jù),從而提升分類和預(yù)測(cè)的準(zhǔn)確性。然而,目前的DBN模型大多數(shù)是以人工提取的特征作為輸入,在此基礎(chǔ)上提取更深層的特征進(jìn)行故障分類,例如小波包能量特征,這依舊需要相當(dāng)專業(yè)的知識(shí),同時(shí)直接對(duì)原始信號(hào)進(jìn)行深層特征提取的DBN診斷模型故障分類效果還有待提高。
有鑒于上述的缺陷,本設(shè)計(jì)人,積極加以研究創(chuàng)新,以期創(chuàng)設(shè)一種基于Nesterov動(dòng)量法的自適應(yīng)深度置信網(wǎng)絡(luò)(Deep Belief Network)軸承故障診斷方法,使其更具有產(chǎn)業(yè)上的利用價(jià)值。
技術(shù)實(shí)現(xiàn)要素:
為解決上述技術(shù)問(wèn)題,本發(fā)明的目的是提供一種基于Nesterov動(dòng)量法的自適應(yīng)深度置信網(wǎng)絡(luò)軸承故障診斷方法,如圖1所示,包括以下步驟:
步驟1:對(duì)滾動(dòng)軸承不同健康狀態(tài)的原始信號(hào)進(jìn)行樣本劃分,生成訓(xùn)練樣本;
步驟2:通過(guò)層疊RBM構(gòu)建DBN模型,將訓(xùn)練樣本輸入DBN模型,結(jié)合批量隨機(jī)梯度下降法和貪婪逐層無(wú)監(jiān)督算法預(yù)訓(xùn)練DBN模型,針對(duì)目前DBN模型對(duì)原始信號(hào)的故障分類精度受限的問(wèn)題,在DBN模型中加入Nesterov動(dòng)量法和獨(dú)立自適應(yīng)學(xué)習(xí)率,加速訓(xùn)練速度,提高故障分類精度;
步驟3:在預(yù)訓(xùn)練好的模型頂層接入Softmax分類器,使用監(jiān)督算法單獨(dú)訓(xùn)練Softmax分類器,接著利用BP算法和共軛梯度法進(jìn)行全局微調(diào),獲得模型最優(yōu)參數(shù);
步驟4:輸入未知狀態(tài)信號(hào),形成測(cè)試樣本集,將測(cè)試樣本輸入上述訓(xùn)練好的DBN模型判斷滾動(dòng)軸承的故障類型;
進(jìn)一步的,所述步驟1具體包括以下步驟:
步驟1.1:該方法以滾動(dòng)軸承在不同健康狀態(tài)下的振動(dòng)信號(hào)作為原始數(shù)據(jù)X,根據(jù)振動(dòng)信號(hào)的采樣頻率和軸承轉(zhuǎn)動(dòng)速度,軸承轉(zhuǎn)動(dòng)一個(gè)周期采集到的信號(hào)數(shù)據(jù)個(gè)數(shù)可表示為:
其中:n為軸承轉(zhuǎn)動(dòng)一個(gè)周期采集到信號(hào)數(shù)據(jù)個(gè)數(shù),在實(shí)際應(yīng)用中n常常向上取整,r為軸承轉(zhuǎn)動(dòng)速度,單位為r/min,f為采樣頻率,單位為Hz;
步驟1.2:以n為一個(gè)樣本長(zhǎng)度,將軸承不同健康狀態(tài)下的振動(dòng)信號(hào)劃分成訓(xùn)練樣本集X′,其中X′(g)∈Rn,并為每一種健康狀態(tài)設(shè)置標(biāo)簽L,其中L(g)∈{1,2,3,...,k},其中,L(g)表示第g個(gè)訓(xùn)練樣本的標(biāo)簽,k表示分類類別;
進(jìn)一步的,所述步驟2具體包括以下步驟:
步驟2.1:層疊RBM建立DBN模型,具體包括:
每一個(gè)RBM模型包括一層可視層v={v1,v2,...,vi}和一層h={h1,h2,...,hj}隱藏層如圖2,所有的可視單元和隱藏單元都是二值變量,即j,vi∈{0,1},hj∈{0,1},i和j分別表示可視層第i個(gè)可視單元和隱藏層第j個(gè)隱藏單元,通過(guò)將復(fù)數(shù)數(shù)量的RBM模型從下往上層疊建立DBN模型如圖3,底層RBM的隱藏層h1作為上一層RBM的可視層v2,然后這一層RBM的隱藏層h2作為上一層RBM的可視層v3,通過(guò)這樣的方式,當(dāng)?shù)讓覴BM的可視層存在輸入,頂層RBM的隱藏層就會(huì)提取出相應(yīng)輸入的深層特征,由于RBM層間有連接,層內(nèi)無(wú)連接,當(dāng)給定可見(jiàn)單元的狀態(tài)時(shí),各隱單元的激活狀態(tài)之間是條件獨(dú)立的,此時(shí),第j個(gè)隱單元的激活概率為:
其中,為sigmoid激活函數(shù),θ={Wij,ai,bj}為RBM的參數(shù),Wij表示可見(jiàn)單元i與隱單元j之間的連接權(quán)重,ai表示可視單元i的偏置,bj表示隱單元j的偏置。由于RBM的結(jié)構(gòu)是對(duì)稱的,當(dāng)給定隱單元的狀態(tài)時(shí),各可見(jiàn)單元的激活條件也是條件獨(dú)立,即第i個(gè)可視單元的激活概率為:
步驟2.2:將訓(xùn)練樣本輸入DBN模型,結(jié)合批量隨機(jī)梯度下降法和貪婪逐層算法預(yù)訓(xùn)練DBN模型,具體包括:
對(duì)訓(xùn)練樣本集X′進(jìn)行歸一化處理,使樣本集X′幅值范圍處于(0,1)之間,得到新的樣本集X″,針對(duì)批量隨機(jī)梯度下降法,將樣本集X″隨機(jī)劃分成若干個(gè)批量B={b1,b2,…,bm},其中m表示第m個(gè)批量樣本集,將每一個(gè)批量樣本集輸入到DBN模型中,使用貪婪逐層無(wú)監(jiān)督算法進(jìn)行預(yù)訓(xùn)練,首先訓(xùn)練底層RBM,記為RBM1,將批量樣本集B輸入到RBM1的可視層,為了求出合適的參數(shù)θ的值,以擬合給定的訓(xùn)練數(shù)據(jù),通過(guò)最大化RBM在訓(xùn)練集B上的對(duì)數(shù)似然函數(shù)學(xué)習(xí)得到,即
其中,P(v|θ)為聯(lián)合概率分布P(v,h|θ)的邊際分布,(v,h)聯(lián)合概率為:
其中,Z(θ)為歸一化因子,表達(dá)式為:
E(v,h|θ)為RBM的能量函數(shù):
為了獲得最優(yōu)參數(shù)θ*,使用CD算法進(jìn)行梯度下降,各參數(shù)的更新準(zhǔn)則為:
其中,ηw,ηa和ηb分別為權(quán)重、可視層偏差和隱藏層偏差的學(xué)習(xí)率,<·>recon表示一步吉布斯采樣后模型定義的分布,依次將各個(gè)批量樣本集輸入RBM1,訓(xùn)練參數(shù)θ1,將訓(xùn)練樣本B輸入到訓(xùn)練好的RBM1,得到提取的特征F1={f1,f2,...,fm},其中l(wèi)1表示一階樣本特征長(zhǎng)度,此時(shí)F1={f1,f2,...,fm}為原始數(shù)據(jù)B={b1,b2,...,bm}的一階特征表示,即最底層的表達(dá)方式;接著將特征F1作為上一層RBM(記作RBM2)的輸入,固定參數(shù)θ1重復(fù)上述步驟訓(xùn)練RBM2的參數(shù)θ2,得到二階特征F2={f1,f2,...,fm},其中l(wèi)2表示二階樣本特征長(zhǎng)度;F2={f1,f2,...,fm}是更加抽象的特征表達(dá);隨后對(duì)后面的各層RBM采用同樣的策略,即將前層的輸出作為下一層輸入依次訓(xùn)練,并在訓(xùn)練每一層參數(shù)的時(shí)候固定其他各層參數(shù)保持不變,最后,得到頂層RBM的隱藏層輸出Fs={f1,f2,...,fm}(s≥2),其中l(wèi)s表示s階樣本特征長(zhǎng)度,此時(shí)Fs={f1,f2,...,fm}作為DBN模型提取出的深層特征表達(dá);
步驟2.3:針對(duì)目前DBN模型對(duì)原始信號(hào)的故障分類精度受限的問(wèn)題,在DBN模型中加入Nesterov動(dòng)量法和獨(dú)立自適應(yīng)學(xué)習(xí)率,加快預(yù)訓(xùn)練速度和提高分類精度,具體包括:
當(dāng)使用批量隨機(jī)梯度下降法遇到溝壑問(wèn)題(一個(gè)方向的坡度比其他方向明顯要陡峭,大多數(shù)情況都會(huì)對(duì)應(yīng)到一個(gè)局部最小值)時(shí),批量隨機(jī)梯度下降法不會(huì)沿著溝壑加速下降到局部最小值,而是在附近反復(fù)振蕩,為了加速收斂,減少振蕩,一般的DBN模型會(huì)在參數(shù)更新時(shí),使用動(dòng)量法,即將上一次更新時(shí)的梯度乘以一個(gè)因數(shù)γ(一般設(shè)置為0.9),然后加上此時(shí)的梯度,若兩次梯度的方向類似,則會(huì)加速在這一方向上的移動(dòng),加速了收斂,減少振蕩:
然而動(dòng)量法的下降是盲目,它不能判斷下一步參數(shù)θ將要下降到哪,只是一直加速下降,所以在坡度開(kāi)始由下降轉(zhuǎn)為上升時(shí),可能會(huì)越過(guò)局部最小值,Nesterov動(dòng)量法能夠有效地解決這個(gè)問(wèn)題,我們首先通過(guò)計(jì)算J(θ-γvt-1)的梯度預(yù)測(cè)下一步要下降到的位置,然后再做出修正:
實(shí)驗(yàn)表明:Nesterov動(dòng)量法比動(dòng)量法更能加速RBM模型收斂,減少振蕩;
學(xué)習(xí)率在深度學(xué)習(xí)過(guò)程中是非常重要的,太大的學(xué)習(xí)率會(huì)引起誤差增大,越過(guò)局部最優(yōu)點(diǎn),使RBM模型難以擬合訓(xùn)練數(shù)據(jù),導(dǎo)致分類效果差;太小的學(xué)習(xí)率雖然會(huì)避免這些問(wèn)題,但是會(huì)花費(fèi)更多的時(shí)間找到局部最優(yōu)值,為了減少訓(xùn)練時(shí)間同時(shí)找到局部最優(yōu)值,采用一種獨(dú)立自適應(yīng)學(xué)習(xí)率,對(duì)于每一個(gè)權(quán)重值Wij更新時(shí),使用一個(gè)參數(shù)α實(shí)時(shí)改變學(xué)習(xí)率的大小,表達(dá)式為:
其中,hij(k)表示第k次訓(xùn)練時(shí)權(quán)重Wij學(xué)習(xí)率的自適應(yīng)系數(shù),初始hij(0)設(shè)置為1,表示使用Nesterov動(dòng)量法后第k次訓(xùn)練時(shí)權(quán)重Wij的梯度,如果本次訓(xùn)練的梯度與上一次訓(xùn)練時(shí)的梯度符號(hào)相同,則相應(yīng)的自適應(yīng)系數(shù)增加α,加速下降;相反地,如果本次訓(xùn)練梯度與上一次訓(xùn)練時(shí)的梯度符號(hào)相反,則相應(yīng)的自適應(yīng)系數(shù)縮小1-α倍,減緩下降速度,參數(shù)α應(yīng)該設(shè)置的很小,例如0.1,這樣才能保證當(dāng)出現(xiàn)振蕩時(shí)大的自適應(yīng)系數(shù)衰減快速,同時(shí)為了防止梯度消失,自適應(yīng)系數(shù)應(yīng)該被限制在[0.01,100]。
進(jìn)一步的,所述步驟3具體包括以下步驟:
步驟3.1:將DBN模型提取出的深層特征表達(dá)Fs={f1,f2,...,fm}輸入Softmax分類器,結(jié)合標(biāo)簽L單獨(dú)訓(xùn)練Softmax分類器(如圖4):
假設(shè)總共有k個(gè)分類類別,在Softmax回歸中系統(tǒng)的方程為:
其中,代表第k個(gè)概率下分類概率,是模型的參數(shù),這一項(xiàng)是對(duì)概率分布進(jìn)行歸一化,使得所有概率之和為1,這里使用符號(hào)來(lái)表示全部的模型參數(shù),將按行羅列變成一個(gè)k×ls的矩陣,如下所示:
采用梯度下降法優(yōu)化模型參數(shù),Softmax回歸中代價(jià)函數(shù)為:
其中,1{是示性函數(shù),其取值規(guī)則為1{值為真的表達(dá)式}=1,1{值為假的表達(dá)式}=0,表示權(quán)重衰減項(xiàng),它會(huì)懲罰過(guò)大的參數(shù)值,λ為衰減系數(shù),經(jīng)過(guò)求導(dǎo),得到梯度公式如下:
其中,本身是一個(gè)向量,它的第l個(gè)元素是對(duì)的第l個(gè)分量的偏導(dǎo)數(shù),使用梯度下降算法最小化參數(shù)更新準(zhǔn)則為:
步驟3.2:基于BP算法與共軛梯度算法的全局微調(diào):
首先進(jìn)行“向前傳導(dǎo)”運(yùn)算,計(jì)算網(wǎng)絡(luò)中所有神經(jīng)元的激活值,之后,針對(duì)第l層的每一個(gè)節(jié)點(diǎn)i,計(jì)算出其“殘差”該殘差表明了該節(jié)點(diǎn)對(duì)最終輸出值的殘差產(chǎn)生了多少影響,對(duì)于最終Softmax回歸分類模型的輸出殘差,我們將這個(gè)差距定義為分類誤差(第ln層表示輸出層),對(duì)于隱藏單元,將基于節(jié)點(diǎn)殘差的加權(quán)平均值計(jì)算基于BP算法的微調(diào)方法如下:
對(duì)于第ln層(輸出層)的每個(gè)輸出單元i,根據(jù)以下公式計(jì)算殘差:
其中,表示第ln層節(jié)點(diǎn)i的輸出激活值,表示第ln層節(jié)點(diǎn)i的輸入,f′表示傳遞函數(shù)的導(dǎo)函數(shù);
對(duì)于l=ln-1,ln-2,ln-3,...,2的各層,第l層的第i個(gè)節(jié)點(diǎn)的殘差計(jì)算方法如下:
計(jì)算我們需要的偏導(dǎo)數(shù),計(jì)算方法如下:
更新權(quán)重參數(shù):
其中,ΔW(l)表示第l層權(quán)重W的平均梯度,Δb(l)表示第l層偏差b的平均梯度,為了加快下降速度,我們使用共軛梯度法搜索最優(yōu)學(xué)習(xí)率ε,重復(fù)梯度下降法的迭代步驟實(shí)現(xiàn)整個(gè)DBN模型的參數(shù)優(yōu)化。
進(jìn)一步的,所述步驟4具體包括以下步驟:
對(duì)未知狀態(tài)信號(hào)重復(fù)步驟1,形成測(cè)試樣本集,然后將測(cè)試樣本集輸入訓(xùn)練好的DBN模型,獲得輸出值,并通過(guò)輸出值判斷設(shè)備狀態(tài)。
借由上述方案,本發(fā)明至少具有以下優(yōu)點(diǎn):區(qū)別于傳統(tǒng)的人工特征提取故障診斷技術(shù),本發(fā)明利用深度置信網(wǎng)絡(luò)的深度學(xué)習(xí)方法將原始數(shù)據(jù)作為輸入信號(hào),直接對(duì)原始信號(hào)的深層特征進(jìn)行自動(dòng)提取,無(wú)需人工選擇,有效挖掘數(shù)據(jù)的本質(zhì)特征,減少人工提取特征的時(shí)間和成本;本發(fā)明在層疊受限玻爾茲曼機(jī)構(gòu)建深度置信網(wǎng)絡(luò)的基礎(chǔ)上,通過(guò)加入Nesterov動(dòng)量法和獨(dú)立自適應(yīng)學(xué)習(xí)率,針對(duì)目前DBN模型對(duì)原始信號(hào)的故障分類精度受限的問(wèn)題,有效提高了模型訓(xùn)練速度和滾動(dòng)軸承故障診斷精度,使得故障分類精度達(dá)到98.6%。
上述說(shuō)明僅是本發(fā)明技術(shù)方案的概述,為了能夠更清楚了解本發(fā)明的技術(shù)手段,并可依照說(shuō)明書(shū)的內(nèi)容予以實(shí)施,以下以本發(fā)明的較佳實(shí)施例并配合附圖詳細(xì)說(shuō)明如后。
附圖說(shuō)明
圖1是為本發(fā)明的基于Nesterov動(dòng)量法的自適應(yīng)深度置信網(wǎng)絡(luò)軸承故障診斷方法的流程圖;
圖2為受限玻爾茲曼機(jī)結(jié)構(gòu)圖;
圖3為深度置信網(wǎng)絡(luò)結(jié)構(gòu)圖;
圖4為基于Softmax回歸模型的軸承故障分類;
圖5為本發(fā)明實(shí)施例中軸承不同健康狀態(tài)的振動(dòng)信號(hào)時(shí)域圖;
圖6為本發(fā)明實(shí)施例中軸承故障訓(xùn)練分類結(jié)果圖;
圖7為本發(fā)明實(shí)施例中軸承故障測(cè)試分類結(jié)果圖;
圖8為滾動(dòng)軸承數(shù)據(jù)生成試驗(yàn)臺(tái)示意圖。
具體實(shí)施方式
下面結(jié)合附圖和實(shí)施例,對(duì)本發(fā)明的具體實(shí)施方式作進(jìn)一步詳細(xì)描述。以下實(shí)施例用于說(shuō)明本發(fā)明,但不用來(lái)限制本發(fā)明的范圍。
本發(fā)明的應(yīng)用實(shí)例如下:
以美國(guó)西儲(chǔ)大學(xué)軸承數(shù)據(jù)為例,說(shuō)明基于DBN和Softmax回歸模型的深度學(xué)習(xí)滾動(dòng)軸承故障診斷實(shí)現(xiàn)方法。如圖8所示,該滾動(dòng)軸承試驗(yàn)臺(tái)包括一個(gè)2馬力的電機(jī)(左側(cè))(1hp=746W),一個(gè)轉(zhuǎn)矩傳感器(中間),一個(gè)功率計(jì)(右側(cè))和電子控制裝置。使用電火花加工技術(shù)在支撐軸承上布置單點(diǎn)故障,故障直徑可分別設(shè)置為0.007、0.014、0.021、0.028、0.040英寸。其中前三種故障直徑的軸承使用的是SKF軸承,后兩種故障直徑的軸承使用的是與之等效的NTN軸承。該實(shí)驗(yàn)臺(tái)包括驅(qū)動(dòng)端軸承和風(fēng)扇端軸承,加速度傳感器分別安裝在電機(jī)殼體的驅(qū)動(dòng)端和風(fēng)扇端12點(diǎn)鐘的位置。振動(dòng)信號(hào)是通過(guò)16通道的DAT記錄器采集的,數(shù)字信號(hào)的采樣頻率為每秒鐘12000個(gè)點(diǎn),驅(qū)動(dòng)端軸承故障數(shù)據(jù)采樣速率為每秒鐘48000個(gè)點(diǎn)。
在本發(fā)明的實(shí)施例中,我們選取驅(qū)動(dòng)端(DE)軸承的振動(dòng)信號(hào)作為原始數(shù)據(jù),將軸承故障分為正常、內(nèi)圈故障、滾動(dòng)體故障、外圈故障四種。軸承型號(hào)為6205-2RS JEM,軸承故障尺寸為0.007英寸,轉(zhuǎn)速為1797r/min,采樣頻率為12kHz,根據(jù)公式(1),得到一個(gè)樣本長(zhǎng)度為400.67,向上取整為401,具體軸承數(shù)據(jù)可參考表1。
表1軸承數(shù)據(jù)
層疊受限玻爾茲曼機(jī)的無(wú)監(jiān)督學(xué)習(xí)過(guò)程是滾動(dòng)軸承故障診斷的一個(gè)重要部分,可以有效學(xué)習(xí)出原始數(shù)據(jù)的深層特征;在加入Nesterov動(dòng)量法和獨(dú)立自適應(yīng)學(xué)習(xí)率后,可以加快模型訓(xùn)練速度,提高最終的故障分類精度,使模型提取出更具代表性深層特征;最后采用Softmax回歸算法作為頂層分類器,實(shí)現(xiàn)對(duì)軸承故障的分類。
本實(shí)施例設(shè)定神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)目為兩層,第一層有300個(gè)神經(jīng)元。第二層有100個(gè)神經(jīng)元,輸入層神經(jīng)元數(shù)目等于樣本長(zhǎng)度為401。輸出層根據(jù)分類的故障模式,設(shè)定為4個(gè)神經(jīng)元。整個(gè)神經(jīng)網(wǎng)絡(luò)輸出結(jié)果是不同故障模式的匹配概率值,四個(gè)故障模式的概率為1,并判斷概率最大的故障模式為當(dāng)前軸承的故障狀態(tài)。
我們將訓(xùn)練樣本輸入DBN模型,采用步驟2和步驟3訓(xùn)練DBN模型和Softmax回歸模型參數(shù),其中批量設(shè)置為80,權(quán)重W的初值為0.01×N~(0,1),學(xué)習(xí)率初值為0.05,可視層和隱藏層的偏差a和b的初值為0,學(xué)習(xí)率初值為0.2。衰減系數(shù)λ為0.0003。在所有參數(shù)的訓(xùn)練完成后,輸入測(cè)試樣本就可以利用DBN模型無(wú)監(jiān)督自學(xué)習(xí)得到樣本的深層特征,然后輸入到Softmax分類器中實(shí)現(xiàn)滾動(dòng)軸承的故障診斷,圖4為測(cè)試樣本的分類結(jié)果。如圖5至圖7所示,為了更好的表征故障診斷結(jié)果,我們將模型分類結(jié)果與真實(shí)標(biāo)簽作對(duì)比,用分類正確的結(jié)果數(shù)目和總的分類數(shù)目之比作為分類精度,其結(jié)果達(dá)到了98.6%,表2為具體健康狀態(tài)的分類精度。
表2軸承分類結(jié)果
從分析應(yīng)用實(shí)例可以看出,本發(fā)明提供的基于DBN和Softmax回歸模型的深度學(xué)習(xí)滾動(dòng)軸承故障診斷方法,通過(guò)層疊受限玻爾茲曼機(jī)構(gòu)建深度置信網(wǎng)絡(luò)模型能夠有效地自學(xué)習(xí)得到滾動(dòng)軸承振動(dòng)信號(hào)的深層特征,在此基礎(chǔ)上加入Nesterov動(dòng)量法和獨(dú)立自適應(yīng)學(xué)習(xí)率,能夠加快訓(xùn)練速度,提高分類精度。從實(shí)驗(yàn)結(jié)果可看出軸承故障分類精度達(dá)到98.6%。
本發(fā)明中涉及到的本領(lǐng)域公知技術(shù)未詳細(xì)闡述。
以上所述僅是本發(fā)明的優(yōu)選實(shí)施方式,并不用于限制本發(fā)明,應(yīng)當(dāng)指出,對(duì)于本技術(shù)領(lǐng)域的普通技術(shù)人員來(lái)說(shuō),在不脫離本發(fā)明技術(shù)原理的前提下,還可以做出若干改進(jìn)和變型,這些改進(jìn)和變型也應(yīng)視為本發(fā)明的保護(hù)范圍。