欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于卷積神經(jīng)網(wǎng)絡的深度學習智能眼圖分析方法與流程

文檔序號:12908034閱讀:1017來源:國知局
基于卷積神經(jīng)網(wǎng)絡的深度學習智能眼圖分析方法與流程

本發(fā)明涉及光通信技術領域,尤其涉及一種基于卷積神經(jīng)網(wǎng)絡的深度學習智能眼圖分析方法。



背景技術:

機器學習(ml)技術提供了強大的工具來解決諸如自然語言處理,數(shù)據(jù)挖掘,語音識別和圖像識別等許多領域的問題。同時,機器學習技術在光通信領域也得到了廣泛的應用,很大程度上促進了智能系統(tǒng)的發(fā)展。目前研究主要集中在使用不同的機器學習算法進行光學性能監(jiān)測(opm)和非線性損傷補償方面,所使用的機器學習算法包括期望最大值(em),隨機森林,反向傳播人工神經(jīng)網(wǎng)絡(bp-ann),k近鄰(knn)和支持向量機(svm)等。然而,所有上述機器學習算法在特征提取的能力上都有其算法本身的限制。更具體地說,機器學習模型不能直接處理自然數(shù)據(jù)的原始形式,因此不得不在運用算法前需要相當多的領域?qū)iL和工程技能來設計特征提取器,將原始數(shù)據(jù)轉(zhuǎn)換成合適的內(nèi)部表示或特征向量,進而子系統(tǒng)才能檢測出輸入數(shù)據(jù)的模式。因此,希望可以開發(fā)出更先進的機器學習算法,不僅可以直接對原始數(shù)據(jù)進行處理,還可以自動檢測所需的特征。

最近,深度學習成為一個火熱的研究課題,其目的是使得機器學習更接近人工智能(ai)的目標。深度學習可以被理解為具有多個非線性層的深度神經(jīng)網(wǎng)絡,其通過自學習過程從數(shù)據(jù)中學習特征,而不是由人類工程師來進行人工設計。深度學習中最著名的突破之一是googledeepmind的電腦程序“alphago”,他們首次在棋盤游戲中以自學習的能力擊敗了專業(yè)的選手。另外,作為目前的研究熱點,深度學習在無人駕駛飛行器,醫(yī)療診斷,情緒分析等各種應用領域取得了重大進展。然而據(jù)我們所知,在光通信系統(tǒng)領域卻幾乎沒有基于深度學習的研究工作。

同時,在光通信領域中,目前的調(diào)制格式識別和osnr、cd、線性損傷、非線性損傷等性能指標的估計技術不能直接對原始數(shù)據(jù)進行處理,而必須人為地提取相應的特征,需要大量的人工干預。因此希望能夠利用眼圖采用更加先進的技術來進行各種性能的智能分析,無需人工干預,做到精確測量,無需數(shù)據(jù)統(tǒng)計即時處理,實現(xiàn)利用眼圖進行性能分析的智能化和自動化。



技術實現(xiàn)要素:

本發(fā)明的目的在于將深度學習技術應用到光通信領域,提供一種智能、可靠的基于卷積神經(jīng)網(wǎng)絡的深度學習智能眼圖分析方法,解決傳統(tǒng)眼圖性能分析中無法直接處理原始圖像數(shù)據(jù)、需進行人工干預的弊端,實現(xiàn)了對眼圖原始圖像進行性能分析的智能化和自動化。

為達到上述目的,本發(fā)明公開了一種基于卷積神經(jīng)網(wǎng)絡的深度學習智能眼圖分析方法,將基于卷積神經(jīng)網(wǎng)絡的深度學習技術應用到眼圖分析中,利用卷積神經(jīng)網(wǎng)絡對眼圖進行多種性能分析,所述方法包括以下步驟:步驟一、獲取所需分析的眼圖訓練數(shù)據(jù)集;步驟二、眼圖圖像預處理;步驟三、訓練卷積神經(jīng)網(wǎng)絡(cnn)模塊對眼圖進行特征提?。徊襟E四、將所需分析眼圖輸入訓練完成的cnn模塊進行模式識別和性能分析;步驟五、輸出分析結(jié)果。

優(yōu)選地,所述眼圖中所需分析的多種性能為調(diào)制格式、光信噪比(osnr)、色散(cd)、線性損傷和非線性損傷。

優(yōu)選地,所述眼圖訓練集獲取步驟一中,采集眼圖的各種性能不同指標情況下的訓練數(shù)據(jù)集,其中,訓練數(shù)據(jù)集中的每組數(shù)據(jù)由輸入為眼圖圖像和輸出為特定性能的特定指標信息對構(gòu)成。

優(yōu)選地,所述眼圖預處理步驟二中,將所述步驟一中獲取的訓練數(shù)據(jù)集中的彩色眼圖圖像轉(zhuǎn)換為灰度圖像,并將得到的眼圖灰度圖像進行下采樣處理。

優(yōu)選地,所述訓練cnn模塊進行特征提取步驟三中,將所述步驟二中預處理后的眼圖輸入構(gòu)建好的cnn模塊中,基于所述訓練數(shù)據(jù)進行訓練過程后,所述cnn模塊自動從眼圖圖像中提取特征,并構(gòu)建特征與不同性能之間的關系。

優(yōu)選地,所述cnn模塊模式識別和性能分析步驟四中,經(jīng)預處理的所需分析的眼圖輸入所述訓練完成的cnn模塊中,cnn模塊對輸入的眼圖進行模式識別,并通過其以往的學習經(jīng)驗對當前輸入的眼圖進行性能分析。

優(yōu)選地,所述輸出分析結(jié)果步驟五中,由所述cnn模塊輸出的信息包含所需分析的各種性能,可從輸出信息中得到不同性能的分析結(jié)果。

優(yōu)選地,所述cnn模塊的結(jié)構(gòu)主要包括:一個輸入層、n個卷積層(c1、c2、…、cn)、n個池化層(p1、p2、…、pn)、m個全連接層(f1、f2、…、fm)、一個輸出層,其中,所述輸入層的輸入為經(jīng)過預處理的眼圖圖像,輸入層與卷積層c1相連接;所述卷積層c1含有k1個大小為a1×a1的卷積核,所述輸入層圖像經(jīng)過卷積層c1得到k1個特征圖,進而將得到的特征圖傳送至池化層p1;所述池化層p1以b1×b1的采樣大小對所述卷積層c1生成的特征圖進行池化,得到相應的k1個采樣后的特征圖,再將得到的特征圖傳送至下一個卷積層c2;所述n個卷積層和池化層對的順次連接,進而不斷提取圖像深層次的抽樣特征,最后一個池化層pn與全連接層f1相連接,其中,卷積層ci含有ki個大小為ai×ai的卷積核,池化層pj的采樣大小為bj×bj,ci表示第i個卷積層,pj表示第j個池化層;所述全連接層f1為所述最后一個池化層pn所得的所有kn個特征圖的像素點映射而成的一維層,每個像素代表所述全連接層f1的一個神經(jīng)元節(jié)點,f1層的所有神經(jīng)元節(jié)點與下一個全連接層f2的神經(jīng)元節(jié)點進行全連接;經(jīng)m個全連接層順次連接,最后一個全連接層fm與所述輸出層進行全連接;所述輸出層輸出所需分析的眼圖不同性能的節(jié)點信息。

優(yōu)選地,所述輸出層輸出的節(jié)點信息為l位的二進制比特序列,其中,所述n個不同的性能分別以l1、l2、…、ln位二進制比特信息來表示,li位用于表示第i個性能的li種不同的指標信息,其中l(wèi)=l1+l2+…+ln。

優(yōu)選地,基于cnn的眼圖處理算法將作為示波器的眼圖軟件處理模塊或仿真軟件的眼圖分析模塊,進而嵌入到測試儀器中進行智能信號分析和性能監(jiān)測。

本發(fā)明的有益效果在于:本發(fā)明解決了傳統(tǒng)眼圖分析的弊端,將基于卷積神經(jīng)網(wǎng)絡的深度學習技術應用到眼圖分析中,利用卷積神經(jīng)網(wǎng)絡對眼圖進行多種性能分析,應用本發(fā)明可以對眼圖原始圖像數(shù)據(jù)進行直接處理,無需由人工干預來進行特征提取,實現(xiàn)眼圖性能分析的智能化和自動化,進而可以作為示波器的眼圖軟件處理模塊或仿真軟件的眼圖分析模塊,嵌入到測試儀器中進行智能信號分析和性能監(jiān)測。

附圖說明

圖1示出了本發(fā)明基于卷積神經(jīng)網(wǎng)絡的深度學習智能眼圖分析方法的流程圖;

圖2示出了本發(fā)明一個實施例的基于卷積神經(jīng)網(wǎng)絡的深度學習智能眼圖分析結(jié)構(gòu)示意圖;

圖3示出了本發(fā)明一個實施例收集的不同調(diào)制格式和不同osnr的部分眼圖圖像;

圖4示出了本發(fā)明一個實施例的不同調(diào)制格式下所估計的osnr的精確度示意圖;

圖5示出了本發(fā)明一個實施例的不同調(diào)制格式下cnn與其他機器學習算法對于眼圖性能分析精確度的對比示意圖。

具體實施方式

下面結(jié)合附圖和實施例,對本發(fā)明的具體實施方式作進一步詳細描述。以下實施例用于說明本發(fā)明,但不用來限制本發(fā)明的保護范圍。

如圖1所示,本發(fā)明提出的基于卷積神經(jīng)網(wǎng)絡的深度學習智能眼圖分析方法,將基于卷積神經(jīng)網(wǎng)絡的深度學習技術應用到眼圖分析中,利用卷積神經(jīng)網(wǎng)絡對眼圖進行多種性能分析,包括以下步驟:步驟一、獲取所需分析的眼圖訓練數(shù)據(jù)集;步驟二、眼圖圖像預處理;步驟三、訓練卷積神經(jīng)網(wǎng)絡(cnn)模塊對眼圖進行特征提??;步驟四、所需分析眼圖輸入訓練完成的cnn模塊進行模式識別和性能分析;步驟五、輸出分析結(jié)果。

本實施例中,所述要進行分析的眼圖性能為調(diào)制格式和osnr。

所述獲取眼圖訓練數(shù)據(jù)集步驟一中,基于vpitransmissionmaker9.0建立了基本的仿真系統(tǒng),由偽隨機二進制序列生成四種不同調(diào)制格式的光信號,分別為:4pam,rz-dpsk,nrz-ook,rz-ook。該四種調(diào)制格式均是基于直接檢測方式,傳遞的信息反映在信號的幅度上,適合于后續(xù)的眼圖分析。仿真系統(tǒng)中使用摻鉺光纖放大器(edfa)將放大的自發(fā)發(fā)射(ase)噪聲添加到光信號中,并且在1db的步長下,利用可變光衰減器(voa)將osnr調(diào)整為10至25db。為了盡可能模擬真實的光信號,系統(tǒng)中加入了色散(cd)仿真器,使得模擬生成的眼圖更能反映真實的情況。對于本實施例中四種不同調(diào)制格式的光信號,4pam、nrz-ook和rz-ook信號由光電檢測器(pd)直接檢測,而rz-dpsk信號則通過與延遲干涉儀(di)組合的平衡光電檢測器(bpd)來進行檢測。在進行同步采樣之后,獲得了包含四種信號強度信息的數(shù)字信號。為了獲得更為逼真的視覺效果,本實施例采用示波器中專門的眼圖生成模塊,將接收到的數(shù)字信號轉(zhuǎn)換為相應的眼圖圖像。

基于所述仿真系統(tǒng),本實施例規(guī)定每種調(diào)制格式生成16個不同osnr值()的眼圖圖像,對每種調(diào)制格式的每個osnr值收集100張像素大小為900×1200的“jpg”格式的眼圖圖像,這里,以每種調(diào)制格式的每個osnr值及其相應的眼圖圖像作為一組訓練數(shù)據(jù),因此整個訓練數(shù)據(jù)集合總共包括6400(1600×4)組訓練數(shù)據(jù)。

所述眼圖圖像預處理步驟二中,為了減少計算量和增強泛化能力,將步驟一中收集到的眼圖圖像經(jīng)灰度變換后使得原來的彩色圖像轉(zhuǎn)換為灰度圖像,并經(jīng)過下采樣使得原始眼圖的像素大小降至28×28,最后將處理后的訓練數(shù)據(jù)集輸入到建立好的cnn模塊中。如圖3所示,不同的眼圖可以呈現(xiàn)出不同的調(diào)制格式,并且如果對所觀察到的眼圖在視覺上進行仔細分析,其同樣可以看出眼圖與osnr值的一階近似關系。

所述訓練cnn模塊進行特征提取步驟三中,其中輸入cnn模塊的眼圖訓練數(shù)據(jù)集,其每個眼圖圖像均與一個由20個比特組成的標簽向量一一對應,標簽向量的前4位代表不同的調(diào)制格式(4pam:0001、rz-dpsk:0010、nrz-ook:0100、rz-ook:1000),后16位代表不同的osnr值(10db:0000000000000001、11db:0000000000000010,…,25db:1000000000000000)。在所述的訓練過程中,cnn模塊逐漸提取輸入眼圖圖像的有效特征。同時,為了最小化理想標簽向量和實際輸出標簽向量之間的誤差,cnn模塊通過反向傳播使用梯度下降的方法來逐步調(diào)整其內(nèi)核的參數(shù)。

圖2表示本發(fā)明一個具體實施例的基于卷積神經(jīng)網(wǎng)絡的智能眼圖分析結(jié)構(gòu)示意圖,所述cnn模塊的結(jié)構(gòu)主要包括以下幾個部分:一個輸入層、兩個卷積層(c1、c2)、兩個池化層(p1、p2)、一個全連接層(f1)、一個輸出層。經(jīng)過預處理的28×28眼圖圖像作為輸入層輸入cnn模塊,與卷積層c1相連接;輸入的眼圖圖像經(jīng)過含有6個大小為5×5的卷積核的卷積層c1,得到6個大小為24×24特征圖,進而將得到的特征圖傳送至池化層p1;池化層p1以2×2的采樣大小對6個特征圖進行最大池化,得到相應的6個大小為12×12的采樣后的特征圖,進而將得到的特征圖傳送至卷積層c2;卷積層c2含有12個大小為5×5的卷積核,池化層p1所得的6個特征圖經(jīng)卷積層c2得到12個大小為8×8的特征圖,進而將得到的特征圖傳送至池化層p2;池化層p2同樣以2×2的采樣大小對卷積層c2生成的12個大小為4×4特征圖進行最大池化,得到相應的12個采樣后的特征圖,接著將得到的特征圖傳送至全連接層f1;池化層p2所得的所有特征圖的像素點映射為一維的全連接層f1,每個像素代表全連接層f1的一個神經(jīng)元節(jié)點,全連接層f1的每個神經(jīng)元節(jié)點與輸出層進行全連接;最后輸出層輸出所需分析的眼圖性能的節(jié)點信息。

其中,卷積層是cnn模塊的核心構(gòu)件。該層中的參數(shù)由一組卷積核組成,它們具有較小的局部感受野,但卻可以延伸到眼圖圖像的整個深度。在向前傳播的過程中,每個卷積核與眼圖圖像的寬度和高度上的像素點進行卷積,輸出一個二維的平面,其被稱為從該卷積核生成的特征圖。與數(shù)學中的經(jīng)典卷積不同,cnn中的操作是離散卷積,可以被看作是矩陣相乘。卷積核可以被看作為特征檢測器,通過卷積核,cnn模塊可以從輸入的圖像中學習到其獨有的特征,同時為了構(gòu)建一個更加有效的模型,一般需要多個卷積核來檢測多個特征,以便在卷積層中產(chǎn)生多個特征圖。在經(jīng)過卷積層的特征提取后,池化層會將語義上類似的特征合并成相應的一個,典型的池化方式是計算一個特征圖中局部單元塊的最大值,進行特征圖的子采樣。本實施例中每個子采樣單元從卷積特征圖中2×2的單位區(qū)域獲取輸入,并將這些輸入的最大值作為池化后的數(shù)值,進而構(gòu)成池化后的特征圖。

所述cnn模塊模式識別和性能分析步驟四中,經(jīng)預處理的所需分析的4種不同調(diào)制格式、每種調(diào)制格式具有范圍為的osnr值(以1db為步長)的眼圖圖像輸入到上述訓練完成的cnn模塊中,cnn模塊對輸入的不同情況下的眼圖進行模式識別,并通過訓練階段的學習經(jīng)驗對輸入的眼圖進行調(diào)制格式和osnr的性能分析,將分析結(jié)果以20位的比特向量的形式輸出。

所述輸出分析結(jié)果步驟五中,從cnn模塊輸出的20位比特向量中,其前4位可得到所分析眼圖的調(diào)制格式信息,后16位可得到相應的osnr值。

為表現(xiàn)本發(fā)明所提方法分析的準確性,圖4顯示了不同調(diào)制格式不同迭代次數(shù)下cnn模塊對osnr的估計精度。顯然,四種調(diào)制格式的精確度均隨著cnn模塊迭代次數(shù)的增加而增加。不同迭代次數(shù)所訓練的cnn模塊具有不同的性能識別能力。在本實施例中,當?shù)螖?shù)超過31時,四種調(diào)制格式下cnn模塊對其相應的osnr估計的精度均達到100%,即所分析的性能無錯誤結(jié)果。

同時,為證明本發(fā)明的優(yōu)勢,將cnn與其他四種著名的機器學習算法,即決策樹,knn,bp-ann和svm進行了比較。每個算法對于不同調(diào)制格式下osnr的估計精度于直方圖的形式示于圖5,由圖可見cnn對于其他四種算法具有明顯的優(yōu)勢。其中,決策樹算法處理速度快且對內(nèi)存的要求很小,這些優(yōu)勢同時也導致其估計精度較低;knn算法通常在低維度上具有良好的估計精度,但在高維度上可能會產(chǎn)生很大的偏差;svm算法在估計精度和內(nèi)存使用上均具有很大的優(yōu)勢,其僅需要很少的支持向量,但其本質(zhì)上只是一個二進制分類器,所以面對多個osnr的值便需要多個svm分類器來進行處理;雖然bp神經(jīng)網(wǎng)絡也是從神經(jīng)網(wǎng)絡發(fā)展而來,但其缺乏特征提取的能力,需要大量訓練數(shù)據(jù)才能達到較好的效果,并且容易陷入局部最小值以及過擬合現(xiàn)象。與以上算法相比,cnn對輸入數(shù)據(jù)方差的敏感較低,所構(gòu)建的網(wǎng)絡更為強大,在很大程度上可以避免過擬合現(xiàn)象,并且能夠自動提取輸入數(shù)據(jù)的特征,尤其是在圖像處理上具有非常好的效果,同時,由于局部感受野、權重分配、子采樣等優(yōu)勢,cnn能夠以適當?shù)挠嬎愠杀緦崿F(xiàn)最佳的準確性。

綜上,本發(fā)明所提出的方法將基于卷積神經(jīng)網(wǎng)絡的深度學習技術應用到眼圖分析中,可以有效地作為示波器的眼圖軟件處理模塊或仿真軟件的眼圖分析模塊,進而嵌入到測試儀器中進行智能信號分析和性能監(jiān)測,實現(xiàn)眼圖分析的自動化和智能化。

以上實施例僅用于說明本發(fā)明,而并對本發(fā)明的保護范圍加以限制,對于相關領域的技術人員,本發(fā)明可以有各種更改和變化。凡在本發(fā)明的精神和原則之內(nèi),所作的任何修改、等同替換、改進等,均應包含在本發(fā)明的保護范圍之內(nèi)。

當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
马尔康县| 福泉市| 志丹县| 瓦房店市| 南华县| 丹东市| 屏山县| 山阳县| 麻栗坡县| 柯坪县| 阿拉善右旗| 和平区| 巫溪县| 思茅市| 元阳县| 唐山市| 江北区| 石柱| 理塘县| 惠安县| 海原县| 太仓市| 类乌齐县| 阜宁县| 南京市| 仙居县| 津市市| 商河县| 寿光市| 凤山市| 皋兰县| 龙口市| 克拉玛依市| 黄大仙区| 错那县| 景泰县| 教育| 远安县| 富阳市| 侯马市| 澎湖县|