本發(fā)明涉及電網(wǎng)線路故障診斷,尤其是一種基于聯(lián)邦學習的電網(wǎng)線路故障巡檢方法、設備及介質。
背景技術:
1、隨著智能電網(wǎng)的建設不斷推進,電網(wǎng)系統(tǒng)越來越復雜,這不僅要求電網(wǎng)具備高效的數(shù)據(jù)處理能力,還必須能夠實時響應各種工況變化。為了保證電網(wǎng)的可靠性和穩(wěn)定性,對電網(wǎng)線路進行準確且及時的故障診斷就成為了不可或缺的一環(huán)。傳統(tǒng)的故障診斷方法如人工巡檢或常規(guī)監(jiān)控系統(tǒng)已經(jīng)無法滿足現(xiàn)代電網(wǎng)的需求,它們往往存在擴展性差、響應速度慢等問題,并且面對海量數(shù)據(jù)的處理顯得力不從心。
2、然而,在應用機器學習(machine?learning,ml)技術進行電網(wǎng)故障診斷的過程中,面臨著諸多挑戰(zhàn)。首先,由于電網(wǎng)數(shù)據(jù)量龐大,傳統(tǒng)的集中式學習框架可能變得效率低下,同時也會消耗大量的計算資源。此外,電網(wǎng)數(shù)據(jù)通常包含敏感信息,因此如何在確保數(shù)據(jù)隱私和安全的前提下高效地分析數(shù)據(jù)成為了一個亟待解決的問題。再者,電網(wǎng)故障模式復雜多變,單一的學習模型難以應對所有情況。
3、現(xiàn)有的集中式和分散式學習框架雖然能夠在一定程度上提高故障診斷模型的準確性,但是這些框架都要求數(shù)據(jù)被收集并集中處理,這不僅增加了數(shù)據(jù)泄露的風險,同時也使得系統(tǒng)在面對大規(guī)模和高維度數(shù)據(jù)時難以有效地擴展。
技術實現(xiàn)思路
1、有鑒于此,本發(fā)明實施例提供一種基于聯(lián)邦學習的電網(wǎng)線路故障巡檢方法、設備及介質,能夠確保數(shù)據(jù)在不離開本地環(huán)境的情況下進行模型訓練,從而有效保護敏感信息。
2、本發(fā)明第一方面提供了一種基于聯(lián)邦學習的電網(wǎng)線路故障巡檢方法,包括以下步驟:
3、各個客戶端獲取本地電網(wǎng)線路的運行數(shù)據(jù),作為本地數(shù)據(jù)集;
4、中央服務器生成初始模型參數(shù),將初始模型參數(shù)作為第一輪的全局模型參數(shù);
5、中央服務器向各個客戶端分發(fā)全局模型參數(shù),各個客戶端根據(jù)所述全局模型參數(shù)建立本地模型;
6、各個客戶端使用本地數(shù)據(jù)集對所述本地模型進行訓練,計算初始模型參數(shù)在客戶端本地數(shù)據(jù)集上產(chǎn)生的梯度損失;
7、各個客戶端將計算得到的梯度損失上傳至中央服務器,中央服務器對各個客戶端上傳的梯度損失進行聚合處理,得到新一輪的全局模型參數(shù);
8、返回所述中央服務器向各個客戶端分發(fā)全局模型參數(shù)這一步驟;各個客戶端重新執(zhí)行所述根據(jù)所述全局模型參數(shù)建立本地模型、使用本地數(shù)據(jù)集對所述本地模型進行訓練、計算初始模型參數(shù)在客戶端本地數(shù)據(jù)集上產(chǎn)生的梯度損失、計算得到的梯度損失上傳至中央服務器的步驟;直至全局模型參數(shù)收斂和/或梯度損失聚合處理次數(shù)達到預設上限值;
9、各個客戶端使用最后一次建立的本地模型進行電網(wǎng)線路故障巡檢工作。
10、進一步地,所述本地電網(wǎng)線路的運行數(shù)據(jù),至少包括傳感器數(shù)據(jù)、電網(wǎng)狀態(tài)數(shù)據(jù)和歷史故障記錄。
11、進一步地,所述中央服務器生成初始模型參數(shù),具體包括以下步驟:
12、獲取預設初始化策略;
13、根據(jù)預設初始化策略對預設模型框架 θ進行賦值,得到初始模型參數(shù) θ0。
14、進一步地,所述中央服務器向各個客戶端分發(fā)全局模型參數(shù),具體包括以下步驟:
15、建立客戶端數(shù)據(jù)集;
16、根據(jù)所述客戶端數(shù)據(jù)集建立每個客戶端單獨的數(shù)據(jù)傳輸通道,同時復制出多組分發(fā)給每個客戶端的初始模型參數(shù);
17、通過所建立數(shù)據(jù)傳輸通道向每個客戶端分發(fā)初始模型參數(shù)。
18、進一步地,所述各個客戶端計算初始模型參數(shù)在客戶端本地數(shù)據(jù)集上產(chǎn)生的梯度損失,具體包括以下步驟:
19、對本地數(shù)據(jù)集進行標注,使得本地數(shù)據(jù)集中的每個樣本 x都具有對應的標簽 y;
20、使用所述本地數(shù)據(jù)集對本地模型 θt進行參數(shù)估計,通過以下公式計算本地模型 θt的梯度損失:
21、;
22、其中,( x, y)表示本地數(shù)據(jù)集中的單個樣本, l表示損失函數(shù),表示單個樣本在本地模型 θt中關于損失函數(shù) l所呈現(xiàn)的梯度,表示本地模型 θt的梯度損失。
23、進一步地,所述中央服務器對各個客戶端上傳的梯度損失進行聚合處理,具體包括以下步驟:
24、收集每個客戶端上傳的梯度損失,建立梯度損失集合;
25、使用以下公式對每個客戶端上傳的梯度損失進行加權平均,得到新一輪的全局模型參數(shù) θt+1:
26、;
27、其中, i表示每個客戶端, t表示當前輪次, mi表示每個客戶端的本地數(shù)據(jù)集樣本數(shù)量,表示每個客戶端的梯度損失。
28、進一步地,所述全局模型參數(shù)收斂,具體通過以下公式判斷:
29、;
30、其中,表示學習率,當學習率低于預設幅度時,判斷全局模型參數(shù)已收斂。
31、進一步地,所述各個客戶端使用最后一次建立的本地模型進行電網(wǎng)線路故障巡檢工作,具體包括以下步驟:
32、獲取電網(wǎng)線路實時運行參數(shù),對電網(wǎng)線路實時運行參數(shù)進行數(shù)據(jù)預處理;
33、將電網(wǎng)線路實時運行參數(shù)輸入所述最后一次建立的本地模型,獲取所述最后一次建立的本地模型輸出的電網(wǎng)線路故障參數(shù),具體故障類型和故障地點;
34、根據(jù)所輸出電網(wǎng)線路故障參數(shù),具體故障類型和故障地點進行故障排查。
35、本發(fā)明第二方面公開一種電子設備,包括處理器以及存儲器;
36、所述存儲器用于存儲程序;
37、所述處理器執(zhí)行所述程序實現(xiàn)所述的一種基于聯(lián)邦學習的電網(wǎng)線路故障巡檢方法。
38、本發(fā)明第三方面一種計算機可讀存儲介質,所述存儲介質存儲有程序,所述程序被處理器執(zhí)行實現(xiàn)所述的一種基于聯(lián)邦學習的電網(wǎng)線路故障巡檢方法。
39、本發(fā)明實施例還公開了一種計算機程序產(chǎn)品或計算機程序,該計算機程序產(chǎn)品或計算機程序包括計算機指令,該計算機指令存儲在計算機可讀存儲介質中。計算機設備的處理器可以從計算機可讀存儲介質讀取該計算機指令,處理器執(zhí)行該計算機指令,使得該計算機設備執(zhí)行前面的方法。
40、本發(fā)明的實施例具有如下方面有益效果:本發(fā)明實施例提出了一種基于聯(lián)邦學習的電網(wǎng)線路故障巡檢方法、設備及介質,能夠確保數(shù)據(jù)在不離開本地環(huán)境的情況下進行模型訓練,從而有效保護敏感信息。另外,針對集中式學習在處理大規(guī)模數(shù)據(jù)集時效率低下和資源消耗大的問題,本發(fā)明通過利用各參與方的本地計算資源,減少了對中心化計算能力的依賴,提高了模型訓練的效率。同時,對于集中式和分散式學習框架在擴展性方面的不足,本發(fā)明采用的聯(lián)邦學習方法具有更好的可擴展性,能夠適應不斷增長的數(shù)據(jù)量和復雜性,確保系統(tǒng)的穩(wěn)定運行。此外,本發(fā)明還致力于改善模型訓練的延遲問題,特別是在使用隨機森林和線性回歸模型時,通過優(yōu)化算法設計,降低訓練時間,提高系統(tǒng)的實時響應能力。綜上所述,本發(fā)明旨在通過引入聯(lián)邦學習技術,解決現(xiàn)有電力線故障診斷方法在數(shù)據(jù)隱私保護、資源效率、可擴展性及模型訓練延遲等方面的不足。
41、本發(fā)明的附加方面和優(yōu)點將在下面的描述部分中給出,部分將從下面的描述中變得明顯,或通過本發(fā)明的實踐了解到。