欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于多密鑰同態(tài)加密和拉普拉斯差分的農(nóng)業(yè)保險數(shù)據(jù)隱私保護方法

文檔序號:40614106發(fā)布日期:2025-01-07 21:01閱讀:9來源:國知局
一種基于多密鑰同態(tài)加密和拉普拉斯差分的農(nóng)業(yè)保險數(shù)據(jù)隱私保護方法

本發(fā)明屬于網(wǎng)絡空間安全數(shù)據(jù)隱私保護,特別是涉及一種基于多密鑰同態(tài)加密和拉普拉斯差分的農(nóng)業(yè)保險數(shù)據(jù)隱私保護方法。


背景技術:

1、現(xiàn)如今,隨著人工智能技術的逐漸發(fā)展,人工智能科技幾乎在各行各業(yè)中大顯身手,如2016年alphago在世界象棋比賽中打倒了人類所有的頂尖棋手,人類期待著類似于alphago這樣的大數(shù)據(jù)驅動的人工智能技術盡早地在人們日常生活中顯現(xiàn)。但是,現(xiàn)實世界的實際情況卻令人有些沮喪:大部分的領域都只是有限的數(shù)據(jù)或質量不好的數(shù)據(jù),這使得人工智能技術的實現(xiàn)遠比人們所想象的要艱難的多,而傳統(tǒng)的機器學習需要大量的數(shù)據(jù)來用于模型訓練,這些數(shù)據(jù)中可能包含有用戶的隱私數(shù)據(jù),而隱私數(shù)據(jù)的泄漏會給用戶帶來極大的威脅,比如在醫(yī)療方面病人的患病歷史、保險方面用戶的收入等等,這使得用戶不愿分享數(shù)據(jù)。同時,在各企業(yè)之間存在業(yè)務競爭等,各方也不愿意分享自身收集來的數(shù)據(jù),這些因素導致了數(shù)據(jù)源之間存在壁壘,使得數(shù)據(jù)無法互通,導致在現(xiàn)如今大部分領域中的數(shù)據(jù)往往以孤島的形態(tài)出現(xiàn),產(chǎn)生了數(shù)據(jù)孤島的現(xiàn)狀與如今數(shù)據(jù)融合需求之間的矛盾,并且該種矛盾日益凸顯。

2、而為了實現(xiàn)數(shù)據(jù)的安全共享且不會被對方查看到數(shù)據(jù),和解決“數(shù)據(jù)孤島”問題,技術人員提出了聯(lián)邦學習技術(federated?machine?learning/federated?learning),聯(lián)邦學習是一種分布式學習算法,該技術不共享本地所存儲的數(shù)據(jù),而是分享其本地訓練的模型參數(shù)。這使得各參與方在保證數(shù)據(jù)不出本地的前提下能夠多方協(xié)同訓練模型,幫助用戶、企業(yè)、部門能夠在不泄漏自身隱私數(shù)據(jù)的前提下,有效進行機器學習模型的訓練。

3、聯(lián)邦學習技術由于不交換數(shù)據(jù)而交換模型參數(shù),所以大大降低了數(shù)據(jù)隱私泄漏的風險,但近幾年來,隨著該方面技術的深入研究與探索,技術人員發(fā)現(xiàn)聯(lián)邦學習技術同樣存在隱私數(shù)據(jù)泄漏的隱患,在進行模型參數(shù)更新的過程中,攻擊者可以對參數(shù)進行截取捕獲,并且能夠從被截取的數(shù)據(jù)中推斷出模型的信息甚至是原始數(shù)據(jù)的信息。因此,在聯(lián)邦學習技術中加入隱私保護技術成為了迫切需要。

4、隱私保護技術能夠為信息的隱私提供嚴格的保護,根據(jù)聯(lián)邦學習對用戶隱私性的要求,差分隱私、同態(tài)加密和安全多方計算是三種最常見的隱私保護技術。其中,同態(tài)加密和安全多方計算都屬于密碼學方法領域。這三種技術雖然都可以達到隱私保護的目的,但是它們在工作原理和目標上都有一些差別。

5、差分隱私在2006由dwork首先提出,它給出了一種數(shù)據(jù)信息理論安全保證,即函數(shù)的輸入輸出結果對數(shù)據(jù)集上的所有特殊記錄均不敏感,所以差分隱私常被用來抵御成員的推理攻擊性。而在聯(lián)邦學習中比較常見的差分隱私分為本地差分隱私和中心差分隱私。本地差分隱私是指參與方在本地進行訓練的過程中添加噪聲來保護參與方本地數(shù)據(jù)安全,讓服務器無法獲得參與方的原始數(shù)據(jù)。中心差分隱私是指在服務器端對訓練完成的模型參數(shù)添加噪聲,來保護在聯(lián)邦學習推理過程中的數(shù)據(jù)隱私。但該種方法同樣存在缺陷,如果添加噪聲量過大的話,會影響訓練后的模型精度。

6、同態(tài)加密在1978年由rivest等人提出,它提供了一個能夠對每個加密數(shù)據(jù)都加以管理的功能,是一個可以通過對密文進行計算操作而得到正確加密結果的加密技術。作為一種不需要將密文解密就可以處理密文的方法,同態(tài)加密是目前聯(lián)邦學習系統(tǒng)里最常用的隱私保護機制。但該種方法也存在缺點,相比較于其他的隱私保護方法,同態(tài)加密的計算更加復雜,且如果密文的數(shù)據(jù)量較大會導致傳輸效率的下降,并且在基于單密鑰的同態(tài)加密方法中,如果參與方之中的一方被攻擊者成功攻擊,或者參與方中存在惡意用戶,則會使得系統(tǒng)安全性大大降低,存在較大的安全風險。


技術實現(xiàn)思路

1、本發(fā)明目的在于解決背景技術中提出的問題,提供一種基于多密鑰同態(tài)加密和拉普拉斯差分的農(nóng)業(yè)保險數(shù)據(jù)隱私保護方法,以保護各農(nóng)業(yè)保險企業(yè)之間進行聯(lián)邦學習時,各參與方的本地敏感數(shù)據(jù)信息的隱私性和安全性。

2、為了實現(xiàn)本發(fā)明目的,本發(fā)明公開了一種基于多密鑰同態(tài)加密和拉普拉斯差分的農(nóng)業(yè)保險數(shù)據(jù)隱私保護方法,包括以下步驟:

3、步驟1、聯(lián)邦學習框架的搭建;由各農(nóng)業(yè)保險企業(yè)、中心服務器、密鑰生成中心來組成橫向、縱向聯(lián)邦學習框架;

4、步驟2、參數(shù)分發(fā)以及密鑰生成;由密鑰生成中心初始化多密鑰同態(tài)加密安全參數(shù)和公共參數(shù),并將參數(shù)發(fā)送給各個參與方,各個參與方通過公共參數(shù)生成不同的密鑰對;

5、步驟3、服務器生成初始模型參數(shù)并發(fā)送給參與本輪訓練的各參與方;

6、步驟4、各參與方并行進行本地模型訓練;隨機選取并利用本地數(shù)據(jù)集進行訓練,并向訓練梯度中添加滿足差分隱私的噪聲,保護本地模型參數(shù)并實現(xiàn)模型參數(shù)的更新;

7、步驟5、在訓練出滿足預設條件的模型后,各參與方將本地模型參數(shù)通過由步驟2得到的公鑰進行加密,并將自身公鑰與模型參數(shù)密文上傳到服務器;

8、步驟6、服務器對各參與方的本地模型參數(shù)的密文進行聚合,得到由多密鑰同態(tài)加密算法加密后的全局模型,并將加密的全局模型參數(shù)分發(fā)給各參與方;

9、步驟7、各參與方使用各自的私鑰對聚合后已加密的全局模型進行解密,更新本地模型。

10、進一步地,步驟1中,各參與方之間、各參與方與中心服務器、各參與方與密鑰生成中心建立可信傳遞通道;其中,各參與方與服務器之間的通道用于傳遞初始模型參數(shù)和訓練好的模型參數(shù);各參與方與密鑰生成中心之間的通道用于傳遞各密鑰對,服務器與密鑰生成中心之間的通道用來傳遞經(jīng)操作后的模型參數(shù)密文和乘積公鑰pk。

11、進一步地,步驟2包括以下步驟:

12、步驟2.1、密鑰生成中心確定安全參數(shù)λ,安全參數(shù)用來生成公共參數(shù);

13、步驟2.2、選擇一個λ位的模數(shù)n=pq,其中p=2p'+1,q=2q'+1,而p'、q'分別為不同的質數(shù),再選擇一個階為pp'qq'的隨機參數(shù)使得gp′q′(mod?n2)=1+kn,其中k∈[1,n-1];明文空間為zn,誤差分布φ∈r,r上的分布x=x(λ)為密鑰分布,因此其公共參數(shù)pp=(n,k,g,φ,a),其中a為隨機向量其中表示向量中元素屬于zn的k維向量,以及生成主私鑰mk=(p',q');

14、步驟2.3、密鑰生成中心向各個參與方發(fā)送公共參數(shù)pp,各個參與方i通過公共參數(shù)pp生成不同的密鑰對(pki,ski),其中,私鑰ski=si,參數(shù)si為從隨機選取,而公鑰

15、進一步地,步驟3包括以下步驟:

16、步驟3.1、服務器初始化模型參數(shù);

17、步驟3.2、服務器將初始模型參數(shù)發(fā)送給各個參與方。

18、進一步地,步驟4包括以下步驟:

19、步驟4.1、各參與方獲得初始模型參數(shù);

20、步驟4.2、各參與方隨機選取參與訓練的本地數(shù)據(jù)集;

21、其中,各參與方從各自所擁有的數(shù)據(jù)集中隨機選取若干個數(shù)據(jù)集組成本輪批次參與訓練的數(shù)據(jù)集;

22、步驟4.3、各參與方通過對初始模型參數(shù)與選取數(shù)據(jù)集執(zhí)行梯度計算,并根據(jù)損失函數(shù)l得到梯度參數(shù)并對梯度參數(shù)進行裁剪得到裁剪梯度參數(shù)

23、步驟4.4、各參與方在得到所有數(shù)據(jù)對應的梯度值之后,對所有梯度值添加拉普拉斯噪聲,并將經(jīng)過差分隱私處理的梯度值進行求和并平均,得到該批次加噪后的本地模型平均梯度參數(shù)

24、步驟4.5、使用優(yōu)化算法隨機梯度下降法來對模型參數(shù)進行更新,其中,ω為步長或學習率,wi為各參與方持有的模型參數(shù);

25、步驟4.6、各參與方重復執(zhí)行步驟4.2至步驟4.6,直至訓練出滿足條件的本地模型參數(shù)。

26、進一步地,步驟5包括以下步驟:

27、步驟5.1、各參與方使用各自的公鑰pki對本地模型參數(shù)wi進行加密,得到密文包含兩個值(ai,bi),其中ai=gr(mod?n2),bi=gr(1+mn)(mod?n2),r為各參與方從zn中隨機選擇的數(shù);

28、步驟5.2、各參與方將加密后的模型參數(shù)上傳至服務器,服務器接收到所有參與方發(fā)送來的密文集合為其中,t為參與方數(shù)量。

29、進一步地,步驟6包括以下步驟:

30、步驟6.1、服務器在接收到所有參與方上傳的本地模型參數(shù)w*后,將使用keyen算法將所有參與方發(fā)送的參數(shù)密文轉換為乘積公鑰pk加密下的密文encpk(wi),而不改變底層明文,其中,

31、

32、其中keyen算法具體來說,對于在參與方的公鑰pki下加密的給定密文(ai,bi),服務器使用隨機消息τi∈zn對密文進行盲化然后將和各參與方的公鑰pki發(fā)送給密鑰生成中心;

33、密鑰生成中心計算乘積公鑰并使用主私鑰解密密文再使用乘積公鑰加密盲化明文隨后將(ci,di)發(fā)送回服務器;

34、其中,主私鑰解密算法具體為:給定一個密文c=9a,b),然后算法通過mk、pk、pp解密c得到m,首先計算其中k-1表示k模n的逆,然后計算定義δ為p'q'模n的逆,令v=ar(mod?n),得到明文

35、最后服務器利用加法同態(tài)的性質移除τi得到乘積公鑰pk加密下的密文

36、步驟6.2、服務器執(zhí)行聚合操作,其中°代表同態(tài)加密方案中的加法操作;

37、步驟6.3、服務器執(zhí)行trandec算法,將聚合模型參數(shù)密文轉換為t個使用參與方公鑰pki加密的聚合模型參數(shù)密文

38、步驟6.4、服務器將聚合模型參數(shù)密文發(fā)送給所有參與方。

39、進一步地,步驟7包括以下步驟:

40、各參與方收到聚合模型參數(shù)密文后使用各自的私鑰ski解密獲得全局模型參數(shù)最后將用于更新本地模型;

41、其中,解密具體算法為:給定密文c=(a,b)和sk=a,通過公式得到明文m。

42、與現(xiàn)有技術相比,本發(fā)明的顯著進步在于:1)在傳統(tǒng)的聯(lián)邦學習基礎之上,引入了差分隱私技術,在本地模型訓練過程中向所有數(shù)據(jù)對應的梯度值添加適當?shù)睦绽乖肼暎蟠蠼档痛嬖趷阂鈪⑴c方進行推斷攻擊的風險以及其他可能的隱私攻擊手段;2)使用多密鑰同態(tài)加密算法對訓練過程中的模型參數(shù)進行加密,每一位參與方用自身的公鑰加密自身本地訓練的模型參數(shù),相比于傳統(tǒng)的單密鑰同態(tài)加密算法,該算法保證了參與方之間互不泄露隱私的問題,并防止存在多個惡意的內部客戶端聯(lián)合攻擊的情形,以及使得服務器等第三方無法獲得全局模型參數(shù),進一步增加了系統(tǒng)的安全性。

43、為更清楚說明本發(fā)明的功能特性以及結構參數(shù),下面結合附圖及具體實施方式進一步說明。

當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
淅川县| 黄冈市| 谷城县| 惠安县| 大石桥市| 图片| 瑞丽市| 广西| 大港区| 临西县| 闵行区| 阿拉尔市| 宁阳县| 密云县| 安龙县| 南城县| 宁晋县| 萍乡市| 夏津县| 怀化市| 定安县| 宁夏| 河北省| 乌恰县| 永和县| 涿鹿县| 衢州市| 长葛市| 桃江县| 和龙市| 建宁县| 安徽省| 信宜市| 潜江市| 宜都市| 搜索| 桦川县| 白朗县| 嘉义市| 大方县| 昌都县|