欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種操控訓(xùn)練能耗的對抗攻擊方法及裝置

文檔序號:40552557發(fā)布日期:2025-01-03 11:12閱讀:11來源:國知局
一種操控訓(xùn)練能耗的對抗攻擊方法及裝置

本發(fā)明涉及人工智能安全領(lǐng)域,更具體的涉及一種操控訓(xùn)練能耗的對抗攻擊方法及裝置。


背景技術(shù):

1、隨著人工智能技術(shù)的發(fā)展,特別是在自然語言處理(nlp,natural?languageprocessing)和計算機視覺(cv,computer?vision)領(lǐng)域,bert(bidirectional?encoderrepresentations?from?transformers,基于轉(zhuǎn)換器的雙向編碼器表征技術(shù))、gpt(generative?pretrained?transformer,生成式預(yù)訓(xùn)練轉(zhuǎn)換器)等大模型不斷涌現(xiàn)出超強的語義理解與內(nèi)容生成能力。然而,在大模型訓(xùn)練過程中,不僅對高性能計算資源依賴度迅速增大,同時也對大功率電力能源消耗急劇增加。大模型訓(xùn)練消耗大量能源,對構(gòu)建環(huán)境友好型智能社會產(chǎn)生不利影響。當前在全球氣候變暖背景與雙碳目標要求下,綠色能源利用和高效節(jié)能減排已成為社會共識。海量訓(xùn)練數(shù)據(jù)和龐大模型參數(shù)對于提高大模型性能至關(guān)重要,但處理大規(guī)模數(shù)據(jù)需要更多的計算資源和時間,進而導(dǎo)致能耗上升。

2、通常,在主頻、核心數(shù)、緩存大小等方面具有更高性能的gpu(graphicsprocessing?unit,圖形處理單元)芯片能夠在更短的時間內(nèi)完成計算任務(wù),但也會消耗更多的電量,且產(chǎn)生大量的熱量。如果散熱不良,不僅導(dǎo)致硬件性能下降,甚至可能損壞設(shè)備,更會間接影響硬件的計算效率和能耗。在大模型訓(xùn)練過程中,將訓(xùn)練任務(wù)分配到多個計算單元上進行并行計算,從而加快訓(xùn)練速度,降低訓(xùn)練時間和能耗,但如果分布式訓(xùn)練架構(gòu)不合理,可能會導(dǎo)致計算節(jié)點之間的通信頻繁、同步開銷過大,從而可能增加能耗。

3、然而,在訓(xùn)練數(shù)據(jù)中如果摻雜精心設(shè)計的對抗擾動,并作用于大模型訓(xùn)練時反向傳播的梯度,進而延遲算法收斂,從而增加訓(xùn)練能耗?,F(xiàn)有研究未關(guān)注到數(shù)據(jù)質(zhì)量及優(yōu)化算法對訓(xùn)練時長的操縱可能,未分析此類對抗攻擊的能效影響,也缺乏對操縱訓(xùn)練能耗的對抗攻擊原理的理解及相應(yīng)檢測防御策略的設(shè)計,這最終或會加劇大模型訓(xùn)練的能源開銷。


技術(shù)實現(xiàn)思路

1、本發(fā)明實施例提供一種操控訓(xùn)練能耗的對抗攻擊方法及裝置,?用以解決因缺少分析理解操縱訓(xùn)練能耗的對抗攻擊原理和設(shè)計檢測防御策略,導(dǎo)致加劇大模型訓(xùn)練能源開銷的問題。

2、本發(fā)明實施例提供一種操控訓(xùn)練能耗的對抗攻擊方法,包括:

3、獲取包含多種類型信息的數(shù)據(jù)集合,從所述數(shù)據(jù)集合中選擇攜帶有多模態(tài)數(shù)據(jù)樣本的訓(xùn)練數(shù)據(jù)樣本,所述訓(xùn)練數(shù)據(jù)樣本用于訓(xùn)練待訓(xùn)練大模型;

4、根據(jù)所述訓(xùn)練數(shù)據(jù)樣本和所述待訓(xùn)練大模型,確定所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代的梯度值、所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在上個迭代的梯度值以及所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代與上個迭代之間的梯度差;

5、根據(jù)優(yōu)化算法更新對抗擾動時,若確定的最優(yōu)對抗擾動滿足最大化上層優(yōu)化目標函數(shù)、對抗擾動大小的調(diào)控因子大于所述對抗擾動的范數(shù)以及所述梯度差的范數(shù)大于第一閾值,根據(jù)所述訓(xùn)練數(shù)據(jù)樣本和所述對抗擾動得到擾動樣本,其中,所述第一閾值根據(jù)所述待訓(xùn)練大模型的訓(xùn)練優(yōu)化終止條件閾值和梯度差的大小調(diào)控因子確定;

6、將所述擾動樣本輸入至所述待訓(xùn)練大模型,所述待訓(xùn)練大模型在每次迭代時得到不同的梯度值,若確定當前迭代的梯度值與所述待訓(xùn)練大模型的目標函數(shù)關(guān)于待訓(xùn)練大模型的權(quán)重參數(shù)的第一梯度值相等時,根據(jù)所述待訓(xùn)練大模型的目標函數(shù)最小化尋優(yōu)確定所述待訓(xùn)練大模型的最優(yōu)權(quán)重參數(shù)。

7、優(yōu)選地,所述最優(yōu)對抗擾動滿足最大化上層優(yōu)化目標函數(shù)通過下列公式表示:

8、

9、所述對抗擾動大小的調(diào)控因子大于所述對抗擾動的范數(shù)以及所述梯度差的范數(shù)大于第一閾值,通過下列公式表示:

10、

11、

12、所述擾動樣本通過下列公式表示:

13、

14、其中,表示最優(yōu)對抗擾動,表示待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在第次迭代與第次迭代之間的梯度差,表示對抗擾動,表示正則化系數(shù),表示-范數(shù),表示對抗擾動大小的調(diào)控因子,表示待訓(xùn)練大模型的訓(xùn)練優(yōu)化終止條件閾值,表示所述梯度差的大小調(diào)控因子,表示訓(xùn)練數(shù)據(jù)樣本,表示擾動樣本。

15、優(yōu)選地,所述待訓(xùn)練大模型的最優(yōu)權(quán)重參數(shù)通過下列公式表示:

16、

17、

18、其中,表示待訓(xùn)練大模型優(yōu)化訓(xùn)練所得的最優(yōu)權(quán)重參數(shù),,表示返回的是使取得最小值的的值,表示待訓(xùn)練大模型的權(quán)重參數(shù),表示待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在第次迭代的梯度值,表示關(guān)于的第一梯度值,表示待訓(xùn)練大模型的目標函數(shù),表示待訓(xùn)練大模型在第次迭代的權(quán)重參數(shù),表示待訓(xùn)練大模型在第次迭代的權(quán)重參數(shù),表示對抗擾動大小的調(diào)控因子,表示待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在第次迭代的梯度值,表示在第次迭代時關(guān)于的第一梯度值。

19、優(yōu)選地,所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代與上個迭代之間的梯度差通過下列公式確定:

20、

21、

22、其中,表示待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在第次迭代與第次迭代之間的梯度差,表示待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在第次迭代的梯度值,表示待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在第次迭代的梯度值,表示在第次迭代時關(guān)于的第一梯度值,表示對抗擾動大小的調(diào)控因子。

23、優(yōu)選地,所述多模態(tài)數(shù)據(jù)樣本包括以下任意一種模態(tài):

24、圖片以及和與所述圖片對應(yīng)的文字描述的文本和圖像模態(tài);

25、音頻以及與所述音頻對應(yīng)的文字描述的文本和音頻模態(tài);

26、視頻、音頻以及與所述視頻、所述音頻對應(yīng)的文字描述的文本、視頻和音頻模態(tài)。

27、優(yōu)選地,所述確定所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代與上個迭代之間的梯度差之前,還包括:

28、預(yù)先設(shè)置所述待訓(xùn)練大模型包括的用于調(diào)控優(yōu)化目標權(quán)重的正則化系數(shù),所述正則化系數(shù)與所述訓(xùn)練數(shù)據(jù)樣本的包括的噪聲呈正比;

29、預(yù)先設(shè)置所述待訓(xùn)練大模型包括的待訓(xùn)練大模型的訓(xùn)練優(yōu)化終止條件閾值,所述待訓(xùn)練大模型的訓(xùn)練優(yōu)化終止條件閾值與所述待訓(xùn)練大模型的訓(xùn)練時間長度呈反比;

30、預(yù)先設(shè)置所述待訓(xùn)練大模型包括的梯度差的大小調(diào)控因子,所述梯度差的大小調(diào)控因子與待訓(xùn)練大模型的收斂性呈反比;

31、預(yù)先設(shè)置所述待訓(xùn)練大模型包括的對抗擾動大小的調(diào)控因子,所述對抗擾動大小的調(diào)控因子用于控制對抗擾動的強度。

32、本發(fā)明實施例提供一種操控訓(xùn)練能耗的對抗攻擊裝置,包括:

33、獲取單元,用于獲取包含多種類型信息的數(shù)據(jù)集合,從所述數(shù)據(jù)集合中選擇攜帶有多模態(tài)數(shù)據(jù)樣本的訓(xùn)練數(shù)據(jù)樣本,所述訓(xùn)練數(shù)據(jù)樣本用于訓(xùn)練待訓(xùn)練大模型;

34、第一確定單元,用于根據(jù)所述訓(xùn)練數(shù)據(jù)樣本和所述待訓(xùn)練大模型,確定所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代的梯度值、所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在上個迭代的梯度值以及所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代與上個迭代之間的梯度差;

35、得到單元,根據(jù)優(yōu)化算法更新對抗擾動時,若確定的最優(yōu)對抗擾動滿足最大化上層優(yōu)化目標函數(shù)、對抗擾動大小的調(diào)控因子大于所述對抗擾動的范數(shù)以及所述梯度差的范數(shù)大于第一閾值,根據(jù)所述訓(xùn)練數(shù)據(jù)樣本和所述對抗擾動得到擾動樣本,其中,所述第一閾值根據(jù)所述待訓(xùn)練大模型的訓(xùn)練優(yōu)化終止條件閾值和梯度差的大小調(diào)控因子確定;

36、第二確定單元,用于將所述擾動樣本輸入至所述待訓(xùn)練大模型,所述待訓(xùn)練大模型在每次迭代時得到不同的梯度值,若確定當前迭代的梯度值與所述待訓(xùn)練大模型的目標函數(shù)關(guān)于待訓(xùn)練大模型的權(quán)重參數(shù)的第一梯度值相等時,根據(jù)所述待訓(xùn)練大模型的目標函數(shù)最小化尋優(yōu)確定所述待訓(xùn)練大模型的最優(yōu)權(quán)重參數(shù)。

37、本發(fā)明實施例提供一種計算機設(shè)備,所述計算機設(shè)備包括存儲器和處理器,所述存儲器存儲有計算機程序,所述計算機程序被所述處理器執(zhí)行時,使得所述處理器執(zhí)行上述任意一項所述操控訓(xùn)練能耗的對抗攻擊方法。

38、本發(fā)明實施例提供一種計算機可讀存儲介質(zhì),存儲有計算機程序,所述計算機程序被處理器執(zhí)行時,使得所述處理器執(zhí)行上述任意一項所述操控訓(xùn)練能耗的對抗攻擊方法。

39、本發(fā)明實施例提供一種操控訓(xùn)練能耗的對抗攻擊方法及裝置,該方法包括:獲取包含多種類型信息的數(shù)據(jù)集合,從所述數(shù)據(jù)集合中選擇攜帶有多模態(tài)數(shù)據(jù)樣本的訓(xùn)練數(shù)據(jù)樣本,所述訓(xùn)練數(shù)據(jù)樣本用于訓(xùn)練待訓(xùn)練大模型;根據(jù)所述訓(xùn)練數(shù)據(jù)樣本和所述待訓(xùn)練大模型,確定所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代的梯度值、所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在上個迭代的梯度值以及所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代與上個迭代之間的梯度差;根據(jù)優(yōu)化算法更新對抗擾動時,若確定的最優(yōu)對抗擾動滿足最大化上層優(yōu)化目標函數(shù)、對抗擾動大小的調(diào)控因子大于所述對抗擾動的范數(shù)以及所述梯度差的范數(shù)大于第一閾值,根據(jù)所述訓(xùn)練數(shù)據(jù)樣本和所述對抗擾動得到擾動樣本,其中,所述第一閾值根據(jù)所述待訓(xùn)練大模型的訓(xùn)練優(yōu)化終止條件閾值和梯度差的大小調(diào)控因子確定;將所述擾動樣本輸入至所述待訓(xùn)練大模型,所述待訓(xùn)練大模型在每次迭代時得到不同的梯度值,若確定當前迭代的梯度值與所述待訓(xùn)練大模型的目標函數(shù)關(guān)于待訓(xùn)練大模型的權(quán)重參數(shù)的第一梯度值相等時,根據(jù)所述待訓(xùn)練大模型的目標函數(shù)最小化尋優(yōu)確定所述待訓(xùn)練大模型的最優(yōu)權(quán)重參數(shù)。該方法通過對用于待訓(xùn)練大模型的訓(xùn)練數(shù)據(jù)樣本進行攻擊檢測和擾動清洗,降低了待訓(xùn)練大模型的訓(xùn)練能耗;該方法采用的雙層優(yōu)化架構(gòu),上層優(yōu)化致力于最大化梯度差度量,這樣能夠延遲下層訓(xùn)練過程的收斂并增加訓(xùn)練時長,進而有效減少訓(xùn)練能耗;與此同時,上層優(yōu)化還會最小化對抗擾動度量,以此獲取難以察覺的微小擾動,大大增強了對抗攻擊的隱蔽性。在對抗攻擊環(huán)境中,通過最小化待訓(xùn)練大模型的損失函數(shù),運用隨機梯度下降反向傳播方法開展訓(xùn)練,最終獲取待訓(xùn)練大模型的最優(yōu)權(quán)重參數(shù)。該方法基于雙層優(yōu)化框架構(gòu)建對抗攻擊模型,將生成的對抗樣本融入訓(xùn)練數(shù)據(jù)樣本,在不損害待訓(xùn)練大模型模式識別能力的情況下,成功削減其訓(xùn)練能耗。

當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
家居| 沾益县| 全椒县| 元朗区| 图们市| 监利县| 廊坊市| 浦东新区| 凌海市| 尼勒克县| 招远市| 特克斯县| 台南县| 湖州市| 集贤县| 海淀区| 壤塘县| 乌兰浩特市| 荣成市| 涞水县| 芜湖市| 龙江县| 法库县| 宜丰县| 托里县| 绍兴市| 阳信县| 金阳县| 潼关县| 郴州市| 乌兰县| 莱西市| 文水县| 平顺县| 惠安县| 麻城市| 聊城市| 手游| 宾川县| 汤原县| 巴楚县|