本發(fā)明涉及人工智能安全領(lǐng)域,更具體的涉及一種操控訓(xùn)練能耗的對抗攻擊方法及裝置。
背景技術(shù):
1、隨著人工智能技術(shù)的發(fā)展,特別是在自然語言處理(nlp,natural?languageprocessing)和計算機視覺(cv,computer?vision)領(lǐng)域,bert(bidirectional?encoderrepresentations?from?transformers,基于轉(zhuǎn)換器的雙向編碼器表征技術(shù))、gpt(generative?pretrained?transformer,生成式預(yù)訓(xùn)練轉(zhuǎn)換器)等大模型不斷涌現(xiàn)出超強的語義理解與內(nèi)容生成能力。然而,在大模型訓(xùn)練過程中,不僅對高性能計算資源依賴度迅速增大,同時也對大功率電力能源消耗急劇增加。大模型訓(xùn)練消耗大量能源,對構(gòu)建環(huán)境友好型智能社會產(chǎn)生不利影響。當前在全球氣候變暖背景與雙碳目標要求下,綠色能源利用和高效節(jié)能減排已成為社會共識。海量訓(xùn)練數(shù)據(jù)和龐大模型參數(shù)對于提高大模型性能至關(guān)重要,但處理大規(guī)模數(shù)據(jù)需要更多的計算資源和時間,進而導(dǎo)致能耗上升。
2、通常,在主頻、核心數(shù)、緩存大小等方面具有更高性能的gpu(graphicsprocessing?unit,圖形處理單元)芯片能夠在更短的時間內(nèi)完成計算任務(wù),但也會消耗更多的電量,且產(chǎn)生大量的熱量。如果散熱不良,不僅導(dǎo)致硬件性能下降,甚至可能損壞設(shè)備,更會間接影響硬件的計算效率和能耗。在大模型訓(xùn)練過程中,將訓(xùn)練任務(wù)分配到多個計算單元上進行并行計算,從而加快訓(xùn)練速度,降低訓(xùn)練時間和能耗,但如果分布式訓(xùn)練架構(gòu)不合理,可能會導(dǎo)致計算節(jié)點之間的通信頻繁、同步開銷過大,從而可能增加能耗。
3、然而,在訓(xùn)練數(shù)據(jù)中如果摻雜精心設(shè)計的對抗擾動,并作用于大模型訓(xùn)練時反向傳播的梯度,進而延遲算法收斂,從而增加訓(xùn)練能耗?,F(xiàn)有研究未關(guān)注到數(shù)據(jù)質(zhì)量及優(yōu)化算法對訓(xùn)練時長的操縱可能,未分析此類對抗攻擊的能效影響,也缺乏對操縱訓(xùn)練能耗的對抗攻擊原理的理解及相應(yīng)檢測防御策略的設(shè)計,這最終或會加劇大模型訓(xùn)練的能源開銷。
技術(shù)實現(xiàn)思路
1、本發(fā)明實施例提供一種操控訓(xùn)練能耗的對抗攻擊方法及裝置,?用以解決因缺少分析理解操縱訓(xùn)練能耗的對抗攻擊原理和設(shè)計檢測防御策略,導(dǎo)致加劇大模型訓(xùn)練能源開銷的問題。
2、本發(fā)明實施例提供一種操控訓(xùn)練能耗的對抗攻擊方法,包括:
3、獲取包含多種類型信息的數(shù)據(jù)集合,從所述數(shù)據(jù)集合中選擇攜帶有多模態(tài)數(shù)據(jù)樣本的訓(xùn)練數(shù)據(jù)樣本,所述訓(xùn)練數(shù)據(jù)樣本用于訓(xùn)練待訓(xùn)練大模型;
4、根據(jù)所述訓(xùn)練數(shù)據(jù)樣本和所述待訓(xùn)練大模型,確定所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代的梯度值、所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在上個迭代的梯度值以及所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代與上個迭代之間的梯度差;
5、根據(jù)優(yōu)化算法更新對抗擾動時,若確定的最優(yōu)對抗擾動滿足最大化上層優(yōu)化目標函數(shù)、對抗擾動大小的調(diào)控因子大于所述對抗擾動的范數(shù)以及所述梯度差的范數(shù)大于第一閾值,根據(jù)所述訓(xùn)練數(shù)據(jù)樣本和所述對抗擾動得到擾動樣本,其中,所述第一閾值根據(jù)所述待訓(xùn)練大模型的訓(xùn)練優(yōu)化終止條件閾值和梯度差的大小調(diào)控因子確定;
6、將所述擾動樣本輸入至所述待訓(xùn)練大模型,所述待訓(xùn)練大模型在每次迭代時得到不同的梯度值,若確定當前迭代的梯度值與所述待訓(xùn)練大模型的目標函數(shù)關(guān)于待訓(xùn)練大模型的權(quán)重參數(shù)的第一梯度值相等時,根據(jù)所述待訓(xùn)練大模型的目標函數(shù)最小化尋優(yōu)確定所述待訓(xùn)練大模型的最優(yōu)權(quán)重參數(shù)。
7、優(yōu)選地,所述最優(yōu)對抗擾動滿足最大化上層優(yōu)化目標函數(shù)通過下列公式表示:
8、
9、所述對抗擾動大小的調(diào)控因子大于所述對抗擾動的范數(shù)以及所述梯度差的范數(shù)大于第一閾值,通過下列公式表示:
10、
11、
12、所述擾動樣本通過下列公式表示:
13、
14、其中,表示最優(yōu)對抗擾動,表示待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在第次迭代與第次迭代之間的梯度差,表示對抗擾動,表示正則化系數(shù),表示-范數(shù),表示對抗擾動大小的調(diào)控因子,表示待訓(xùn)練大模型的訓(xùn)練優(yōu)化終止條件閾值,表示所述梯度差的大小調(diào)控因子,表示訓(xùn)練數(shù)據(jù)樣本,表示擾動樣本。
15、優(yōu)選地,所述待訓(xùn)練大模型的最優(yōu)權(quán)重參數(shù)通過下列公式表示:
16、
17、
18、其中,表示待訓(xùn)練大模型優(yōu)化訓(xùn)練所得的最優(yōu)權(quán)重參數(shù),,表示返回的是使取得最小值的的值,表示待訓(xùn)練大模型的權(quán)重參數(shù),表示待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在第次迭代的梯度值,表示關(guān)于的第一梯度值,表示待訓(xùn)練大模型的目標函數(shù),表示待訓(xùn)練大模型在第次迭代的權(quán)重參數(shù),表示待訓(xùn)練大模型在第次迭代的權(quán)重參數(shù),表示對抗擾動大小的調(diào)控因子,表示待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在第次迭代的梯度值,表示在第次迭代時關(guān)于的第一梯度值。
19、優(yōu)選地,所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代與上個迭代之間的梯度差通過下列公式確定:
20、
21、
22、其中,表示待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在第次迭代與第次迭代之間的梯度差,表示待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在第次迭代的梯度值,表示待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在第次迭代的梯度值,表示在第次迭代時關(guān)于的第一梯度值,表示對抗擾動大小的調(diào)控因子。
23、優(yōu)選地,所述多模態(tài)數(shù)據(jù)樣本包括以下任意一種模態(tài):
24、圖片以及和與所述圖片對應(yīng)的文字描述的文本和圖像模態(tài);
25、音頻以及與所述音頻對應(yīng)的文字描述的文本和音頻模態(tài);
26、視頻、音頻以及與所述視頻、所述音頻對應(yīng)的文字描述的文本、視頻和音頻模態(tài)。
27、優(yōu)選地,所述確定所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代與上個迭代之間的梯度差之前,還包括:
28、預(yù)先設(shè)置所述待訓(xùn)練大模型包括的用于調(diào)控優(yōu)化目標權(quán)重的正則化系數(shù),所述正則化系數(shù)與所述訓(xùn)練數(shù)據(jù)樣本的包括的噪聲呈正比;
29、預(yù)先設(shè)置所述待訓(xùn)練大模型包括的待訓(xùn)練大模型的訓(xùn)練優(yōu)化終止條件閾值,所述待訓(xùn)練大模型的訓(xùn)練優(yōu)化終止條件閾值與所述待訓(xùn)練大模型的訓(xùn)練時間長度呈反比;
30、預(yù)先設(shè)置所述待訓(xùn)練大模型包括的梯度差的大小調(diào)控因子,所述梯度差的大小調(diào)控因子與待訓(xùn)練大模型的收斂性呈反比;
31、預(yù)先設(shè)置所述待訓(xùn)練大模型包括的對抗擾動大小的調(diào)控因子,所述對抗擾動大小的調(diào)控因子用于控制對抗擾動的強度。
32、本發(fā)明實施例提供一種操控訓(xùn)練能耗的對抗攻擊裝置,包括:
33、獲取單元,用于獲取包含多種類型信息的數(shù)據(jù)集合,從所述數(shù)據(jù)集合中選擇攜帶有多模態(tài)數(shù)據(jù)樣本的訓(xùn)練數(shù)據(jù)樣本,所述訓(xùn)練數(shù)據(jù)樣本用于訓(xùn)練待訓(xùn)練大模型;
34、第一確定單元,用于根據(jù)所述訓(xùn)練數(shù)據(jù)樣本和所述待訓(xùn)練大模型,確定所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代的梯度值、所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在上個迭代的梯度值以及所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代與上個迭代之間的梯度差;
35、得到單元,根據(jù)優(yōu)化算法更新對抗擾動時,若確定的最優(yōu)對抗擾動滿足最大化上層優(yōu)化目標函數(shù)、對抗擾動大小的調(diào)控因子大于所述對抗擾動的范數(shù)以及所述梯度差的范數(shù)大于第一閾值,根據(jù)所述訓(xùn)練數(shù)據(jù)樣本和所述對抗擾動得到擾動樣本,其中,所述第一閾值根據(jù)所述待訓(xùn)練大模型的訓(xùn)練優(yōu)化終止條件閾值和梯度差的大小調(diào)控因子確定;
36、第二確定單元,用于將所述擾動樣本輸入至所述待訓(xùn)練大模型,所述待訓(xùn)練大模型在每次迭代時得到不同的梯度值,若確定當前迭代的梯度值與所述待訓(xùn)練大模型的目標函數(shù)關(guān)于待訓(xùn)練大模型的權(quán)重參數(shù)的第一梯度值相等時,根據(jù)所述待訓(xùn)練大模型的目標函數(shù)最小化尋優(yōu)確定所述待訓(xùn)練大模型的最優(yōu)權(quán)重參數(shù)。
37、本發(fā)明實施例提供一種計算機設(shè)備,所述計算機設(shè)備包括存儲器和處理器,所述存儲器存儲有計算機程序,所述計算機程序被所述處理器執(zhí)行時,使得所述處理器執(zhí)行上述任意一項所述操控訓(xùn)練能耗的對抗攻擊方法。
38、本發(fā)明實施例提供一種計算機可讀存儲介質(zhì),存儲有計算機程序,所述計算機程序被處理器執(zhí)行時,使得所述處理器執(zhí)行上述任意一項所述操控訓(xùn)練能耗的對抗攻擊方法。
39、本發(fā)明實施例提供一種操控訓(xùn)練能耗的對抗攻擊方法及裝置,該方法包括:獲取包含多種類型信息的數(shù)據(jù)集合,從所述數(shù)據(jù)集合中選擇攜帶有多模態(tài)數(shù)據(jù)樣本的訓(xùn)練數(shù)據(jù)樣本,所述訓(xùn)練數(shù)據(jù)樣本用于訓(xùn)練待訓(xùn)練大模型;根據(jù)所述訓(xùn)練數(shù)據(jù)樣本和所述待訓(xùn)練大模型,確定所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代的梯度值、所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在上個迭代的梯度值以及所述待訓(xùn)練大模型關(guān)于上層優(yōu)化目標函數(shù)在當前迭代與上個迭代之間的梯度差;根據(jù)優(yōu)化算法更新對抗擾動時,若確定的最優(yōu)對抗擾動滿足最大化上層優(yōu)化目標函數(shù)、對抗擾動大小的調(diào)控因子大于所述對抗擾動的范數(shù)以及所述梯度差的范數(shù)大于第一閾值,根據(jù)所述訓(xùn)練數(shù)據(jù)樣本和所述對抗擾動得到擾動樣本,其中,所述第一閾值根據(jù)所述待訓(xùn)練大模型的訓(xùn)練優(yōu)化終止條件閾值和梯度差的大小調(diào)控因子確定;將所述擾動樣本輸入至所述待訓(xùn)練大模型,所述待訓(xùn)練大模型在每次迭代時得到不同的梯度值,若確定當前迭代的梯度值與所述待訓(xùn)練大模型的目標函數(shù)關(guān)于待訓(xùn)練大模型的權(quán)重參數(shù)的第一梯度值相等時,根據(jù)所述待訓(xùn)練大模型的目標函數(shù)最小化尋優(yōu)確定所述待訓(xùn)練大模型的最優(yōu)權(quán)重參數(shù)。該方法通過對用于待訓(xùn)練大模型的訓(xùn)練數(shù)據(jù)樣本進行攻擊檢測和擾動清洗,降低了待訓(xùn)練大模型的訓(xùn)練能耗;該方法采用的雙層優(yōu)化架構(gòu),上層優(yōu)化致力于最大化梯度差度量,這樣能夠延遲下層訓(xùn)練過程的收斂并增加訓(xùn)練時長,進而有效減少訓(xùn)練能耗;與此同時,上層優(yōu)化還會最小化對抗擾動度量,以此獲取難以察覺的微小擾動,大大增強了對抗攻擊的隱蔽性。在對抗攻擊環(huán)境中,通過最小化待訓(xùn)練大模型的損失函數(shù),運用隨機梯度下降反向傳播方法開展訓(xùn)練,最終獲取待訓(xùn)練大模型的最優(yōu)權(quán)重參數(shù)。該方法基于雙層優(yōu)化框架構(gòu)建對抗攻擊模型,將生成的對抗樣本融入訓(xùn)練數(shù)據(jù)樣本,在不損害待訓(xùn)練大模型模式識別能力的情況下,成功削減其訓(xùn)練能耗。